L’intelligenza artificiale entra in una nuova fase di regolamentazione con l’introduzione degli standard internazionali ISO/IEC 42001 e ISO/IEC 42005. Il primo definisce i requisiti per creare un sistema di gestione dell’IA responsabile, garantendo controllo, trasparenza e tracciabilità dei processi automatizzati.

Il secondo, invece, introduce il modello di AI System Impact Assessment, utile per valutare e documentare i rischi connessi ai sistemi di intelligenza artificiale, dalla protezione dei dati alla sicurezza informatica, fino agli impatti etici e sociali.

Di questi temi si è discusso nel convegno ospitato all’Università Suor Orsola Benincasa di Napoli, che ha riunito esperti, professionisti e studiosi per confrontarsi sulle nuove sfide della governance dell’IA. A spiegarci nel dettaglio come queste norme cambieranno l’approccio delle aziende è il CEO di Certifica, il Dottor Salvatore Scutiero, che abbiamo intervistato per approfondire il significato e le applicazioni concrete di questi standard.

“Oggi abbiamo cercato di fare un focus su tutto ciò che rappresenta l’intelligenza artificiale e sui rischi che può portare. Una maggiore attenzione sull’applicazione di queste tecniche che pervadono la società. Abbiamo cercato di dare una linea guida, delle indicazioni tecniche necessarie per individuare e mitigare i rischi all’applicazione di queste certificazioni”.

*Pozzuoli News 24 è anche su WhatsApp. E’ sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati.

L’articolo Governare l’Intelligenza Artificiale tra regolamentazione e rischi: introdotti nuovi standard proviene da Pozzuoli News 24.

(Visited 1 times, 1 visits today)
Condividi su :

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Close Search Window