Una legislazione che affronta pregiudizi, privacy e rischi dell'IA
L'Unione Europea è la prima al mondo a dotarsi di regole sull'Intelligenza Artificiale. Il nuovo regolamento, noto come AI Act, stabilisce come l'IA dovrebbe essere governata nel mondo occidentale. La legge affronta le preoccupazioni relative a pregiudizi, privacy e altri rischi derivanti dalla rapida evoluzione della tecnologia. Vieta l'uso dell'IA per rilevare emozioni nei luoghi di lavoro e nelle scuole e limita il suo utilizzo in situazioni ad alto rischio. La legge introduce anche restrizioni agli strumenti di IA generativa, come ChatGPT, per proteggere le informazioni sensibili degli utenti. L'AI Act è stato definito una "vittoria della democrazia contro le lobby". Tuttavia, la legge è stata rivista per affrontare le preoccupazioni delle aziende europee sulla concorrenza e la sovranità tecnologica. La legge prevede un approccio basato sul rischio, con requisiti più severi per i sistemi ad alto rischio, come quelli utilizzati nei dispositivi medici o nelle infrastrutture critiche. Alcuni usi dell'IA sono vietati, come i sistemi di punteggio sociale e i sistemi di riconoscimento delle emozioni a scuola e sul posto di lavoro. La legge si applica ai paesi dell'UE e prevede multe fino a 35 milioni di euro per le violazioni. Al di fuori dell'UE, altri paesi stanno elaborando le proprie norme sull'IA. Nonostante le sfide e le ambiguità presenti nella legislazione, l'industria deve adattarsi e cercare chiarezza per garantire un quadro normativo equilibrato ed efficace.
Non ci sono commenti