Categorie
Eccellenze online

L’Europa è d’accordo sulla legge per regolamentare l’AI

Un regolamento, il primo del genere al mondo, per garantire che i sistemi di Intelligenza artificiale immessi sul mercato europeo, e utilizzati nella UE, siano sicuri e rispettino i diritti fondamentali e i valori dell’Unione. E, allo stesso tempo, stimolare gli investimenti e l’innovazione in Europa.

È la proposta di norme armonizzate sull’Intelligenza artificiale stilata dopo una maratona di negoziati durata tre giorni dal Consiglio UE e il Parlamento europeo.
L’idea principale alla base dell’accordo è regolamentare l’Intelligenza artificiale a seconda della sua capacità di causare danni alla società. Pertanto, l’approccio utilizzato dalle istituzioni europee è ‘basato sul rischio’, da quello minimo a quello inaccettabile. Maggiore è il rischio più severe sono le regole.

Sandbox normative per un’innovazione responsabile

Le sandbox normative faciliteranno l’innovazione responsabile e lo sviluppo di sistemi AI conformi. Se la stragrande maggioranza dei sistemi AI rientra nella categoria del rischio minimo (con beneficio di free-pass), quelli identificati ad alto rischio saranno tenuti a rispettare requisiti rigorosi.

Esempi di sistemi di AI ad alto rischio includono alcune infrastrutture critiche, come nei settori acqua/gas/elettricità, dispositivi medici, sistemi per determinare l’accesso alle istituzioni educative o per reclutare persone, alcuni sistemi utilizzati nei settori delle forze dell’ordine, controllo delle frontiere, amministrazione della giustizia e processi democratici.
Sono considerati ad alto rischio anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni.

Le linee rosse

Il rischio inaccettabile riguarda i sistemi di AI considerati una chiara minaccia ai diritti fondamentali delle persone, e saranno vietati.
La blacklist include sistemi o applicazioni di AI che manipolano il comportamento umano per aggirare il libero arbitrio, sistemi che consentono il ‘punteggio sociale’ da parte di governi o aziende, e alcune applicazioni di polizia predittiva.

Alcuni utilizzi dei sistemi biometrici saranno vietati, ad esempio, il riconoscimento delle emozioni sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone, o il riconoscimento facciale in tempo reale in spazi accessibili al pubblico.
L’accordo della UE chiarisce gli obiettivi in cui tale uso è strettamente necessario ai fini dell’applicazione della legge, e per i quali le autorità dovrebbero essere eccezionalmente autorizzate a utilizzare tali sistemi.

Eccezioni e sistemi a rischi specifici

L’accordo prevede ulteriori garanzie, limitando le eccezioni ai casi di vittime di determinati reati, la prevenzione di minacce reali, presenti o prevedibili (es: attacchi terroristici), e la ricerca di persone sospettate di gravi crimini.
Vi è poi la categoria dei rischi specifici, quali le ormai famose chatbot.
Quando utilizzano le chatbot, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina. Deepfake e altri contenuti generati dall’AI dovranno essere etichettati come tali.

Inoltre, i fornitori dovranno progettare sistemi in modo che i contenuti audio/video/testo/immagini sintetici siano contrassegnati e rilevabili come generati o manipolati artificialmente.
La legge sull’AI, riferisce Agi, non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa, di ricerca e innovazione, o alle persone che utilizzano l’AI per motivi non professionali.