Il Parlamento europeo ha adottato la sua posizione negoziale sulla legge sull’Intelligenza Artificiale (AI).
Le nuove norme promuovono un uso dell’IA affidabile e incentrato sull’essere umano e sulla tutela di salute, sicurezza, diritti fondamentali e dai suoi effetti dannosi, seguendo un approccio basato sul rischio e stabilendo obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio.
Saranno vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale.
È anche stato ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’IA, come:
- l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
- l’uso di sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessario per investigare uno specifico reato grave;
- i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico);
- i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
- i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione;
- l’estrazione non mirata di dati biometrici da internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
Inoltre, sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media. I sistemi di IA generativa come ChatGPT devono dichiarare come è stato generato il contenuto.
I fornitori di modelli di base dovrebbero valutare e mitigare i possibili rischi e registrare i loro modelli nella banca dati dell’UE prima della loro immissione sul mercato europeo. I sistemi di IA generativa che si basano su tali modelli, quali ChatGPT, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall’IA), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento.
Per stimolare l’innovazione nel campo dell’IA e sostenere le PMI, i deputati hanno previsto esenzioni per le attività di ricerca e le componenti dell’IA fornite con licenze open-source. La nuova legge promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l’IA prima che venga implementata.
In ultimo, i deputati intendono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio.
Maggiori dettagli qui.