"La legge europea sull'intelligenza artificiale è una novità mondiale. Un quadro giuridico unico per lo sviluppo dell'intelligenza artificiale di cui ci si può fidare. E per la sicurezza e i diritti fondamentali delle persone e delle imprese. Un impegno che abbiamo assunto nei nostri orientamenti politici e che abbiamo mantenuto". Lo ha scritto sui social la presidente della Commissione europea Ursula von der Leyen.
L'obiettivo di questa innovativa normativa è quello di garantire che l'IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, stimolando al tempo stesso l'innovazione e rendendo l'Europa leader nel settore.
I negoziati hanno rischiato il punto di non ritorno durante la discussione sugli usi ammessi e vietati dell'intelligenza artificiale da parte delle forze dell'ordine. Dal riconoscimento biometrico in tempo reale fino alla polizia predittiva. Il Parlamento difendeva la sua linea per il blocco totale. Il Consiglio invece chiedeva un approccio più permissivo.
Oltre 60 persone, tra accademici e ricercatori in ambito privacy e tutela dei diritti digitali, hanno firmato, in tempi brevissimi, una lettera aperta per chiedere al Parlamento di non fare passi indietro sui divieti per l'uso dell'intelligenza artificiale.
Alla fine, i negoziatori hanno concordato una serie di salvaguardie e ristrette eccezioni per l'uso dei sistemi di identificazione biometrica in spazi accessibili al pubblico ai fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati gravi rigorosamente definiti.
Per quel che riguarda le pratiche vietate, la lista dei divieti include i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; le tecniche manipolative; l'IA usata per sfruttare le vulnerabilità delle persone.
I cittadini, poi, avranno il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate sui sistemi di IA ad alto rischio che hanno un impatto sui loro diritti.
Davide Fifaco