Norme, obblighi e divieti contro rischi per diritti e democrazia
Bruxelles, 9 dic. (askanews) – I negoziatori del Parlamento europeo e della presidenza di turno spagnola del Consiglio dell’Unione europea hanno raggiunto ieri notte a Bruxelles un accordo provvisorio sul nuovo regolamento Ue sull’intelligenza artificiale (IA). Obiettivo del regolamento è garantire che i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale siano protetti dall’IA “ad alto rischio”, promuovendo al contempo l’innovazione e mirando a rendere l’Europa leader nel settore. L’accordo provvisorio dovrà ora essere approvato dal Consiglio Ue e dalla plenaria del Parlamento europeo.
Riconoscendo la potenziale minaccia ai diritti dei cittadini e alla democrazia rappresentata da alcune applicazioni dell’IA, i co-legislatori hanno convenuto in particolare di vietare: i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (convinzioni politiche, religiose o filosofiche, orientamento sessuale, razza); la raccolta non mirata di immagini facciali da Internet o da filmati a circuito chiuso di videosorveglianza (Cctv) per creare dei database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative; l’utilizzo per sistemi di “punteggio sociale” basato sul comportamento degli individui o sulle caratteristiche personali; le manipolazioni del comportamento umano per aggirare il libero arbitrio delle persone; l’uso al fine di sfruttare le vulnerabilità degli individui (a causa della loro età, di disabilità, o di particolari situazioni sociali o economiche).
Saranno invece consentite delle eccezioni limitate per l’uso dei sistemi di identificazione biometrica in spazi accessibili al pubblico per scopi di contrasto alla criminalità o ad azioni illegali, ma dopo previa autorizzazione giudiziaria e solo per determinati reati.
L’identificazione biometrica “remota” potrà essere utilizzata unicamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave, mentre l’identificazione biometrica “in tempo reale” sarà consentita solo per effettuare ricerche mirate delle vittime di sequestro, tratta, o sfruttamento sessuale, per prevenire una minaccia terroristica specifica e attuale, o per la localizzazione o l’identificazione di una persona sospettata di aver commesso uno dei reati elencati dal regolamento in una lista specifica (terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
Per i sistemi di IA classificati “ad alto rischio” (a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo stato di diritto), sono stati concordati obblighi e divieti. Vi sarà una valutazione d’impatto obbligatoria riguardo ai diritti fondamentali, applicabile anche ai settori assicurativo e bancario. I cittadini avranno il diritto di presentare reclami e ricevere spiegazioni riguardo alle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che incidono sui loro diritti. Sono definiti ad alto rischio anche i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori.
Per tenere conto della rapida espansione delle capacità di apprendimento dei sistemi di intelligenza artificiale, è stato concordato che i sistemi usati per scopi generali e i modelli su cui si basano dovranno rispettare la normativa Ue sul diritto d’autore e aderire a requisiti di trasparenza. Dovranno essere pubblicati dei riepiloghi dettagliati sui contenuti utilizzati per il training dei dispositivi di IA.
Obblighi più rigorosi sono previsti per i modelli ad alto impatto, per mitigarne i rischi sistemici, e riferire alla Commissione sulla loro efficienza energetica e su eventuali incidenti gravi. Il testo mira anche a garantire che le imprese, in particolare le Pmi, possano sviluppare soluzioni di intelligenza artificiale senza indebite pressioni da parte dei giganti del settore che controllano la catena del valore.
Il mancato rispetto delle norme potrà portare a sanzioni che vanno da 35 milioni di euro, o il 7% del fatturato globale, a 7,5 milioni, o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.