Dopo una riunione fiume di 36 ore, il Parlamento europeo ha approvato l’AI Act, un regolamento innovativo e ambizioso che vuole stabilire le regole del gioco per l’intelligenza artificiale.
La premessa è che l’AI sta cambiando il mondo in cui viviamo, offrendo opportunità e sfide in molti settori, dalla salute all’istruzione, dall’ambiente alla sicurezza. Ma come possiamo essere sicure che sia usata in modo responsabile, etico e rispettoso dei nostri diritti e delle nostre libertà?
Gli scopi dell’AI Act
Tra gli scopi dell’AI Act c’è definire diritti e doveri di chi usa o sviluppa soluzioni di intelligenza artificiale. La legge non è ancora in vigore. Infatti, il testo non è ancora completo in tutti i suoi aspetti. La normativa assumerà una forma definitiva solo nei prossimi mesi.
Tuttavia, fin dall’inizio è chiara la filosofia che ha ispirato le autorità europee: maggiore è il rischio, più forti devono essere le garanzie.
Le applicazioni di intelligenza artificiale saranno, dunque, valutate e classificate sulla base dei pericoli che comportano per i diritti fondamentali del cittadino. Le pratiche più rischiose saranno proibite o fortemente circoscritte a contesti ben specifici.
Arriva l’Authority europea sull’intelligenza artificiale
Tra le novità più rilevanti dell’AI Act c’è l’istituzione di un nuovo organismo europeo con sede a Bruxelles, che avrà risorse economiche e tecniche per verificare il rispetto del regolamento. Accanto a questa istituzione i diversi Paesi potranno avere una propria autorità indipendente nazionale.
In caso di violazioni e reati le sanzioni possono essere molto elevate: fino a 35 milioni di euro o il 7% del fatturato globale per le violazioni più gravi. Previsto il diritto dei cittadini di presentare reclami riguardo a decisioni prese da sistemi di intelligenza artificiale ad alto rischio.
No all’uso del riconoscimento facciale
Tra le pratiche vietate dall’AI Act c’è l’uso del riconoscimento biometrico e la classificazione degli individui sulla base di dati sensibili. Proibiti, quindi, il riconoscimento e il monitoraggio delle persone in base al proprio volto.
C’è, però, una eccezione: le esigenze delle forze dell’ordine in casi rari ed eccezionali come i gravi crimini. Non si potrà poi utilizzare l’intelligenza artificiale per la valutazione degli individui sulla base delle loro caratteristiche personali e dei loro orientamenti politici, religiosi, sessuali e così via.
No all’intelligenza artificiale che riconosce le emozioni
L’Ai Act mette un veto anche ai sistemi che elaborano e riconoscono le nostre emozioni. Stessa cosa anche per le tecniche che mirano a influenzare il comportamento umano.
La legge europea ha, infatti, come obiettivo principale la tutela della dignità e della libertà dei cittadini, e della loro privacy, nonché la prevenzione di sistemi di sorveglianza di massa.
Regole severe per i sistemi come ChatGPT
Uno dei punti più rilevanti del regolamento sull’intelligenza artificiale è che i sistemi di intelligenza artificiale rigenerativa, come ChatGPT, saranno classificati sulla base alla potenza di calcolo che impiegano.
Qualora dovessero essere riconosciuti come strumenti ad alto impatto, dovranno rispettare regole molto severe in termini di trasparenza e sicurezza informatica. Infatti, in questi casi dovranno essere forniti e resi disponibili gli elenchi dei materiali utilizzati per addestrare i modelli, così da poter verificare che siano leciti e che non violino eventuali diritti d’autore.
Inoltre, se un contenuto verrà generato dall’intelligenza artificiale, dovrà essere chiaramente indicato usando una filigrana digitale, una tutela forte contro i deep fake.
Quando entrerà in vigore l’AI Act
Il regolamento approvato dal Parlamento Europeo è il primo al mondo a tutelare i diritti delle persone e a verificare che l’intelligenza artificiale non prenda una deriva pericolosa.
L’AI Act entrerà in vigore nella sua totalità normativa entro 24 mesi, un tempo molto lungo ma necessario a chiarire e specificare molte questioni tecniche. Tuttavia nel giro di sei mesi verranno già proibiti gli usi più pericolosi e i singoli governi nazionali potranno accelerare l’applicazione di alcuni vincoli.