Indossa orecchini lunghi e collane colorate. Sono il suo tratto distintivo in un mondo che immagino “rigido”, fatto di calcoli, dati e leggi. Ivana Bartoletti è un’esperta di privacy, etica e governance nel campo dell’Intelligenza Artificiale e delle nuove tecnologie dal curriculum davvero importante. Ha scritto un libro – An Artificial Revolution: on Power, Politics and AI (Indigo Press, 2020) – e ne ha curato un altro – AI Book (Wiley, 2020) – sull’utilizzo dell’Intelligenza Artificiale nella finanza. È Visiting Policy and Cybersecurity Fellow alla Virginia Tech University e Global Privacy and AI Governance Officer presso la multinazionale Wipro, e nel 2019 è stata riconosciuta “Woman of the Year” ai Cyber Security Awards a Londra. All’ultimo Festival di Internazionale a Ferrara ha parlato di tecnologia e parità di genere perché, sostiene, è importante capire l’impatto che l’IA avrà sulle nostre vite: a suo parere quello che ora manca è un approccio femminista, ovvero un punto di vista diverso nel modo in cui l’IA viene sviluppata, un controllo sui dati su cui si basa e sull’utilizzo di quelli che generiamo noi. Parlarle è tanto più importante oggi, con la confusione che circonda un argomento così delicato e col dibattito seguito all’approvazione dell’European AI Act, la legge europea sull’Intelligenza Artificiale.
Per Ivana Bartoletti l’Intelligenza Artificiale generativa fa paura perché è mitizzata
Iniziamo dalle basi: c’è IA e IA, mi spiega. «Quella generativa è composta da modelli in grado di produrre immagini e testi: si chiama General Purpose AI perché non ha uno scopo preciso, è generica e generativa, come ChatGPT. Poi ci sono Intelligenze Artificiali che hanno uno scopo particolare: sono quelle che servono per classificare e per prendere una decisione».
Un esempio?
«Le IA che decidono se hai diritto a un prestito o un mutuo oppure no. In quel campo esistono già delle regole, che sono quelle sulla tutela del consumatore. Ma sembra che negli ultimi anni la IA sia stata utilizzata come scusa per evitare la legge».
Cioè?
«Una legge che ne regoli il funzionamento è giusto che ci sia. Ma è anche vero che la IA non funziona in isolamento. La legge sulla privacy, per esempio, c’è già, ma quando si tratta di ChatGPT che prende tutti i dati da Internet come fai a controllare ogni cosa? Come fai a dire “voglio l’accuratezza dei dati” se le risposte poi non sono così accurate, perché così funziona dal punto di vista computazionale?».
La IA generativa però ci fa più paura.
«Fa più paura perché ha la capacità di creare disinformazione in maniera rapida. È vero che le fake news sono sempre esistite, però oggi sono più veloci e penetranti. Il fatto che la IA può creare una immagine finta – pensi alla pornografia – può essere una minaccia alla tenuta democratica».
Sono immagini accurate.
«In realtà chi ci lavora sa che c’è ancora tanto da fare. Fa paura perché viene mitizzata».
Per Ivana Bartoletti sono pericolosi gli algoritmi “che prendono decisioni”
Ma allora lo sciopero degli attori di Hollywood per salvaguardare la propria immagine dal fatto che venga riprodotta digitalmente?
«Si stanno cercando metodi per poter verificare cosa è virtuale e cosa è reale. Potrebbe essere una traccia digitale che già c’è sulla musica o nei film per contrastare la pirateria, ma col testo sembra più difficile da applicare. Oggi ci si focalizza su questo aspetto – che, per carità, in mani sbagliate può essere dannoso – mentre ci sono ambiti dove l’Intelligenza Artificiale viene utilizzata in maniera meno trasparente ma pericolosa».
Sarebbero?
«Quelli delle decisioni automatiche, della profilazione e classificazione, come dicevo prima: gli algoritmi. Con conseguenze devastanti. Per esempio, propongono pubblicità che non fanno che perpetuare le disparità di genere. Oppure utilizzano dati storici e quindi forniscono alle donne annunci di lavoro con compensi inferiori perché finora sono state pagate meno rispetto agli uomini. Ci sono poi le IA “decision making” che spesso sono poco trasparenti e contengono dei bias, dei pregiudizi, perché riproducono stereotipi che riguardano il genere, l’età, la classe sociale».
Mi spiega meglio cosa sono queste IA “decision making”?
«Algoritmi che prendono decisioni per lo Stato, per le strutture pubbliche o per quelle private. L’Unione europea nella nuova legge li definisce come ad “alto rischio” perché hanno un effetto profondo sulla nostra vita, sulle nostre libertà. Pensi alle IA utilizzate nelle risorse umane per assumere un candidato. Nello Stato, invece, riguardano i sussidi: chi ne ha diritto e chi no. Ma sono usate anche nelle graduatorie per la scuola o l’università. Di solito sono analisi positive, diventano critiche quando toccano ambiti più delicati. In America, vengono utilizzate per prevedere il tasso di recidiva dei carcerati. In Olanda invece nel 2020 c’è stato uno scandalo che ha portato alle dimissioni del governo perché un algoritmo che assegnava i sussidi sociali li ha tolti ingiustamente a 20.000 famiglie».
Ivana Bartoletti: i dati non sono neutri possono essere frutto di stereotipi
Cosa ci insegnano questi esempi?
«Quando si tratta di dati, c’è anche una dimensione politica. I dati non sono la verità, sono una stratificazione storica e sociale. Nel momento in cui decido di prendere dei dati e di darli in pasto a un algoritmo, faccio una scelta: metto alcune persone in un database e altre le lascio fuori. Non sono scelte neutre, la mia dimensione femminista viene da qui. Pensiamo alla violenza contro le donne: un conto è se chiedo alla polizia, un altro se chiedo alle donne. Il dato non è mai neutro, dipende sempre da chi te lo ha fornito. In una società in cui ci portiamo sulle spalle secoli di stereotipi e disuguaglianze, ovviamente i dati li rappresentano».
Cosa possiamo fare? «Il caso di OpenAI, l’azienda americana che ha creato ChatGPT, è emblematico: la lotta interna ha portato ad avere un board di 3 uomini bianchi per uno strumento che ha un grande potere sulla nostra vita e viene utilizzato da centinaia di milioni di persone. La ricercatrice Helen Toner, ex membro del consiglio di OpenAI, aveva evidenziato alcune criticità e ha avuto dei problemi con il fondatore Sam Altman».
E se in questi board ci fossero più donne?
«Più sensibilità diverse ci sono, meglio è. Siamo di fronte a strumenti dove non viene fatto un controllo rigoroso rispetto ai dati inseriti e a quali risultati potrebbero portare: se non c’è diversity non riusciamo a capire quali possono essere le conseguenze per una grande parte della società. Ci vuole diversità di vedute così che tutti possano beneficiare dell’Intelligenza Artificiale».