«L’intelligenza artificiale potrebbe essere la cosa migliore mai successa all’umanità, ma anche la più nefasta». Parola di Stephen Hawking. Nel suo libro postumo, Le mie risposte alle grandi domande (Rizzoli), il celebre matematico e astrofisico britannico morto lo scorso marzo esprime anche le paure che da sempre accompagnano l’evoluzione dell’Ai, l’Artificial intelligence. «Quando parliamo di intelligenza artificiale, il vero rischio non sta nella malevolenza, ma nella competenza» scrive Hawking. «Una super intelligenza artificiale sarebbe estremamente brava nel raggiungere i suoi obiettivi. Quindi, se questi non fossero in linea con i nostri, ci ritroveremmo nei guai».
Paure alimentate negli ultimi anni dall’avvento del “deeplearning”, cioè la capacità delle macchine, attraverso potenti algoritmi, di elaborare da sole le risposte sulla base di dati forniti. Le auto che guidano da sole, i chatbot che simulano conversazioni tra esseri umani, gli algoritmi che utilizzano il feed continuo di dati su titoli azionari per gestire fondi di investimento sono già realtà. E aprono una serie di domande. I super computer potrebbero “allearsi” tra loro per impedirci di comunicare tra noi? Un domani l’Ai potrebbe perfino decidere di ribellarsi, come fa l’Hal 9000 di 2001: Odissea nello spazio? Insomma, c’è il rischio che la situazione ci sfugga di mano? Lo abbiamo chiesto a 3 esperti. Ecco che cosa ci hanno risposto.
Barbara Caputo, ricercatrice all’Istituto Italiano di tecnologia, a capo del progetto RobotExNovo
In questi giorni è al Consiglio europeo della ricerca dove i migliori ricercatori sull’Intelligenza artificiale discutono come contribuire alla rivoluzione robotica in Europa «Le macchine oggi sono intelligenti perché elaborano da sole le risposte in base ai dati. Ma ancora non “capiscono”: non hanno cioè la capacità di proseguire nel ragionamento. In questo senso l’Ai non può farci paura, come non ce ne fanno la calcolatrice che ci supera nei calcoli o la lavatrice che lava meglio di noi senza mai stancarsi. Tuttavia, non è escluso che tra pochi decenni ci troveremo davanti ad altri scenari. Come droni militari che individuano da soli gli obiettivi e colpiscono in base a parametri prestabiliti, senza che nel processo decisionale intervenga l’uomo. Per fortuna, i legislatori hanno tempo per capire come regolamentare il settore. Si tratta di fare, cioè, ciò che negli anni ’50 è stato fatto per il nucleare: studiare le diverse applicazioni, finanziare progetti e cercare accordi internazionali per tenere il mondo al sicuro. Anche nel caso dell’Ai, infatti, se c’è una cosa di cui aver paura non è il robot, ma l’assenza di regole condivise nel decidere come usarlo».
Paolo Benanti, francescano del Terzo Ordine Regolare e docente alla Pontificia università di Roma, si occupa di etica delle tecnologie
«Il computer addestrato è una sorta di “macchina sapiens”, perché gli attribuiamo la facoltà di decidere in alcune circostanze. Questo pone un problema etico. Prendiamo le auto che guidano da sole: quali decisioni possiamo affidare loro? E cosa accade se fanno una scelta sbagliata quando si trovano, in caso di emergenza, a valutare se salvaguardare la vita delle persone dentro l’auto o in strada? C’è poi un rischio “pratico”: che l’Ai, più veloce ed efficiente di noi in tante mansioni, diventi un rivale più che un aiuto. Pensiamo ai nuovi macchinari per le Tac capaci di leggere e interpretare le immagini: sveltiscono il lavoro dei radiologi, ma potrebbero anche mandarli in pensione. Sta a noi decidere i limiti e fissare i parametri per evitare che in futuro l’automatizzazione del lavoro ci rubi il nostro ruolo».
Nicola Gatti, direttore dell’Osservatorio Artificial Intelligence del Politecnico di Milano, che aiuta le aziende a capire e sfruttare le potenzialità offerte dall’Ai
«A oggi non abbiamo elementi per pensare a future entità artificiali dotate di coscienza e capaci di pensare autonomamente: quindi non c’è da aver paura. Gran parte della comunità scientifica cerca i migliori algoritmi per risolvere problemi specifici e ogni azienda importante sta creando gruppi di lavoro ad hoc. Tra le applicazioni esistenti ci sono i chatbot, software in grado di interagire con interlocutori umani: usati per esempio per rispondere ai clienti nei call center e nei centri assistenza di banche e compagnie di assicurazioni, sono efficienti e affidabili. Non c’è ragione di non fidarsi di loro, come pure degli algoritmi alla base dei “sistemi di raccomandazione”, tipo quelli di Amazon, quando ci suggeriscono l’acquisto di alcuni prodotti».
La mostra da vedere
Si intitola Low Form. Immaginari e visioni nell’era dell’Intelligenza artificiale l’esposizione in corso fino al 24 febbraio 2019 al Maxxi di Roma. Sedici artisti internazionali si confrontano con il tema del rapporto uomo-macchina e con i nuovi scenari aperti dall’evoluzione tecnologica. Tra le 20 opere esposte ci sono perfino quadri realizzati da software-pittori: «Una provocazione sul tema dei robot che ci ruberanno il lavoro» sostiene Bartolomeo Pietromarchi, direttore del museo e curatore della mostra. «L’arte ci aiuta a indagare incubi e ossessioni del genere umano, permettendoci di affrontare le nostre paure».