ChatGPT è tornato alla sua piena funzionalità. Dopo qualche giorno di stop, imposto dal Garante per la protezione dei dati personali, la piattaforma di Intelligenza artificiale, in grado di scrivere testi, rispondere a quesiti di ogni genere, ecc. è di nuovo attiva. Il blocco temporaneo si era reso necessario per mancanza di garanzie sul rispetto della privacy.
ChatGPT torna a funzionare
ChatGPT, al centro del dibattito insieme ad altri software che usano l’Intelligenza artificiale come la sua versione italiana, è di nuovo disponibile nel nostro Paese. Ad annunciarlo è stato un portavoce di OpenAI, titolare del software. La startup, infatti, ha recepito e si è adeguata alle richieste dal Garante della privacy italiano, che ha dato l’autorizzazione perché ChatGPT possa tornare a essere pienamente accessibile.
“ChatGPT è di nuovo disponibile per gli utenti in Italia. Siamo entusiasti di accoglierli di nuovo e rimaniamo impegnati a proteggere la loro privacy. Abbiamo incontrato o chiarito le questioni sollevate dal Garante”, ha dichiarato il portavoce dell’azienda in una comunicazione ufficiale. Il Garante ha confermato a sua volta. Era stata la stessa Autority a bloccare la piattaforma, dando tempo 60 giorni (che sarebbero scaduti domani, 30 aprile, per adeguarsi alle normative in tema di salvaguardia dei dati personali degli utenti e rispetto del regolamento europeo in materia.
I rilievi del Garante
Secondo l’Autority, infatti, OpenAI, la società americana che ha sviluppato e gestisce l’applicazione per scrivere testi personalizzati non aveva predisposto un’informativa sul trattamento dei dati personali per gli utenti. Non solo: sarebbe mancata una base giuridica che giustificasse la raccolta di informazioni e la loro conservazione. In particolare, le attenzioni del Garante si erano concentrate su quanto accaduto lo scorso 20 marzo, quando la società aveva subito un cosiddetto data breach, cioè la perdita di dati relativi alle conversazioni degli utilizzatori della piattaforma e al pagamento del servizio.
L’uso per i minori
Un altro punto debole rilevato rigardava l’utilizzo della piattaforma da parte dei minori. Era previsto, infatti, che per accedere occorrano almeno 13 anni, ma secondo il Garante della Privacy non esistevano filtri idonei alla verifica dell’età degli utenti. OpenAI aveva 20 giorni di tempo per provvedere con misure che rispondessero ai rilievi e per comunicarle all’Autority, altrimenti sarebbe scattata una multa da 20 milioni di euro o fino al 4% del fatturato globale annuo.
Ma a cosa serve esattamente ChatGPT e come funziona? Quali sono le leggi previste attualmente in Italia per l’utilizzo di questa tecnologia rivoluzionaria?
ChatGPT: cos’è il nuovo software
ChatGPT è una piattaforma che sfrutta l’Intelligenza artificiale e permette proprio di realizzare testi che sembrano composti in tutto e per tutto da una persona.
Non si tratta di copiare pari-pari da un libro, come qualcuno faceva in passato, ma di rielaborare diverse fonti su uno stesso argomento, in modo quasi umano, tanto che molti insegnanti non se ne accorgono. «ChatGPT consente di fare ricerche istantanee tramite un browser interno che simula una chat. È in grado anche di riassumere testi, elaborarli ed è azionabile anche con un microfono. È evidente, quindi, che gli studenti la stiano utilizzando per “farsi dare una mano” nei compiti o nelle ricerche», conferma l’avvocato Marisa Marraffino, specializzata in ambito digitale e conoscitrice del mondo giovanile.
Negli Usa ChatGPT è al bando
Si tratta, quindi, di uno strumento utile, ma anche “pericoloso”, o almeno così è stato ritenuto negli Usa, dove lo stato di New York ha deciso di mettere al bando ChatGPT, lanciando un allarme che ora fa discutere anche in Italia. Le preoccupazioni riguardano «l’impatto negativo sull’apprendimento degli studenti e per la sicurezza e l’accuratezza dei contenuti», come ha chiarito Jenna Lyle, portavoce del Dipartimento dell’educazione di New York Jenna Lyle, che ha deciso di tornare alla vecchia carta e penna.
ChatGPT: come funziona
Realizzata da OpenAI, un’organizzazione no profit per la ricerca sull’intelligenza artificiale, ha come obiettivo principale quello di ottimizzare la conversazione: ha quindi molti usi, dal classico servizio clienti (tramite bot) alla traduzione linguistica, arrivando alla scrittura creativa. Ed è soprattutto in questo ambito che viene usato dagli studenti. Riesce, infatti, a produrre testi del tutto simili a quelli umani e soprattutto con uno stile molto vicino a quello dell’autore in carne e ossa, perché è in grado di imparare da lui. Insomma, non solo aiuta a scrivere una tesina, ma lo fa in modo personalizzato a seconda dell’autore che la “commissiona”.
Attenzione a non farsi scoprire
Come anticipato, questo strumento ha iniziato ad essere usato soprattutto negli Usa, per poi diffondersi di recente anche in Italia. Diversi docenti americani hanno quindi lanciato l’allarme, rimbalzato in Europa: Paul Taylor, professore di informatica medica della University of Central London nel Regno Unito, ha provato a utilizzare ChatGPT per rispondere a una domanda d’esame, per poi definire la risposta del bot come «Coerente, completa, e dritta al punto, cosa che spesso agli studenti non riesce». In altri casi analoghi, invece, le risposte risultavano grammaticalmente corrette, ma non nel contenuto. In ogni caso, non bisogna pensare di poter ricorrere a ChatGPT senza conseguenze, intanto perché si può essere smascherati. Usando un altro software della stessa OpenAI, infatti, si può capire esattamente quali testi sono stati composti dal bot. Ma non solo.
Microsoft vuole acquistare ChatGPT
Il cosiddetto Go8, ossia il gruppo delle otto università più importanti degli Stati Uniti, ha anche deciso che gli esami potranno essere sostenuti solo scrivendo con le vecchie carta e penna, anche perché si ritiene che questo strumento non aiuti l’apprendimento. Ciò non toglie che chatGPT ha sollevato interesse, tanto che la stessa Microsoft sembra interessata a inserire il software nel pacchetto Office (in particolare in Word) proprio come strumento per aiutare gli utenti in fase di scrittura o rifinitura, ad esempio suggerendo sinonimi o limando la composizione. Non solo: ChatGPT potrebbe essere acquistata proprio dalla società di Bill Gates per migliorare il motore di ricerca Bing, in modo da diventare più concorrenziale rispetto a Google (ad oggi il primo è usato solo dal 3% degli utenti, contro il 92% della grande G). E in Italia? Il software è legale?
In Italia quale reato si rischia?
«Sicuramente non si può copiare una tesi di laurea o un compito in classe: in questo caso si tratterebbe di violare il diritto d’autore, esattamente come accade senza intelligenza artificiale. In certi casi, quindi, l’uso di ChatGPT può essere un reato», spiega Marraffino, che però aggiunge: «Vietare la tecnologia non serve e sarebbe anche anacronistico. Bisogna intanto conoscere i nuovi strumenti e poi spiegare ai ragazzi come usarli al meglio». Entrando nello specifico, «In Italia è ancora in vigore la legge n°425 del 1925 che si applica ad esempio a chi copia la tesi di laurea. Si tratta di un reato che prevede la reclusione da tre mesi a un anno. Nella maggior parte degli altri casi ci possono essere sanzioni civilistiche, amministrative o disciplinari – spiega l’avvocato Marisa Marraffino – Gli sviluppatori di questo tipo di servizi, poi, dovranno stare attenti a non veicolare stereotipi, contenuti potenzialmente offensivi o pericolosi».
Insomma, questo nuovo strumento apre anche una serie di interrogativi che vanno al di là del semplice rispetto delle norme in vigore oggi. D’altro canto, »Le responsabilità, come sempre, sono ripartite. Da un lato l’utente risponde delle proprie azioni, come quella di copiare testi, immagini o dati personali senza autorizzazione; gli sviluppatori potrebbero invece avere problemi per la violazione del GDPR o dei database protetti dal diritto d’autore», chiariva Marraffino lo scorso gennaio, prima dell’intervento – in effetti – del Garante della privacy per il trattamento dei dati.
ChatGPT viola la privacy?
«Dal punto d vista più tecnico – prosegue l’esperta – bisogna semmai interrogarsi sull’algoritmo alla base di ChatGPT. Sarà interessante capire dove “pesca” le informazioni, ci potrebbe essere un problema di privacy legato semmai al rispetto del GDPR, cioè il regolamento europeo sul trattamento dei dati. Le persone dovrebbero sapere in che modi vengono trattati i dati. Non dimentichiamo, però, che già adesso esistono crawler molto sofisticati usati in Italia da molto tempo», ci spiegava l’avvocato, riferendosi a quei software che analizzano i contenuti di una rete o di un database in maniera metodica e automatizzata, di solito per conto di un motore di ricerca come Google o Bing. «Proprio i motori di ricerca che usiamo tutti i giorni ne sono un esempio, così come molti strumenti di smart home. Da quello che ho visto finora ChatGPT non mi sembra violare i database dei siti che esplora, ma in linea teorica potrebbero esserci problemi legati al diritto d’autore. Col tempo questi strumenti verranno affinati, ma come sempre la tecnologia va più veloce della legge – proseguiva l’avvocato – Possiamo risolvere i casi che si presenteranno, nell’attesa che un giorno ci siano delle norme universalmente riconosciute che rendano la tecnologia sempre più semplice e al servizio delle persone».
ChatGPT piace anche agli avvocati
«Per certi versi è uno strumento democratico di accesso alle informazioni, fa ricerche istantanee basandosi sulle notizie che trova in Rete. Il controllo umano, però, è fondamentale per fare selezione, approfondire e anche per evitare problemi legali, ma non c’è dubbio che potrà essere d’aiuto anche nelle professioni legali – spiegava ancora Marraffino – In effetti per ora ChatGPT, che uso anche io, strizza l’occhio agli avvocati. Però è curioso leggere cosa risponde a chi gli chiede se potrà un giorno sostituirci». Lei stessa ha posto la domanda a ChatGTP e la risposta è stata questa: «No, non può. L’intelligenza artificiale è in grado di fornire consulenza legale in alcune situazioni, ma è ancora lontana dall’avere la capacità di sostituire un avvocato. L’avvocato ha una formazione specializzata, una conoscenza delle leggi e una comprensione della situazione per aiutare i clienti in modo appropriato. L’intelligenza artificiale non ha ancora raggiunto questo livello di complessità».