Un recente esperimento di due studenti dell’Università di Harvard ha sollevato allarme e preoccupazioni per quanto riguarda il rapporto tra tecnologia e privacy. Anhphu Nguyen e Caine Ardayfio, membri dell’Augmented Reality Club dell’ateneo americano, hanno creato un sistema che consente di raccogliere informazioni personali di individui semplicemente osservandoli attraverso gli occhiali Ray-Ban di Meta. Gli studenti hanno dimostrato come sia possibile ottenere dettagli come nome, indirizzo e numero di telefono di una persona in pochi secondi, facendo emergere seri interrogativi sull’uso del riconoscimento facciale e delle tecnologie di intelligenza artificiale.
Come gli occhiali raccolgono informazioni
L’indagine di Anhphu Nguyen e Caine Ardayfio, battezzata «I-XRAY», si basa sull’uso degli occhiali intelligenti di Meta, dotati di telecamera e funzione di live streaming su Instagram. Abbinando questa tecnologia a un sistema di riconoscimento facciale che utilizza un software di ricerca per immagini, PimEyes, gli studenti sono riusciti a risalire a molte informazioni personali di persone incontrate per caso nel campus di Harvard e nelle stazioni della metropolitana di Cambridge, Massachusetts. Attraverso un modello linguistico avanzato, hanno dimostrato come sia possibile ricavare in tempo reale dati privati, tra cui numeri di telefono e indirizzi di residenza.
La dimostrazione dell’esperimento
In un video condiviso su X, gli studenti vengono ripresi mentre si avvicinano a persone sconosciute, confermando i loro dati personali con domande come: «Sei Betsy?» e ottenendo risposte affermative. Il filmato ha rapidamente guadagnato visibilità, attirando l’attenzione sui potenziali rischi derivanti dalla combinazione di tecnologie di riconoscimento facciale e intelligenza artificiale. In un’intervista rilasciata a Forbes, Nguyen ha sottolineato che lo scopo del progetto è sensibilizzare le persone riguardo alla facilità con cui oggi è possibile raccogliere informazioni personali senza il loro consenso.
Un problema di privacy e sicurezza
Questa dimostrazione, pur nel rispetto delle normative attuali, ha sollevato notevoli questioni sulla gestione della privacy e sull’utilizzo di dati personali. Mentre esistono restrizioni sull’impiego del riconoscimento facciale da parte delle istituzioni governative, l’uso di tecnologie simili da parte dei privati è ancora poco regolamentato. Gli studenti stessi hanno dichiarato che il loro obiettivo non era solo di sviluppare un’applicazione avanzata, ma di esplorare il rispetto delle leggi sulla privacy, sottolineando la necessità di una regolamentazione più rigorosa.
La replica di Meta sugli occhiali
In risposta a questa situazione, un portavoce di Meta ha dichiarato che l’azienda prende molto sul serio la privacy dei suoi utenti e ha dotato gli occhiali di misure di sicurezza, come una luce LED che si accende durante le riprese per avvertire le persone di essere riprese. Tuttavia, alcuni critici hanno sollevato dubbi sull’efficacia di questo indicatore, descrivendolo come una luce debole che potrebbe facilmente passare inosservata in ambienti luminosi.
Cosa possono fare i cittadini per proteggersi
Di fronte a questa minaccia crescente, Nguyen e Ardayfio hanno consigliato alle persone di verificare dove sono presenti i propri dati online e di richiedere la loro rimozione da siti pubblici di ricerca e motori di raccolta dati come PimEyes e FastPeopleSearch. Questi servizi offrono la possibilità di cancellare i propri dati personali dai risultati di ricerca, riducendo così la visibilità delle proprie informazioni.
Verso un controllo normativo più rigido
In questo contesto, l’intervento dei legislatori appare fondamentale. La rapida diffusione di dispositivi intelligenti come gli occhiali di Meta evidenzia un vuoto normativo che deve essere colmato per garantire la sicurezza delle informazioni personali. Il caso dei due studenti di Harvard rappresenta un segnale di allerta, dimostrando come una tecnologia accessibile a tutti possa essere utilizzata per scopi che sollevano dubbi etici e pratici.