L’intelligenza artificiale metterebbe a rischio i dati personali: i risultati di uno studio condotto dall’Università dell’Indiana.
In un recente studio, condotto dall’Università dell’Indiana, è emerso che estrarre informazioni personali dai chatbot – tra i quali possiamo, sicuramente, annoverare ChatGPT, può essere decisamente facile. Jeremy White, giornalista del New York Times, ha sperimentato tale realtà – alquanto inaspettata – quando ha ricevuto un’email da Rui Zhu, un ricercatore dell’università.
Zhu ha spiegato come il suo team sia riuscito a ottenere l’indirizzo email di White, che era parte di un elenco aziendale del New York Times, semplicemente interagendo con ChatGPT. Scopiamo, dunque, insieme quali sono le conseguenze di un eventuale accesso all’interno di intelligenze artificiali contenenti dati particolarmente sensibili.
L’intelligenza artificiale mette a rischio i dati personali? Lo studio
La scoperta fatta dai ricercatori e – di conseguenza – dal giornalista del NYT, solleva questioni importanti riguardo la sicurezza delle informazioni in relazione ai sistemi di intelligenza artificiale.
I chatbot, addestrati su ampi set di dati, possono incorporarli, anche se involontariamente e mostrare informazioni personali.
Nonostante esistano filtri e misure di sicurezza progettate per impedire richieste inappropriati, lo studio ha dimostrato che queste difese possono essere superate.
Un esempio di questa vulnerabilità – alquanto scioccante – è stato evidenziato quando i ricercatori sono riusciti a manipolare ChatGPT per ottenere risposte che, normalmente, sarebbero state negate: tra queste, per l’appunto, l’indirizzo email di White.
Privacy e chatbot: lo scenario delineato
Queste rivelazioni sollevano preoccupazioni sulla privacy e sulla sicurezza dei dati in chatbot come ChatGPT. OpenAI, creatrice di ChatGPT, ha affermato che i suoi Large Language Models (LLM) non conservano né archiviano dati personali dopo il processo di addestramento. La mancanza di trasparenza, però, in questi processi rende difficile la verifica di tali affermazioni.
Prateek Mittal, professore all’Università di Princeton, si dice preoccupato per il fatto che i modelli linguistici di grandi dimensioni – al momento disponibili in commercio – non possiedano difese efficaci per proteggere la privacy.
Le imprese potrebbero non essere capaci, dunque, di garantire che le informazioni assorbite dai chatbot siano sicure e ciò, come si può intuire, rappresenta un rischio molto importante e delicato.
Una falla sfruttabile dagli hacker
Inoltre, i criminali informatici stanno già cercando modi per sfruttare queste vulnerabilità, con attacchi mirati atti a estrarre dati sensibili utilizzati nell’addestramento delle intelligenze artificiali.
Un’intelligenza artificiale, utilizzata nel settore medico, per esempio, richiede l’accesso a dati privati dei pazienti: per tale motivo, la stessa potrebbe essere a rischio. Se, infatti, gli hacker riescono a ingannare tale IA, possono accedere a informazioni molto delicate, violando, così, la privacy dei malati.
Lo studio dell’Università dell’Indiana evidenzia, dunque, una sfida estremamente importante nell’era dell’intelligenza artificiale: la necessità di bilanciare l’innovazione tecnologica con misure di sicurezza e privacy che siano davvero efficaci. La scoperta di vulnerabilità nei chatbot come ChatGPT richiede, in tal senso, infatti, un’attenzione particolare al fine di prevenire abusi e violazioni della privacy.