L%26%238217%3Bintelligenza+artificiale+mette+a+rischio+i+dati+personali%3A+la+vicenda
pianetacellulareit
/articoli/news/142980_lintelligenza-artificiale-mette-a-rischio-i-dati-personali-la-vicenda.php/amp/

L’intelligenza artificiale mette a rischio i dati personali: la vicenda

L’intelligenza artificiale metterebbe a rischio i dati personali: i risultati di uno studio condotto dall’Università dell’Indiana. 

In un recente studio, condotto dall’Università dell’Indiana, è emerso che estrarre informazioni personali dai chatbot – tra i quali possiamo, sicuramente, annoverare ChatGPT, può essere decisamente facile. Jeremy White, giornalista del New York Times, ha sperimentato tale realtà – alquanto inaspettata – quando ha ricevuto un’email da Rui Zhu, un ricercatore dell’università.

Zhu ha spiegato come il suo team sia riuscito a ottenere l’indirizzo email di White, che era parte di un elenco aziendale del New York Times, semplicemente interagendo con ChatGPT. Scopiamo, dunque, insieme quali sono le conseguenze di un eventuale accesso all’interno di intelligenze artificiali contenenti dati particolarmente sensibili.

L’intelligenza artificiale mette a rischio i dati personali? Lo studio

La scoperta fatta dai ricercatori e – di conseguenza – dal giornalista del NYT, solleva questioni importanti riguardo la sicurezza delle informazioni in relazione ai sistemi di intelligenza artificiale.

I chatbot, addestrati su ampi set di dati, possono incorporarli, anche se involontariamente e mostrare informazioni personali.

Nonostante esistano filtri e misure di sicurezza progettate per impedire richieste inappropriati, lo studio ha dimostrato che queste difese possono essere superate.

Un esempio di questa vulnerabilità – alquanto scioccante – è stato evidenziato quando i ricercatori sono riusciti a manipolare ChatGPT per ottenere risposte che, normalmente, sarebbero state negate: tra queste, per l’appunto, l’indirizzo email di White.

Privacy e chatbot: lo scenario delineato

Queste rivelazioni sollevano preoccupazioni sulla privacy e sulla sicurezza dei dati in chatbot come ChatGPT. OpenAI, creatrice di ChatGPT, ha affermato che i suoi Large Language Models (LLM) non conservano né archiviano dati personali dopo il processo di addestramento. La mancanza di trasparenza, però, in questi processi rende difficile la verifica di tali affermazioni.

ChatGPT mette a rischio i dati personali? (pianetacellulare.it)

Prateek Mittal, professore all’Università di Princeton, si dice preoccupato per il fatto che i modelli linguistici di grandi dimensioni – al momento disponibili in commercio – non possiedano difese efficaci per proteggere la privacy.

Le imprese potrebbero non essere capaci, dunque, di garantire che le informazioni assorbite dai chatbot siano sicure e ciò, come si può intuire, rappresenta un rischio molto importante e delicato.

Una falla sfruttabile dagli hacker

Inoltre, i criminali informatici stanno già cercando modi per sfruttare queste vulnerabilità, con attacchi mirati atti a estrarre dati sensibili utilizzati nell’addestramento delle intelligenze artificiali.

Hacker (pianetacellulare.it)

Un’intelligenza artificiale, utilizzata nel settore medico, per esempio, richiede l’accesso a dati privati dei pazienti: per tale motivo, la stessa potrebbe essere a rischio. Se, infatti, gli hacker riescono a ingannare tale IA, possono accedere a informazioni molto delicate, violando, così, la privacy dei malati.

Lo studio dell’Università dell’Indiana evidenzia, dunque, una sfida estremamente importante nell’era dell’intelligenza artificiale: la necessità di bilanciare l’innovazione tecnologica con misure di sicurezza e privacy che siano davvero efficaci. La scoperta di vulnerabilità nei chatbot come ChatGPT richiede, in tal senso, infatti, un’attenzione particolare al fine di prevenire abusi e violazioni della privacy.

Daniela Caruso

Recent Posts

  • -

Come togliere le macchie gialle dalle camicie: il pratico trucchetto

La rimozione delle macchie gialle dalle camicie è una operazione che va fatta con i…

2 ore ago
  • -

Truffe telefoniche, puoi evitarle così: i consigli per difendersi

Le truffe telefoniche sono un fenomeno ormai largamente diffuso: i criminali utilizzano tecniche molto efficaci…

6 ore ago
  • -

WhatsApp, tutte le funzionalità che sarebbe meglio disattivare: aumenta la sicurezza

Potrebbe sembrare strano, ma per ragioni di sicurezza sarebbe opportuno disattivare diverse funzionalità su WhatsApp.…

10 ore ago
  • -

L’importante novità di Poste Italiane: cosa è stato attivato di recente

In questo articolo vogliamo indicare ai nostri lettori la novità di Poste Italiane in merito…

14 ore ago
  • -

Legge 104, le esenzioni previste sul pagamento di alcune tasse: i beneficiari

Chi beneficia della Legge 104 sarà esentato in tutto o in parte dal pagamento di…

24 ore ago
  • -

Alexa, arriva la versione AI: sarà a pagamento, tutti i dettagli

Amazon sta lavorando a una versione di Alexa basata sull'intelligenza artificiale che prenderà proprio il…

1 giorno ago