Un gruppo di ricercatori ed esperti in materia di Intelligenza Artificiale ha redatto un documento nel quale vengono messi in luce i rischi derivanti dalla governance dell’IA proponendo diverse idee per garantire la sicurezza, tra cui l’idea di un ‘pulsante’ per spegnere l’IA.
Il proliferare della tecnologia basata sull’intelligenza artificiale sta iniziando a preoccupare sempre di più. Non per le capacità intrinseche della tecnologia di poter aiutare l’umanità a progredire ma, piuttosto, è la scarsità dei controlli e di regole che fanno preoccupare. Tanto che istituti di ricerca dell’IA ed esperti in materia concordano che potrebbe essere necessario disporre di un sistema capace di disattivare l’IA nelle situazioni di emergenza. Un sistema che si potrebbe paragonare a quello che può impedire il lancio non autorizzato delle armi nucleari. Più banalmente, si pensa ad un pulsante da premere per fermare tutta o parte dell’IA a seconda della necessità.
Questa ipotesi rientra nel più ampio pacchetto di proposte raccolte nel documento “Computing Power and the Governance of Artificial Intelligence” redatto con il contributo di diciannove persone, tra esperti e ricercatori, in rappresentanza di istituti delle Università di Cambridge (Leverhulme Centre for the Future of Intelligence, Centre for the Study of Existential Risk e Bennett Institute), Oxford (AI Governance Institute), Montreal/Mila, Georgetown e Toronto con la partecipazione anche di ricercatori di OpenAI (l’organizzazione dietro al popolare ChatGPT) e del Centre for the Governance of AI (GovAI).
Il principale focus delle proposte contenute nel documento verte sul controllo della “potenza di calcolo” considerata indispensabile “per lo sviluppo e l’implementazione delle capacità dell’intelligenza artificiale (AI).“. In pratica, l’IA esiste grazie ai computer alimentati dai chip IA capaci di elaborare grandissime quantità di dati. Questi supercomputer sono raccolti in grandi centri. Chi è in grado di gestire queste macchine, o i chip che le alimentano, potrebbe controllare l’IA. E’ quindi importante “governare lo sviluppo e l’implementazione dell’IA“.
“Approcci ingenui o scarsamente mirati alla governance informatica comportano rischi significativi in aree come la privacy, gli impatti economici e la centralizzazione del potere.”
Tra le proposte presentate nel documento c’è il tracciamento dei singoli chip IA ma una in particolare desta interesse: l’inclusione di limiti fisici per consentire di disabilitare da remoto i chip IA in circostanze estreme:
“In situazioni in cui i sistemi di intelligenza artificiale comportano rischi catastrofici, potrebbe essere utile per le autorità di regolamentazione verificare che un insieme di chip di intelligenza artificiale funzioni legittimamente o disabilitarne il funzionamento (o un sottoinsieme di esso) se violano le regole. I chip IA modificati potrebbero essere in grado di supportare tali azioni, consentendo di attestare a distanza a un regolatore che stanno operando legittimamente e di cessare di operare in caso contrario.”
Tuttavia, dare la possibilità di disattivare l’IA da remoto potrebbe rivelarsi un problema di sicurezza e di privacy, oltre che un possibile abuso di potere. Come visto in alcuni film fantascientifici apocalittici, non si può escludere l’ipotesi che proprio una intelligenza artificiale autonoma possa riuscire a manipolare il sistema di sicurezza. Si legge nel documento:
“I meccanismi di applicazione remota presentano notevoli svantaggi e possono essere giustificati solo se il danno atteso dall’intelligenza artificiale è estremamente elevato. In particolare, tali meccanismi potrebbero essi stessi comportare notevoli rischi per la sicurezza e la privacy, nonché potenziali abusi di potere. L’inclusione di un meccanismo per disabilitare il dispositivo da remoto potrebbe essere manipolata da attori malintenzionati o addirittura da sistemi di intelligenza artificiale autonomi disallineati per disabilitare o manipolare in altro modo l’infrastruttura informatica. Ciò potrebbe portare a notevoli perdite finanziarie o addirittura comportare rischi per la sicurezza umana in determinati scenari. “
Questa ipotesi di un pulsante da premere per fermare l’IA è una ipotesi che rientra in un più ampio pacchetto di proposte che gli esperti hanno condiviso all’interno del documento “Computing Power and the Governance of Artificial Intelligence” condiviso online dall’Università di Cambridge e consultabile all’indirizzo www.cser.ac.uk/media/uploads/files/Computing-Power-and-the-Governance-of-AI.pdf
Uno dei più grandi paradossi dei nostri tempi è che con gli smartphone possiamo fotografare…
In tanti aspettavano da tempo l'adeguamento del 5,4% delle rendite Inail: le ultime circolari dell'ente…
Con lo switch-off dello scorso 28 agosto, che ha introdotto il nuovo digitale terrestre, è…
Sapere dove si trova un'altra persona è ora possibile grazie a WhatsApp: in pochi conoscono…
Il cappotto termico interno è una soluzione ottimale per avere ottimi risultati in riferimento all'isolamento…
Basta una mossa semplice e automatica per avere sempre a disposizione tutti i canali del…