Una notizia che risale all’anno scorso mette in discussione quanto è sicuro usare ChatGPT, ora che sarà anche spalla di Siri.
Si è tornato molto di recente a parlare di OpenAI per la partnership, non a pagamento a quanto pare, con Apple per dare a Siri i superpoteri nel caso in cui l’intelligenza artificiale autoctona della Mela non fosse in grado di rispondere alle domande degli utenti. Ma un retroscena che risale al 2023 getta una strana ombra che vale la pena di essere valutata. Con l’implementazione dei servizi di intelligenza artificiale nei nostri device occorre cominciare a preoccuparsi anche di loro esattamente come ci si preoccupa delle app moleste?
Come accennavamo all’inizio, quello che è emerso adesso riguarda qualcosa che è avvenuto l’anno scorso. Per la precisione ad aprile del 2023 qualcuno è riuscito a entrare all’interno di alcuni forum della società in cui gli impiegati si scambiavano informazioni. In pratica qualcuno è riuscito a infilarsi dentro e ad ascoltare quello che succedeva dietro le quinte della tecnologia prodotta da OpenAI.
Le brecce nella sicurezza delle società che lavorano online non sono una novità. Vorremmo tutti che non succedesse mai ma la mente dei criminali a volte pensa talmente tanto fuori dagli schemi rispetto agli esperti di sicurezza da buggerarli. Però, di solito, se il problema viene risolto rapidamente viene poi diffuso un qualche statement ufficiale che racconta di ciò che è successo e dei passi che sono stati presi per migliorare la sicurezza. OpenAI, invece, creando una anomalia nel panorama in cui si muove, non ha mai fatto parola con nessuno di quello che era successo.
L’abbiamo saputo perché alcuni dipendenti della società hanno parlato con i colleghi del New York Times, avvalendosi dell’anonimato, e hanno raccontato di come la società abbia deciso di non raccontare nulla semplicemente perché non erano stati compromessi i dati degli utenti. Ma è questa una spiegazione sufficiente per non parlarne?
Accanto alla mancanza di trasparenza, così molti utenti dei social bollano la scelta delle alte sfere di OpenAI, si aggiunge adesso una informazione che ricorda da vicino quello che ha poi portato Microsoft a rimodulare parte degli aggiornamenti che sarebbero arrivati con Windows 11 e Copilot.
Qualcuno si è infatti accorto che l’app di ChatGPT prodotta appositamente per il sistema operativo Apple salvava le conversazioni senza nessuna forma di protezione, semplicemente sotto forma di file di testo. Senza aggiungere un qualche tipo di protezione, questi file sarebbero potuti essere letti da chiunque e utilizzati contro l’utente stesso. L’app ha ricevuto una patch e dovrebbe essere ora al sicuro.
Ma se ti stai domandando quanto è sicuro usare ChatGPT all’interno per esempio del tuo prossimo iPhone o con il nuovo macOS 15 la risposta è che sarà sicuro tanto quanto sarai tu attento, escludendo, per esempio, la condivisione dei dati e il salvataggio delle conversazioni.
Uno dei più grandi paradossi dei nostri tempi è che con gli smartphone possiamo fotografare…
In tanti aspettavano da tempo l'adeguamento del 5,4% delle rendite Inail: le ultime circolari dell'ente…
Con lo switch-off dello scorso 28 agosto, che ha introdotto il nuovo digitale terrestre, è…
Sapere dove si trova un'altra persona è ora possibile grazie a WhatsApp: in pochi conoscono…
Il cappotto termico interno è una soluzione ottimale per avere ottimi risultati in riferimento all'isolamento…
Basta una mossa semplice e automatica per avere sempre a disposizione tutti i canali del…