Strumenti basati sull’IA capaci di generare immagini partendo da un testo si stanno diffondendo ma sono sempre più difficili da riconoscere. Gli errori nella produzione di questi contenuti diminuiscono con l’avanzare della tecnologia ma i fornitori di questi strumenti si stanno impegnando per rendere identificabili i contenuti artificiali.
I modelli di Intelligenza Artificiale generativa non si limitano più al testo, quindi a scrivere contenuti testuali, ma si fanno sempre più avanzati per riuscire anche a creare immagini e, più recentemente, video e audio. Ci riferiamo a quegli strumenti, gratuiti oppure a pagamento a seconda del fornitore e delle caratteristiche offerte, che permettono di digitare una stringa di testo per ottenere una immagine, statica o in movimento, che soddisfa la richiesta effettuata. Per esempio “gattini che giocano a calcio“. Recentemente, Microsoft ha introdotto lo strumento gratuito ‘Designer‘ nel suo Copilot basato sul modello Dall-E 3 di OpenAI. Nel frattempo, gli errori nella produzione di questi contenuti vanno diminuendo con l’avanzare delle capacità dei modelli d’IA. Fortunatamente, gli stessi fornitori di questi strumenti si stanno impegnando per rendere identificabili i contenuti artificiali.
L’IA può creare anche immagini, non solo testi
Se strumenti basati sull’IA generativa capaci di creare video su richiesta sono oggi più rari, come il Sora recentemente annunciato da OpenAI, quelli che consentono di creare immagini partendo da un testo sono sempre più al centro di discussioni, poiché sono la causa della diffusione di falsi contenuti online. Chiunque sappia utilizzare questi strumenti ha la possibilità di chiedere all’IA di creare, per esempio, una immagine con un personaggio famoso inserito in un contesto distante dalla realtà. Una tecnica anche conosciuta come deepfake, che senza misure di controllo adeguate si sta rivelando sempre più avanzata, che rende difficile distinguere contenuti reali da quelli falsi. E una tecnica sempre più pericolosa, perché usata da malintenzionati per creare campagne pubblicitarie ingannevoli.
L’IA generativa viene utilizzata per creare vere e proprie truffe per attirare l’attenzione delle potenziali vittime. Ad esempio, viene spesso sfruttata l’immagine di un personaggio famoso – a volte pure la voce – per creare campagne che invitano ad investire online per fare tanti soldi facilmente. Soprattutto tra le inserzioni pubblicitarie sui social è possibile vedere questo tipo di campagne truffaldine: bisogna quindi fare massima attenzione.
Ascoltando radio Deejay una mattina, abbiamo sentito che anche Alessandro Cattelan ha portato all’attenzione questo argomento, per informare che qualcuno aveva creato una falsa campagna pubblicitaria replicando con l’IA la sua voce. A lui poi si sono aggiunti anche altri personaggi famosi, che hanno lamentato praticamente la stessa cosa: la loro immagine sfruttata da malintenzionati per truffe.
Immagini create dall’IA generativa, come si possono riconoscere
Riconoscere pubblicità e contenuti creati con l’IA generativa si fa sempre più difficile. Ci sono contenuti in cui facilmente si possono notare dei ‘difetti di produzione‘. Per i contenuti audio, per esempio, si può fare attenzione al linguaggio: potrebbe trattarsi di un’IA se forzato e poco naturale, proprio come se a parlare fosse una macchina non capace, ancora, di replicare alcune sfumature di tonalità. Negli ultimi mesi, alcuni programmi radiofonici di intrattenimento per divertire il pubblico creano contenuti in cui replicano di voci di personaggi famosi: basta un orecchio neanche troppo allenato per riconoscere la presenza dell’IA.
Riconoscere le immagini generate dall’IA potrebbe risultare difficile, poiché le tecniche di creazione stanno evolvendo rapidamente. Dipende però dal modello su cui si basa lo strumento generativo. Infatti, modelli meno evoluti potrebbero non riuscire a creare dettagli in modo preciso, quindi analizzando le immagini che magari contengono molti dettagli si potrebbero trovare indizi. Modelli più avanzati, invece, potrebbero essere migliori e, quindi, rendere più difficile riconoscere l’intervento dell’IA. E poi ci potrebbero essere immagini con contenuti improbabili che, senza pensarci troppo, sono palesi fake senza alcun dubbio: per esempio, si pensi ad una immagine in cui il Papa che fa arrampicata su una montagna.
Le immagini generate dall’IA dovrebbero essere identificabili
Se si hanno dei dubbi circa la natura di una immagine e non si riesce a trovare elementi che possano indicare se possa essere stata generata dall’IA, gli stessi strumenti che permettono di creare questo tipo di contenuti si stanno impegnando nel renderli riconoscibili, più o meno facilmente. Per esempio, Meta, OpenAI e Microsoft si sono impegnate nell’integrare identificatori e/o metadati per rendere riconoscibili i contenuti generati dall’IA dai loro rispettivi strumenti MetaAI, Copilot e DALL-E. Ci sono poi alcuni strumenti che generano immagini con una filigrana visibile all’occhio umano in qualche area dell’immagine stessa. Tornando agli identificatori e metadati non visibili, invece, servono degli strumenti capaci di ‘leggere’ queste informazioni nascoste nell’immagine. Come vedremo più sotto ne esistono di accessibili online, anche gratuitamente.
Vale la pena notare che Meta si è impegnata per riconoscere i contenuti generati dall’IA condivisi dagli utenti su Instagram, Facebook e Threads e poi aggiungere un’etichetta che indica chiaramente alle persone che il contenuto che stanno guardando è generato dall’IA. Meta sta addirittura lavorando ad un suo algoritmo che possa riconoscere contenuti generati dall’IA anche se non contenenti identificatori standard. Ne abbiamo parlato QUI.
Esistono strumenti online per riconoscere immagini generate dall’IA
Nel momento in cui si hanno dei dubbi circa la natura di una immagine, se questa non presenta identificatori o etichette visibili che indicano che sono stati creati con l’IA e non si notano elementi strani o errori in essa è possibile utilizzare alcuni strumenti online che possono aiutare in questo. Attenzione, però: questo tipo di strumenti potrebbero riconoscere eventuali identificatori e metadati rilevati nelle immagini, se presenti, ma in assenza di identificatori non sappiamo se possano creare dei falsi positivi, vale a dire indicare una immagine come creata con l’IA quando in realtà non lo è. Detto questo, cercando sul web, SkyTG24 e Fanpage consigliano questi tools per riconoscere le immagini false: ‘Ai or Not‘, ‘Illuminarty‘, ‘Hugging Face‘ e ‘FotoForensics‘. Si segnala anche ‘SynthId‘ (deepmind.google/technologies/synthid/), uno strumento di Google Google DeepMind attualmente in beta che permette di aggiungere identificatori e identificare contenuti generati dall’IA.