Arrivano le prime condanne a giovani, purtroppo giovanissimi, creatori di deepfake osceni: un gruppo di adolescenti tra 13 e 15 anni.
L’intelligenza artificiale è bella e divertente fino a che qualcuno non decide di utilizzarla nella maniera più becera e cattiva possibile. Da quando sono iniziati ad apparire online i servizi di produzione di immagini e video c’è stato chi ha provato a lanciare l’allarme contro i cosiddetti deepfake.
Ovvero quelle immagini e quei video che trasformano persone comuni, molto spesso, in criminali o pornostar a loro insaputa. Ed era solo questione di tempo prima che questi comportamenti aberranti venissero sanzionati dalla giustizia. Il momento è arrivato. Ma i colpevoli non sono quelli che ci si sarebbe aspettati di vedere al banco degli imputati.
Condannati per deepfake osceni diffusi su WhatsApp
La notizia arriva dalla Spagna e coinvolge un gruppo di 15 adolescenti con un’età compresa tra i 13 e 15 anni. Questi ragazzini nel luglio del 2023 sono stati pizzicati dopo che alcuni genitori si sono accorti che su WhatsApp circolavano immagini pornografiche delle proprie figlie.
Immagini che, come poi è emerso dalle indagini, erano frutto di attività di deepfake. Dopo un anno è arrivata ora la condanna. La corte di Badajoz ha condannato questo gruppo di adolescenti per un totale di 20 capi d’accusa sulla base di due crimini: da una parte l’aver violato l’integrità morale delle vittime dei deepfake osceni e per aver prodotto materiale pedopornografico. Le condanne si sono trasformate per tutti in un anno di libertà vigilata e l’obbligo di partecipare a corsi appositi sull’utilizzo consapevole delle tecnologie e il rispetto del prossimo.
Un inferno che rischia di ripetersi
Avendo preso di mira delle compagne di classe, questi giovani criminali non hanno solo dimostrato scarsa empatia e una assoluta mancanza di consapevolezza di quello che stavano facendo ma hanno anche arrecato seri danni psicologici alle ragazze oggetto dei loro deepfake osceni.
Una delle madri delle ragazze ha infatti per esempio dichiarato, parlando con i colleghi di Reuters, che le vittime hanno iniziato a soffrire di veri e propri attacchi d’ansia, un’ansia derivante dalla paura di essere poi trattate come le colpevoli della situazione. Qualcosa che ricorda molto da vicino, purtroppo, le reazioni delle vittime in caso di violenza sessuale.
Perché del resto è di questo che stiamo parlando: anche se non c’è nessuno che tocca fisicamente un altro essere umano, la produzione di deepfake a sfondo sessuale è una forma di violenza, di violazione della propria persona e della propria dignità.
Il che dimostra come sia assolutamente imperativo trovare il modo, da una parte, di fermare alla fonte gli utilizzi più biechi delle nuove tecnologie di intelligenza artificiale generativa e dall’altra insegnare alle giovani generazioni che anche se qualcosa è finta e sta solo su internet non significa che non possa avere conseguenze tremende nella vita reale.