I deepfake sono foto, video e audio creati da software di intelligenza artificiale (AI) che, partendo da contenuti reali, modificano e ricreano in modo estremamente realistico voci, volti, corpi, caratteristiche appartenenti ad una determinata persona. Proprio come le diffusissime app utilizzate per modificare la morfologia del volto (invecchiandolo, ringiovanendolo, cambiando genere), tali software all’insaputa della persona rappresentata utilizzano i suoi connotati estetici per raffigurarla in situazioni, luoghi, contesti non reali che potrebbero – in alcuni casi – addirittura apparire compromettenti.
Sviluppate a sostegno degli effetti speciali cinematografici erano inizialmente molto costose, quindi poco diffuse. Con lo sviluppo della tecnologia e dei software sempre più app – gratuitamente o a prezzi irrisori – rendono possibile la realizzazione di deepfake persino mediante l’utilizzo di un semplicissimo smartphone.
Proprio nel clou dello scandalo di Telegram degli ultimi mesi, legato alla pornografia illegale, alla pedopornografia ed al revenge porn, si colloca un nuovo bot per Telegram che – superando l’app “Deepnude” ritirata dal suo stesso creatore per la sua pericolosità –permette agli utenti mediante il semplice invio di una foto (senza dunque scaricare nessuna altra app) di ottenerne la versione in “nude”.
Non a caso tale bot– realizzata da un uomo – riesce a “spogliare” solo foto di donne, incrementando violenza e discriminazione di genere ponendosi ad “ausilio” del già diffusissimo fenomeno – configurante vera e propria fattispecie tipica di reato – di revenge porn che da mesi sommerge Telegram. Basti pensare che il 30% delle immagini processate appartiene a donne famose come attrici, modelle e cantanti, mentre l’altro 70% delle foto processate appartengono a donne, ragazze, se non addirittura in alcuni casi bambine non famose.
Proprio come nel revenge porn, ci troviamo non solo difronte a situazioni di diffusione illegale di materiale pornografico ma anche difronte ad una grave ipotesi di furto d’identità. Non potendo controllare tali immagini, video o audio, le persone vittime di deepfake perdono il controllo non solo della loro immagine ma anche delle loro idee e dei loro pensieri – soprattutto se rappresentate all’interno di falsi video o accompagnate da false registrazioni audio – concretizzando una grave minaccia non solo per la riservatezza ma per la stessa dignità della persona.
Per questo motivo, il 23 ottobre 2020 il Garante per la Protezione dei Dati Personali decide di intervenire su tale fenomeno annunciando non solo l’avvio di un’istruttoria nei confronti di Telegram per il bot di deepfake che “spoglia” le donne ma anche mediante la predisposizione di «ulteriori iniziative per contrastare gli usi illeciti di questo tipo di software e contenere gli effetti distorsivi del più amplio fenomeno del deep fake».
Tra queste iniziative si colloca quella di ieri, 28 dicembre 2020, che vede il GPDP autore di una scheda informativa relativa al fenomeno dei deepfake all’interno della quale, oltre a presentare il fenomeno in tutte le sue sfaccettature – deepnude, cyberbullismo, cybercrime, fake news – ed i suoi correlativi rischi evidenzia gli strumenti più efficaci per proteggersi da tale fenomeno.
Il Garante, pur riconoscendo l’impegno delle imprese digitali (come social networks) nella lotta a tale fenomeno mediante lo studio e la predisposizione dei primi algoritmi di intelligenza artificiale capaci di individuare i deepfake oltre che la predisposizione di sistemi di segnalazioni da parte degli utenti, ritiene sempre che il primo – e più efficace – strumento nel contrasto ai deepfake sia la responsabilità e l’attenzione degli utenti.
Gli utenti dovrebbero infatti evitare di diffondere in modo incontrollato immagini personali o dei propri cari poiché le stesse potrebbero rimanere online per sempre (oltre al rischio che le stesse siano memorizzate da altri utenti rendendo inutile una eventuale e successiva cancellazione).
Dovrebbero imparare a riconoscere i deepfake essendoci alcune “spie” da prendere in considerazione come ad esempio l’immagine “sgranata”, gli occhi della persona ricostruita che potrebbero muoversi in modo innaturale, la bocca che potrebbe apparire deformata (non corrispondendo l’immagine a quanto si pronuncia vocalmente) oppure le luci e le ombre sul viso potrebbero apparire anormali.
Il Garante poi raccomanda, laddove ci sia il dubbio che un video, una immagine o un audio siano un deepfake, di evitarne la condivisione, in modo da contrastare la sua diffusione incontrollata ed invita inoltre a segnalarlo come falso alla piattaforma che lo ospita (es. sito, blog, social media). Laddove poi si ritenga che il deepfake sia stato utilizzato in modo da compiere una violazione della privacy o un reato, ci si potrà rivolgere all’autorità di polizia o allo stesso Garante. Le autorità di protezione dei dati personali possono invece intervenire sia in chiave preventiva sia sanzionatoria laddove si integrino violazioni della normativa in materia di protezione dei dati.
Livia Smoraldi