Non solo Rose Villain, tutte le donne sono a rischio a causa dell’aumento di deepfake sessualizzati

Da Taylor Swift a Rose Villain, analizziamo l'allarmante aumento dei deepfake sessualizzati e il perché abbiamo bisogno di un approccio globale per garantire la sicurezza online, soprattutto per le donne

Foto di Miriam Tagini

Miriam Tagini

Giornalista e Lifestyle Editor

Giornalista pubblicista, in passato ha lavorato come web editor, content creator e social media manager. È bilingue e collabora con testate online nazionali e magazine internazionali. Per DiLei scrive di Lifestyle nella sezione GirlZ.

All’inizio dell’anno Taylor Swift si è ritrovata catapultata al centro di un’inquietante controversia. Milioni di deepfake, cioè immagini manipolate digitalmente, sessualmente esplicite, hanno inondato i social media, sollevando preoccupazioni sull’uso improprio dell’intelligenza artificiale (AI). Solo dopo che un’immagine è stata visualizzata più di 47 milioni di volte, la piattaforma di social media X ha rimosso il contenuto.

Ma Taylor Swift non è l’unica vittima famosa di questo abuso. Nei giorni scorsi, la cantante rivelazione del Festival di Sanremo 2024, Rose Villain, ha dovuto fare i conti con alcune sue foto di nudo, completamente fake, che stanno circolando sul web. Denunciando l’accaduto sia legalmente che sui social, Rose Villain ha raccontato. “Stanno girando foto di me nuda che ovviamente sono dei fake. La cosa mi mette un grande disagio e mi fa sentire violata. Ho già sporto denuncia ma vorrei ricordare che è illegale ed è punibile chi crea, chi diffonde e chi condivide materiale di questo tipo”.

“È una violenza a tutti gli effetti e il problema è che queste cose succedono anche a persone molto fragili che magari non sanno proteggersi, tutelarsi e difendersi come invece possono e devono fare” ha aggiunto la cantante.

Questi casi forniscono un campanello d’allarme su quanto sia facile sfruttare la tecnologia dell’intelligenza artificiale generativa per creare e condividere contenuti pornografici falsi senza consenso, lasciando le vittime con poche opzioni legali e sperimentando traumi psicologici, sociali, fisici, economici ed esistenziali.

Deepfake: quando la realtà diventa un’illusione

Immagina di vedere un video in cui una persona sembra pronunciare parole che non ha mai detto, o di assistere a scene in cui volti familiari agiscono in modo completamente fuori dal loro carattere. Questo è il mondo dei deepfake, una tecnologia che sta scuotendo le fondamenta della verità nel mondo digitale.

Il concetto di deepfake nasce dall’intricato mondo del deep learning, un ramo dell’intelligenza artificiale che utilizza algoritmi complessi per apprendere da grandi quantità di dati. In poche parole, i deepfake creano video falsi, sovrapponendo il volto di una persona su un altro corpo in modo incredibilmente realistico. Ma non è solo una questione di “scambio di facce”: l’intelligenza artificiale impara l’aspetto di un volto reale da varie angolazioni, creando una sorta di “maschera digitale” che può essere applicata a un altro individuo, rendendolo capace di esprimere nuove espressioni facciali in sincronia perfetta con un audio diverso.

Sebbene inizialmente nati come strumento per gli effetti speciali cinematografici, i deepfake hanno rapidamente trovato applicazioni più sinistre. Grazie allo sviluppo di app e software accessibili a tutti, il fenomeno si è diffuso rapidamente, portando con sé una serie di problemi etici e legali.

Uno dei primi utilizzi controversi dei deepfake è avvenuto su Reddit, dove nel 2017 sono stati pubblicati video pornografici manipolati che vedevano coinvolti personaggi famosi. Chi compare in un deepfake a sua insaputa subisce una perdita di controllo sulla propria immagine, nonché una privazione del controllo su proprie idee e posizioni, che possono essere travisate in base a discorsi e comportamenti falsi che vengono espressi nel video. Inoltre, c’è il rischio che la vittima venga rappresentata in luoghi, contesti, situazioni o con persone compromettenti.

Il rischio di abuso dei deepfake è evidente anche nel cyberbullismo, dove i video manipolati vengono utilizzati per denigrare o ricattare le vittime. Questo rappresenta non solo una minaccia per la privacy e la dignità delle persone coinvolte, ma anche un serio pericolo per la sicurezza online.

Perché le donne sono le vittime preferite del deepfake

L’emergere dei deepfake sessuali ha portato con sé una nuova minaccia per la sicurezza e la privacy delle donne, che rappresentano la maggioranza delle vittime di questo genere di abusi.

Secondo studi recenti, circa il 95% delle vittime di deepfake sessuali sono donne. Questi attacchi mirati possono causare danni devastanti alla reputazione, alla salute mentale e al benessere delle vittime, con conseguenze che possono durare una vita intera.

Viviamo infatti in una società in cui le donne sono spesso oggetto di sessismo e misoginia, rendendole un bersaglio più facile per attacchi digitali. In altre parole, il fatto che le donne sono oggetto di oggettificazione e sessualizzazione nella cultura popolare e nei media rende più probabile che i deepfake sessuali siano rivolti contro di loro, sfruttando e amplificando la violenza di genere presente nella società.

Inoltre, le donne sono più inclini a essere oggetto di stalking e molestie online, il che aumenta il rischio di essere vittime di deepfake. La facilità con cui le immagini e i video delle donne possono essere reperiti online e manipolati li rende un obiettivo privilegiato per chi desidera creare contenuti dannosi.

Cosa stanno facendo le istituzioni per combattere il problema

La consapevolezza del problema è in costante crescita, ma molti si chiedono se le istituzioni governative e le piattaforme online stiano adottando misure sufficienti per proteggere le donne da questa minaccia digitale in rapida evoluzione.

Davanti alla crescente minaccia di questo fenomeno, l’Unione Europea ha avviato diverse iniziative. In primis, la legislazione sulla protezione dei dati personali, il celebre GDPR, offre un fondamentale quadro giuridico per affrontare le violazioni della privacy online e la diffusione di contenuti dannosi, incluso il manipolamento di immagini e video per creare materiale sessuale non consensuale.

Inoltre, l’UE ha recentemente annunciato piani per rafforzare la regolamentazione delle piattaforme online e dei social media al fine di contrastare la diffusione di contenuti dannosi, compresi i deepfake. Tuttavia, molti dubitano che queste misure siano sufficienti a proteggere le vittime di deepfake, specialmente quelli a sfondo sessuale, poiché la complessità della tecnologica rende difficile l’applicazione efficace di queste leggi, sollevando interrogativi sulla loro reale efficacia nel fermare la diffusione di contenuti dannosi.

L’Unione Europea ha compiuto passi significativi, ma c’è ancora molto lavoro da fare. È chiaro che sia necessario un impegno congiunto a livello legislativo, tecnologico ed educativo per affrontare questa minaccia in continua evoluzione e proteggere efficacemente la privacy e la sicurezza delle persone online.