In un’epoca dominata dal ritmo incalzante delle innovazioni tecnologiche, si fa strada una delle minacce più insidiose alla dignità umana: i porno deepfake. Un uso perverso dell'intelligenza artificiale che, sovrapponendo volti reali a immagini o video a contenuto pornografico, crea contenuti fittizi, ma inquietantemente realistici.
Porno deepfake: la sfida, e le ferite, della Corea del Sud
Originariamente sviluppata per il cinema, questa tecnica si è rapidamente diffusa grazie alla democratizzazione degli strumenti di deep learning, oggi accessibili a chiunque attraverso semplici applicazioni per smartphone. Il termine deepfake, nato su Reddit nel 2017, combina "deep learning" e "fake" per descrivere una manipolazione audiovisiva così sofisticata da confondere persino l’occhio esperto.
Ma, quando questa tecnologia viene impiegata nel contesto del revenge porn — la diffusione non consensuale di materiale sessualmente esplicito —, il danno diventa incalcolabile: anche chi non ha mai prodotto contenuti intimi può trovarsi brutalmente "spogliato" e umiliato davanti al mondo intero. Le conseguenze psicologiche sono devastanti: perdita di autostima, depressione, disturbo da stress post-traumatico, autolesionismo, fino all’ideazione suicidaria, come evidenziato da una recente ricerca di Samantha Bates.
In Corea del Sud, il fenomeno ha raggiunto livelli allarmanti. Un Paese già segnato dagli scandali delle telecamere nascoste nei bagni pubblici e delle famigerate "chat room della morte" su Telegram, ha reagito con fermezza: possedere o visionare pornografia deepfake può oggi costare fino a tre anni di carcere o oltre 20.000 dollari di multa; produrla o distribuirla, addirittura sette anni di reclusione.
Eppure, nonostante la severità delle norme, le forze dell’ordine faticano a contenere il fenomeno: su 964 casi denunciati nei primi dieci mesi del 2024, solo 23 arresti sono stati effettuati. "Le indagini sono state troppo passive", ha denunciato il parlamentare Kim Nam-hee alla CNN.
Dietro questi numeri si celano drammi personali. Come quello di Ruma, una studentessa di 27 anni, la cui esistenza è stata sconvolta quando un suo deepfake esplicito ha cominciato a circolare su Telegram. Di fronte all'inerzia della polizia, Ruma ha deciso di agire da sola, infiltrandosi nelle chat illegali con l’aiuto dell’attivista Won Eun-ji.
Dopo due anni di rischiose indagini sotto copertura, due ex studenti della Seoul National University sono stati arrestati. Il principale responsabile è stato condannato a nove anni di carcere.
"Mi ha spezzato - ha raccontato Ruma alla CNN -. Il fatto che possano violarti in questo modo ti danneggia quasi irreparabilmente".
Anche Kim, un’insegnante di scuola superiore, è stata vittima di questo incubo: le sue foto, alterate per mostrarla nuda, hanno cominciato a circolare su Twitter (oggi X). Pur riuscendo a identificare personalmente lo studente responsabile, Kim continua a portare le cicatrici emotive: "Non importa se non è il tuo vero corpo. Ti senti violata ugualmente", ha dichiarato.
A rendere ancora più difficile la lotta contro questi crimini è la scarsa collaborazione di piattaforme come X, che proteggono rigidamente la privacy degli utenti. "La società resta apatica", denuncia l’attivista Won, sottolineando come in Corea del Sud l’umiliazione sessuale digitale non sia ancora percepita con la gravità che meriterebbe. Nonostante la pornografia sia ufficialmente illegale, continua a diffondersi senza particolari ostacoli, creando un ambiente tossico. Cresce intanto il fenomeno della "umiliazione dei conoscenti": foto personali vengono manipolate per deridere, minacciare, molestare. Le vittime spesso vivono nell’angoscia, sapendo che i loro aggressori conoscono indirizzi, familiari, dettagli privati.
Dopo il grande scandalo Telegram del 2020, i crimini digitali sembravano diminuire; oggi, però, sono di nuovo in aumento, denuncia Won. Le richieste delle vittime sono chiare: pene più severe, indagini rapide, e un maggiore impegno delle piattaforme social.
"È fondamentale prevenire, ma è ancora più importante giudicare correttamente quando questi casi si verificano", afferma Kim. Una speranza arriva dalle nuove generazioni. Bang Seo-yoon, diciottenne attivista, ha raccolto migliaia di testimonianze di vittime. "Non è solo il danno del deepfake in sé", ha dichiarato all'AFP, "ma la vergogna che nasce dalla diffusione tra conoscenti è ancora più devastante."
Le storie si moltiplicano. Come quella di una trentenne che, intervistata dall’Associated Press, ha raccontato di avere ricevuto video falsi di se stessa nuda, accompagnati da immagini di uomini che si masturbavano e insulti atroci.
"Mi ha devastato'', ha confidato. Da allora, soffre di disturbo da stress post-traumatico e ha dovuto interrompere gli studi per un anno. Per tentare di arginare questo tsunami invisibile, lo scorso settembre il Parlamento sudcoreano ha approvato una nuova legge che criminalizza la visione o il possesso di deepfake pornografici non consensuali, con pene fino a tre anni di carcere e multe salate. La produzione e distribuzione resta punibile fino a sette anni di reclusione.
Ma l’efficacia della norma è già sotto esame: Telegram, piattaforma prediletta per la diffusione di questi materiali, continua a non collaborare efficacemente con le autorità. Inoltre, molti autori di deepfake sono minorenni, rendendo difficile l’applicazione di pene severe.
Secondo Hong Nam-hee, ricercatrice all’Università di Seul, il problema affonda le sue radici in una cultura misogina che oggettivizza le donne. "La prevalenza della pornografia deepfake in Corea del Sud — spiega — è il frutto di un intreccio pericoloso: uso smodato di smartphone, assenza di educazione sessuale e regolamentazione inadeguata dei social media per i minori". Un cocktail micidiale che, se non contrastato con decisione, rischia di annientare altre vite nell'indifferenza generale. Perché nel mondo virtuale, come in quello reale, ogni ferita lascia cicatrici che nessun algoritmo potrà mai cancellare.