top of page

Deepfake pornografici e Grok: quando l’AI diventa un moltiplicatore di danno

Fonte: Corriere della Sera, articolo da Bruxelles di Beda Romano (immagine fornita dall’utente).

La notizia, nuda e urgente

Bruxelles apre un’indagine su Grok, l’AI collegata all’ecosistema X di Elon Musk, nel contesto dei deepfake pornografici. La Commissione europea vuole valutare se l’azienda abbia valutato e mitigato adeguatamente i rischi associati alle funzionalità del sistema. Qui non si sta discutendo di “errori” o di “usi impropri”: si sta discutendo di un prodotto che, per come è progettato e distribuito, può accelerare la produzione e la circolazione di contenuti degradanti e violenti.

Danno scalabile, responsabilità non scalabile

Il deepfake sessuale è una tecnologia di violenza che guadagna potenza quando diventa replicabile, anonima, rapida. L’AI non crea il problema: lo industrializza. Ma la responsabilità, spesso, resta narrata come evento eccezionale o deviazione individuale. La cornice europea (DSA) nasce proprio per spezzare questa comoda dissociazione: se un sistema genera o amplifica rischi sistemici, la responsabilità è di piattaforma, non di “singolo utente”.

Il punto regolatorio: rischio prima, non scuse dopo

L’indagine, per come viene descritta, ruota intorno a un criterio chiave: la gestione del rischio deve essere documentata e verificabile prima dell’adozione o dell’estensione di funzionalità ad alto impatto. In parallelo, la Commissione estende l’attenzione anche al procedimento formale già avviato contro X per capire se siano stati valutati e mitigati i rischi dei sistemi di raccomandazione, includendo l’impatto della presenza di Grok nella piattaforma. È un passaggio decisivo: quando l’AI è dentro la distribuzione (feed, ranking, viralità), non è un “modulo” neutro, ma un acceleratore di esposizione.

La geopolitica dell’“impunità tecnologica”

Il caso segnala un’altra frattura: le grandi piattaforme americane tornano nel mirino europeo mentre, altrove, la risposta tende a oscillare tra moral panic e laissez-faire. Eppure qui non serve né panico né resa: serve capacità istituzionale di imporre trasparenza, audit, obblighi di mitigazione, e conseguenze reali. Se la tecnologia pretende di governare l’attenzione pubblica, allora deve accettare di essere governata.

Oltre il caso: l’asimmetria tra vittime e sistemi

Il deepfake sessuale colpisce corpi e reputazioni reali, con tempi di riparazione lunghi e spesso impossibili; la piattaforma, invece, opera su tempi di rilascio rapidi e incentivi economici immediati. È l’asimmetria classica del digitale: il danno resta a terra, il valore vola. Ed è qui che una prospettiva come quella di Algopolio deve essere inflessibile: non basta “rimuovere” contenuti, bisogna ridurre le condizioni strutturali che li rendono profittevoli e virali.

Chiusura

Quando l’AI entra nella catena di produzione e distribuzione dei contenuti, la domanda non è più “cosa può fare”, ma “cosa non deve essere permesso che faccia”. Algopolio lavora esattamente su questo confine: trasformare la retorica dell’innovazione in un terreno di diritti, responsabilità e tutela concreta delle persone, soprattutto quando la tecnologia rende il danno più facile, più economico, più invisibile.

 
 
 

Commenti


bottom of page