La Cina, a partire dallo scorso 10, ha iniziato ad applicare una normativa complessiva che limita la creazione di "deepfake".
Questa misura, che si inserisce nell'ambito di una serie di azioni volte a contrastare l'opinione pubblica anti-regime, collegata alle recenti proteste con cartelloni bianchi, è interessante in quanto rappresenta una misura di divieto effettivo, a differenza di quanto avviene nell'Unione Europea o negli Stati Uniti, dove le normative si limitano a raccomandazioni, basandosi sulla violazione della libertà di stampa. Naturalmente, tale intervento cinese risulta possibile grazie alla presenza del "Great Firewall", un sistema di censura di internet in vigore da oltre 20 anni, tuttavia, la pressione a rispettare la trasparenza e la divulgazione delle informazioni è enorme, per cui è probabile che i dubbi sulla sua efficacia, sia interna che esterna, continuino a essere sollevati.
Dall'inizio, le tecnologie relative ai deepfake hanno sottolineato la necessità di contrassegnare i contenuti sintetici, ma è chiaro che il metodo per garantirne l'applicazione è tutt'altro che certo. Inoltre, come dimostra l'espressione "internet è per sempre", una volta che un contenuto creato si diffonde, eliminarlo completamente risulta estremamente difficile. Ancor più, anche dopo la cancellazione di un contenuto, la consapevolezza collettiva degli spettatori non scompare, come dimostrato dal caso dei contenuti "Voce di aprile", che criticavano le politiche di lockdown a Shanghai e hanno influenzato le proteste con cartelloni bianchi.
Storicamente, l'integrazione della tecnologia nella società è inarrestabile. Le statistiche che indicano che il 95% dei video deepfake è a sfondo pornografico, il falso annuncio di resa del presidente ucraino all'inizio dell'invasione russa e la comparsa di Bruce Willis, affetto da afasia, in uno spot pubblicitario, sono tutti esempi concreti e pericolosi di come la tecnologia dei deepfake possa influenzare l'intera società. Tuttavia, ciò che dovremmo realmente temere potrebbe non essere il modo in cui questa tecnologia viene regolamentata. In realtà, metodi per manipolare la verità sono sempre esistiti e focalizzare l'attenzione sulle tecnologie più recenti è una partita persa in partenza. Dovremmo piuttosto concentrarci sul perché questi contenuti vengono creati e come si diffondono, ovvero sui fattori sociali che sostengono la diffusione di narrative false.
"La tecnologia dei deepfake è moralmente discutibile, ma non è intrinsecamente sbagliata."
Attraverso le sue ricerche, l'eticista e filosofa politica Adrienne de Ruiter ha sostenuto che è "l'espressione di persone che non hanno dato il loro consenso", "l'atto di ingannare deliberatamente gli spettatori" e "l'intenzione dannosa" a rendere immorale il prodotto di questa tecnologia. Ha evidenziato che l'intenzione delle persone, ovvero i creatori e gli spettatori, indipendentemente dalla tecnologia, è ciò che va temuto. In particolare, i contenuti deepfake mirati a un pubblico specifico, come celebrità o personaggi politici, che hanno un'influenza sociale relativamente elevata, sono difficili da regolamentare in termini di espressione dell'intenzione del creatore.
Quali sono quindi le possibili soluzioni per il futuro? Possiamo indicarne due principali.
In primo luogo, dobbiamo riconoscere e accettare di essere esseri viventi in un mondo di telecamere e sistemi di riconoscimento. Anche chi scrive questo articolo e chi lo legge trascorre la maggior parte della propria giornata davanti a telefoni cellulari e laptop dotati di telecamera.Dal punto di vista del sistema, il comportamento umano è una materia prima per gli algoritmi.
Le telecamere che controllano se un bambino viene accudito bene esistono per garantire una relazione ideale tra genitori e baby sitter, ma sono anche entità non umane che imparano e attuano l'intento di limitare l'uomo. Essere consapevoli di convivere con questi nuovi soggetti può contribuire a gestire e contrastare le intenzioni immorali legate ai deepfake.
In secondo luogo, è necessario che si creino e si diffondano programmi di formazione a livello di comunità. Abbiamo la tendenza a cercare un senso di appartenenza all'interno di connessioni deboli all'interno di un sistema digitale. Questo è legato all'assenza di un senso di appartenenza a gruppi sociali, che si è accentuata durante la pandemia, e al desiderio di sentirsi collegati a persone sconosciute in base ai propri gusti e interessi. Ad esempio, la continua verifica di TikTok fino alle 2 del mattino, la frequente consultazione di Wikipedia, che non ci aspettiamo sia precisa, la costante verifica delle storie su Instagram e l'abbandono di chat di gruppo con un basso livello di interesse.
I deepfake tendono a stimolare questo senso di appartenenza derivante da connessioni deboli, ma poiché non c'è un profondo interesse per il soggetto in questione, la loro influenza è relativamente facile da smantellare. Mentre per un singolo individuo può essere difficile verificare l'autenticità di un contenuto deepfake volto a screditare un politico, un partito politico, attraverso un progetto, è stato in grado di distinguere il falso dal vero. Questo dimostra che programmi educativi basati sui punti di vista, i valori e le pratiche della comunità possono essere una soluzione efficace. Ciò significa che le aziende che gestiscono piattaforme di condivisione di contenuti deepfake possono creare e proporre strategie di risposta specifiche per la propria comunità, creando così opportunità strategiche.
Da un lato, ci sono esempi positivi di utilizzo della tecnologia deepfake, come il film "Fast & Furious", in cui l'attore Paul Walker, morto in un incidente, è stato riportato in vita grazie all'utilizzo della tecnologia deepfake per sovrapporre il suo volto alla performance di un suo fratello. Dall'altro, ci sono casi reali in cui la vita di una giornalista è stata distrutta a causa di un falso video a sfondo sessuale creato con questa tecnologia.
È importante ricordare che, nell'industria cinematografica, gli attori sono attualmente le persone più protette dalla tecnologia deepfake. La società attuale non è ancora in grado di rispondere a cosa si possa fare quando l'obiettivo è un comune cittadino. Prima di aspettarci regolamentazioni legali, forse la cosa più importante è che ciascuno di noi prenda coscienza di sé stesso, ad esempio, quando guardiamo con divertimento contenuti deepfake su piattaforme come TikTok. Non sarebbe forse questo il primo passo fondamentale?
*Questo articolo è la versione originale dell'articolo pubblicato il 14 febbraio 2023 sucolonna firmata del quotidiano elettronico.
Riferimenti
Commenti0