Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Questo è un post tradotto da IA.

Byungchae Ryan Son

Tecnologia Deepfake e intenzioni umane

Seleziona la lingua

  • Italiano
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Testo riassunto dall'intelligenza artificiale durumis

  • La Cina ha attuato una regolamentazione completa che limita la creazione di Deepfake, adottando misure più severe rispetto all'Unione Europea e agli Stati Uniti. Questo sembra essere un tentativo di reprimere le opinioni anti-establishment collegate alle recenti proteste del foglio bianco.
  • La tecnologia Deepfake solleva questioni etiche, in particolare quando si tratta di contenuti creati con persone di spicco con un impatto sociale significativo, poiché sussistono preoccupazioni riguardo al possibile abuso.
  • È più importante analizzare il contesto di creazione e la diffusione dei contenuti rispetto a regolamentare la tecnologia Deepfake. È possibile affrontare il problema attraverso un cambiamento di mentalità che consideri gli esseri umani dal punto di vista del sistema e attraverso programmi educativi a livello di comunità.

La Cina ha implementato regolamenti completi per limitare la creazione di "deepfake" a partire dal 10 di questo mese.


Questo fa parte di una serie di misure per prevenire le opinioni contro il regime collegate alle recenti proteste del foglio bianco, ed è interessante perché si tratta di una misura di divieto effettiva, a differenza dell'Unione Europea o degli Stati Uniti, dove tali misure sono rimaste a livello di raccomandazioni sulla base di argomentazioni come la violazione della libertà di stampa. Certo, questa misura della Cina è possibile grazie al sistema di censura di Internet, chiamato Great Firewall, che opera da oltre 20 anni. Tuttavia, il peso del rispetto della trasparenza e della divulgazione delle informazioni è enorme, quindi è probabile che la questione dell'efficacia interna ed esterna continui a essere sollevata.


Le tecnologie legate ai deepfake hanno fin dall'inizio sostenuto la necessità di etichettare i contenuti sintetici, ma è chiaro che il modo per garantire ciò è incerto. Inoltre, come dice l'espressione "Internet è per sempre", è estremamente difficile cancellare i contenuti creati una volta diffusi. Inoltre, anche dopo la cancellazione dei contenuti, la coscienza collettiva degli spettatori non scompare, come dimostra il caso dei contenuti "Voci di aprile" che hanno criticato le politiche di blocco di Shanghai e hanno influenzato le proteste del foglio bianco.


Storicamente, è impossibile fermare la diffusione della tecnologia nella società. Le statistiche secondo cui il 95% dei video deepfake nel mondo è pornografico, il falso video di resa del presidente ucraino all'inizio dell'invasione russa e l'apparizione di Bruce Willis in un annuncio nonostante la sua afasia sono chiare esempi concreti dei pericoli della tecnologia deepfake che influenzano l'intera società. Tuttavia, ciò che dovremmo davvero temere potrebbe non essere il modo in cui la tecnologia viene regolamentata. I nuovi metodi per manipolare la realtà sono sempre esistiti, e concentrarsi sempre sulle tecnologie più recenti è un gioco che perdiamo sempre. Piuttosto, dobbiamo concentrarci sul perché questi prodotti vengono creati e come vengono diffusi, ovvero sugli aspetti sociali che sostengono la diffusione di narrazioni false.

"La tecnologia deepfake è moralmente discutibile, ma non è intrinsecamente sbagliata."


La filosofa politica ed etica Adrienne de Ruiter ha sostenuto nella sua ricerca che "l'espressione di persone che non hanno dato il loro consenso", "l'atto di ingannare deliberatamente gli spettatori" e "l'intento dannoso" sono ciò che rende immorali i risultati di questa tecnologia. Ha dimostrato che l'intento umano, sia del creatore che dello spettatore, è ciò che deve essere evitato, separato dalla tecnologia stessa. In particolare, i contenuti deepfake mirati a un pubblico ristretto, come celebrità o politici, che hanno un impatto sociale relativamente elevato, sono difficili da regolamentare in termini di espressione degli intenti dei creatori.


Quindi, come dovremmo costruire delle soluzioni per il futuro? Ci sono due possibili direzioni.


Primo, dobbiamo riconoscere e accettare che esistiamo nel mondo delle telecamere e dei sistemi di riconoscimento. Sia io che scrivo questo articolo, sia voi che lo leggete, trascorriamo la maggior parte delle nostre giornate davanti a telefoni cellulari e laptop dotati di telecamera.Dal punto di vista del sistema, il comportamento umano è una sostanza per gli algoritmi.

Le telecamere che monitorano se i bambini sono ben accuditi esistono per favorire una relazione ideale tra genitori e baby-sitter, ma sono anche entità non umane che imparano ed eseguono l'intento di limitare gli umani. La consapevolezza di coesistere con questi nuovi enti può aiutare a gestire e contrastare gli intenti immorali legati ai deepfake.


Secondo, è necessario creare e diffondere l'istruzione su questo tema a livello di comunità. Tendiamo a cercare appartenenza all'interno di connessioni deboli all'interno del sistema digitale. Questo è legato alla mancanza di senso di appartenenza dai gruppi sociali rafforzata dalla pandemia, che ci fa desiderare di sentirci connessi a qualcuno di invisibile attraverso gusti o interessi. Il controllo costante di TikTok fino alle 2 del mattino, la frequente consultazione di Wikipedia senza aspettarsi precisione, il costante controllo delle storie su Instagram, l'abbandono delle chat di gruppo a cui si è meno interessati sono esempi di questo fenomeno.


I deepfake tendono a stimolare il senso di appartenenza da queste connessioni deboli, ma poiché non c'è un profondo interesse per l'oggetto in questione, è relativamente facile dissolvere l'influenza di questi contenuti. È stato difficile per gli individui verificare l'autenticità dei contenuti deepfake che cercano di screditare la credibilità di un politico, ma i risultati di un progetto in cui un partito è riuscito a distinguere il falso hanno dimostrato che un programma educativo basato sulla prospettiva, i valori e le pratiche della comunità può essere una soluzione efficace. Ciò significa anche che le aziende che forniscono servizi di piattaforma per la condivisione di contenuti deepfake possono creare opportunità strategiche elaborando e proponendo risposte uniche alla comunità degli utenti.


Esiste un caso positivo dell'utilizzo della tecnologia deepfake, come il film "Fast and Furious", in cui l'attore Paul Walker, morto in un incidente, è stato riportato in vita utilizzando il suo fratello come controfigura e sostituendo solo il suo viso. Tuttavia, eventi reali come il video falso di un rapporto sessuale con una giornalista donna, che ha rovinato la vita di una persona, stanno avvenendo nel mondo reale.


È importante ricordare che gli attori dell'industria cinematografica sono attualmente le persone più protette dalla tecnologia deepfake. La società attuale non è ancora in grado di rispondere alla domanda su come affrontare questo problema quando le vittime sono persone comuni. Potrebbe essere che la consapevolezza di noi stessi, che controlliamo i contenuti deepfake sui social media come TikTok per puro divertimento, sia il primo passo necessario prima di aspettarci una regolamentazione legale.


* Questo articolo è la versione originale dell'articolo pubblicato il 14 febbraio 2023 sucolonna di opinione firmata di E-daily .


Riferimenti

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
L'ambiguità verso la privacy digitale La controversia sulla privacy che circonda TikTok evidenzia le preoccupazioni sulla raccolta e sull'utilizzo dei dati degli utenti. Le aziende devono rispondere alle richieste di privacy degli utenti fornendo politiche di privacy chiare e concise e offren

10 maggio 2024

Il 'corpo' nell'era dell'intelligenza artificiale: come guardarlo Sora, il nuovo servizio di generazione di video AI di OpenAI, crea video incredibilmente realistici da input di testo. I video dimostrativi di una persona che mangia un hamburger, una persona che cammina per le strade del Giappone, ecc. sembrano scene di

16 maggio 2024

'AI nell'era moderna': il sex appeal è una strategia valida? Parte 1 La diffusione sui social media di app per spogliare i vestiti basate sull'intelligenza artificiale solleva interrogativi sul fenomeno della ricerca di stimoli sessuali da parte degli individui che si estende alle vite altrui e sull'analisi del ruolo in ev

16 maggio 2024

[Colonna di Heoyoungju] TikTok sull'orlo dell'espulsione dagli Stati Uniti La Camera dei Rappresentanti degli Stati Uniti ha approvato un disegno di legge per vietare TikTok, mettendo l'app in pericolo di essere espulsa dagli Stati Uniti. Il mondo politico americano sostiene che TikTok rappresenti una minaccia per la sicurezza n
허영주
허영주
허영주
허영주
허영주

26 giugno 2024

Generazione di immagini AI, la sua tecnologia rivoluzionaria e le sfide reali L'IA di generazione di immagini è una tecnologia rivoluzionaria che consente di creare immagini realistiche solo con l'input di testo. Viene utilizzata in vari settori come arte, design, marketing, ma esistono anche problemi come la proprietà intellettual
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 maggio 2024

Malintesi e verità sugli articoli scritti con AI generativa Google esclude dai risultati di ricerca i contenuti di bassa qualità, inclusi quelli generati dall'IA. Anche se si utilizza l'IA, la qualità dei contenuti è importante e la semplice copia e incolla può essere considerata di bassa qualità. In altre parole,
durumis official blog
durumis official blog
Immagine FAQ di durumis
durumis official blog
durumis official blog

21 febbraio 2024

[Colonna di Heo Yeong-ju] La doppia natura di 'Short Form', una dipendenza come la droga La dipendenza da Short Form che porta a guardare per 34 ore invece di 34 minuti, ecco 3 metodi per abitudini di visione sane. Questo articolo è stato pubblicato sul Women's Economic News.
허영주
허영주
허영주
허영주
허영주

14 giugno 2024

I rischi di TikTok, TikTok è davvero pericoloso? Insieme alla popolarità di TikTok, esaminiamo in dettaglio i fattori di rischio associati all'utilizzo di TikTok, come l'algoritmo personalizzato per l'utente, lo scroll infinito, la dipendenza, i problemi di privacy e sicurezza, e forniamo suggerimenti p
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

13 aprile 2024

Il mio breve futuro personale L'IA porterà grandi cambiamenti al futuro degli sviluppatori. L'IA sostituirà i compiti semplici come la creazione di prototipi e lo sviluppo front-end, ma gli sviluppatori esperti si concentreranno sulla risoluzione di problemi strategici e sulla creazio
Mark Ball Blog
Mark Ball Blog
Immagine del mio futuro personale
Mark Ball Blog
Mark Ball Blog

26 marzo 2024