Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Dies ist ein von KI übersetzter Beitrag.

Byungchae Ryan Son

Deepfake-Technologie und menschliche Absicht

  • Schreibsprache: Koreanisch
  • Referenzland: Alle Länder country-flag

Sprache auswählen

  • Deutsch
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Von durumis AI zusammengefasster Text

  • China hat umfassende Vorschriften zur Einschränkung der Deepfake-Produktion erlassen und damit im Vergleich zu der Europäischen Union und den Vereinigten Staaten einen stärkeren Kurs eingeschlagen. Es wird vermutet, dass dies dazu dienen soll, die jüngsten Proteste gegen das Regime im Zusammenhang mit den „Blank-Sheet-Protesten“ zu unterdrücken.
  • Die Deepfake-Technologie wirft ethische Fragen auf, insbesondere im Zusammenhang mit der Erstellung von Inhalten, die einflussreiche Personen betreffen, da die Gefahr besteht, dass sie missbraucht werden.
  • Anstatt die Deepfake-Technologie zu regulieren, ist es wichtiger, den Hintergrund der Content-Produktion und die Verbreitungsprozesse zu analysieren. Aus systemischer Sicht sollte der Mensch anders betrachtet werden, und es sollten Community-basierte Bildungsprogramme entwickelt werden, um die Probleme zu lösen.

China hat am 10. Januar umfassende Vorschriften zur Einschränkung der Herstellung von Deepfakes in Kraft gesetzt.


Dies ist Teil einer Reihe von Maßnahmen, die darauf abzielen, die jüngsten Proteste gegen das Regime zu unterdrücken, die mit leeren Blättern verbunden sind. Dies ist insofern bemerkenswert, als es sich um eine tatsächliche Verbotsmaßnahme handelt, die im Gegensatz zu den Empfehlungen der Europäischen Union oder der Vereinigten Staaten steht, die auf der Grundlage von Pressefreiheitseinschränkungen auf einer Empfehlungsebene verbleiben. Natürlich sind diese Maßnahmen Chinas möglich, da es seit über 20 Jahren ein Internet-Zensursystem namens Great Firewall betreibt. Allerdings sind die Belastungen im Hinblick auf die Einhaltung von Transparenz und Offenlegung enorm, so dass die Frage nach der inneren und äußeren Wirksamkeit dieser Maßnahmen weiterhin gestellt werden könnte.


Technologien im Zusammenhang mit Deepfakes haben von Anfang an die Notwendigkeit einer Kennzeichnung synthetischer Inhalte betont, aber die Grenzen waren klar, da die Methoden zur Gewährleistung dieser Kennzeichnung unklar waren. Außerdem ist es äußerst schwierig, die Verbreitung erstellter Inhalte vollständig zu unterbinden, wie der Ausdruck "Das Internet ist für immer" deutlich macht. Darüber hinaus zeigt der Fall der "April Voices", der kritische Inhalte über die Lockdowns in Shanghai enthielt, die die Politik des Lockdowns in Shanghai kritisierten, dass das kollektive Bewusstsein der Zuschauer auch nach der Löschung von Inhalten bestehen bleibt.


Historisch gesehen ist es nicht möglich, die Durchdringung von Technologien in die Gesellschaft zu verhindern. Die Statistik, dass 95 % aller Deepfake-Videos pornografischen Inhalts sind, der Fall des gefälschten Kapitulationsvideos des ukrainischen Präsidenten zu Beginn der russischen Invasion und der Werbeauftritt von Bruce Willis, der an Aphasie leidet, sind eindeutige Beispiele für die gefährlichen Realitäten der Deepfake-Technologie, die die gesamte Gesellschaft beeinflussen. Aber vielleicht ist es nicht die Art und Weise, wie diese Technologie reguliert wird, vor der wir uns wirklich hüten müssen. In der Tat hat es immer neue Methoden zur Manipulation der Wahrheit gegeben, und es ist immer ein verlorenes Spiel, sich immer auf die neuesten Technologien zu konzentrieren. Vielmehr sollten wir uns darauf konzentrieren, warum diese Werke erstellt werden und wie sie verbreitet werden, d. h. auf die sozialen Faktoren, die die Verbreitung falscher Erzählungen unterstützen.

"Deepfake-Technologie ist zwar moralisch bedenklich, aber nicht per se falsch."


Adrienne de Ruiter, eine Ethikerin und politische Philosophin, argumentierte in ihrer Forschung, dass "Ausdrücke ohne Zustimmung", "das absichtliche Täuschen von Zuschauern" und "schädliche Absichten" die Ergebnisse dieser Technologie unmoralisch machen. Sie machte deutlich, dass die Absichten der Menschen, d. h. der Schöpfer und der Zuschauer, die von der Technologie getrennt sind, das eigentliche Objekt der Vorsicht sind. Insbesondere bei Deepfake-Inhalten, die auf Mikro-Targeting basieren und sich auf Personen mit relativ großem sozialen Einfluss wie Prominente oder Politiker konzentrieren, ist es besonders schwierig, die Manifestation der Absichten der Schöpfer zu regulieren.


Wie können wir nun in Zukunft alternative Lösungen entwickeln? Es gibt zwei Hauptrichtungen, die man vorschlagen kann.


Erstens müssen wir uns bewusst sein und akzeptieren, dass wir in einer Welt von Kameras und Erkennungssystemen leben. Auch wer diesen Text schreibt, auch wer diesen Text liest, verbringt den größten Teil seines Alltags vor Mobiltelefonen und Laptops mit eingebauten Kameras.Aus Sicht des Systems ist menschliches Verhalten eine Substanz für Algorithmen..

Kameras, die überprüfen, ob sich ein Kind gut kümmert, dienen der idealen Beziehung zwischen Eltern und Babysitter, aber sie sind auch nichtmenschliche Wesen, die lernen und ausführen, wie Menschen Menschen beschränken wollen. Das Bewusstsein, dass wir mit diesen neuen Entitäten zusammenleben, kann uns helfen, unmoralische Absichten im Zusammenhang mit Deepfakes zu managen und darauf zu reagieren.


Zweitens muss eine communitybasierte Ausbildung entstehen und verbreitet werden. Wir neigen dazu, Zugehörigkeit in einem Umfeld schwächerer Verbindungen innerhalb des digitalen Systems zu suchen. Dies ist ein Phänomen, das mit dem Fehlen von Zugehörigkeit zu sozialen Gruppen zusammenhängt, das durch die Pandemie verstärkt wurde, und dem Wunsch, sich mit unsichtbaren Menschen verbunden zu fühlen, die ähnliche Vorlieben und Interessen haben. Das ständige Überprüfen von TikTok bis 2 Uhr morgens, der häufige Zugriff auf Wiki, das keine Genauigkeit erwartet, die ständige Überprüfung von Instagram-Storys und das Ignorieren von Gruppenchats mit wenig Interesse sind Beispiele dafür.


Deepfakes neigen dazu, Zugehörigkeit aus diesen schwachen Verbindungen heraus zu stimulieren, aber da es kein tiefes Interesse an diesen Subjekten gibt, ist es relativ einfach, den Einfluss dieser Inhalte zu entkräften. Die Überprüfung der Echtheit von Deepfake-Inhalten, die dazu dienen, das Vertrauen in Politiker zu untergraben, war für Einzelpersonen möglicherweise schwierig, aber die Ergebnisse eines Projekts, bei dem Parteien die Falschheit erkannt haben, haben bewiesen, dass Bildungsprogramme auf der Grundlage der Perspektive, Werte und Praktiken von Communities eine wirksame Alternative darstellen können. Dies bedeutet, dass Plattformdienstleister, auf denen Deepfake-Inhalte geteilt werden, strategische Chancen schaffen können, indem sie einzigartige Community-Lösungen für Nutzer entwickeln und vorschlagen.


Neben dem positiven Beispiel des Films "Fast & Furious", in dem der verstorbene Paul Walker mithilfe der Deepfake-Technologie mit dem Gesicht eines Schauspielers über den Körper seines Bruders wieder zum Leben erweckt wurde, gibt es auch den Fall einer Journalistin, die zum Ziel eines gefälschten Sexvideos wurde, das ihr Leben ruinierte.


Es ist wichtig zu bedenken, dass Schauspieler in der Filmindustrie derzeit die am besten geschützten Personen vor der Deepfake-Technologie sind. Die Gesellschaft hat noch keine Antwort darauf, wie man reagieren kann, wenn die Zielgruppe gewöhnliche Menschen sind. Vielleicht ist es vor allem wichtig, sich der Deepfake-Inhalte bewusst zu sein, die wir auf Social Media-Kanälen wie TikTok als Unterhaltung betrachten, bevor wir überhaupt von einer rechtlichen Regulierung sprechen.


*Dieser Artikel basiert auf dem Original, das am 14. Februar 2023 in derKolumne der Wirtschaftszeitung veröffentlicht wurde.


Referenzen

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Die Ungewissheit im Streben nach digitaler Privatsphäre Die Kontroversen um TikTok im Bereich des Datenschutzes zeigen die Bedenken hinsichtlich der Erfassung und Nutzung von Benutzerdaten auf. Unternehmen müssen auf die Bedürfnisse der Benutzer in Bezug auf Datenschutz reagieren, indem sie Datenschutzrichtlin

10. Mai 2024

Der 'Körper' im Zeitalter der KI: Wie wir ihn betrachten sollten Sora, der neue KI-Videogenerierungsdienst von OpenAI, erstellt mit Texteingabe beeindruckende Videos mit realistischer Darstellung. Demovideos von Personen, die einen Hamburger essen oder durch japanische Straßen gehen, ähneln Werbespots oder Filmszenen.

16. Mai 2024

Die sich verändernde Beziehung zwischen uns und Algorithmen Die jüngsten Fortschritte in der generativen KI-Technologie haben zu einer Neudefinition der Beziehung zwischen Mensch und Algorithmus geführt. Der Autor diskutiert eingehend, wie Menschen in einer Zeit, in der generative KI wie ChatGPT eingesetzt wird, m

9. Mai 2024

Bildgenerierende KI, ihre revolutionäre Technologie und die Herausforderungen in der Realität Bildgenerierende KI ist eine revolutionäre Technologie, die realistische Bilder allein durch Texteingabe erstellen kann. Sie findet Anwendung in verschiedenen Bereichen wie Kunst, Design und Marketing, birgt aber auch Probleme wie Urheberrechtsverletzunge
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6. Mai 2024

Missverständnisse und Wahrheiten über mit generativer KI erstellte Inhalte Google schließt Inhalte, die mit KI generiert wurden, einschließlich minderwertiger Inhalte, von den Suchergebnissen aus. Auch bei Verwendung von KI ist die Qualität des Inhalts entscheidend, und einfaches Kopieren und Einfügen kann als minderwertig anges
durumis official blog
durumis official blog
Durumis FAQ-Bild
durumis official blog
durumis official blog

21. Februar 2024

[허영주 칼럼] TikTok steht vor dem Ausschluss aus den USA Das US-Repräsentantenhaus hat ein Gesetz zur Verbannung von TikTok verabschiedet, das TikTok vor dem Ausschluss aus den USA stellt. US-Politiker argumentieren, dass TikTok eine Gefahr für die nationale Sicherheit und die Datensicherheit darstellt und befü
허영주
허영주
허영주
허영주
허영주

26. Juni 2024

Meine persönliche Sicht auf die nahe Zukunft KI wird die Zukunft der Entwickler stark verändern. Während KI einfache Aufgaben wie Prototyping und Frontend-Entwicklung übernimmt, werden qualifizierte Entwickler sich auf strategische Problemlösungen und kreative Ideen konzentrieren. Andererseits gibt
Mark Ball Blog
Mark Ball Blog
Ein Bild, das meine persönliche Sicht auf die Zukunft darstellt
Mark Ball Blog
Mark Ball Blog

26. März 2024

TikTok-Risiken: Ist TikTok wirklich gefährlich? Neben der Popularität von TikTok werden die mit der Nutzung von TikTok verbundenen Risikofaktoren wie der benutzerdefinierte Algorithmus, das endlose Scrollen, die Sucht, Datenschutz- und Sicherheitsprobleme im Detail untersucht und Tipps für die sichere
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

13. April 2024

Sieben Dinge, die Sie bei Betrugsmaschen und Phishing beachten sollten Neue Formen von Cyberkriminalität, die sogar KI-Technologien einsetzen, tauchen auf. Daher ist bei der Nutzung von P2P-Zahlungsservices besondere Vorsicht geboten. Es gibt verschiedene Betrugsmaschen wie Phishing, Kontodatenklau, den Verkauf gefälschter P
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

30. März 2024