![translation](https://cdn.durumis.com/common/trans.png)
Dies ist ein von KI übersetzter Beitrag.
Deepfake-Technologie und menschliche Absicht
- Schreibsprache: Koreanisch
- •
-
Referenzland: Alle Länder
- •
- IT
Sprache auswählen
Von durumis AI zusammengefasster Text
- China hat umfassende Vorschriften zur Einschränkung der Deepfake-Produktion erlassen und damit im Vergleich zu der Europäischen Union und den Vereinigten Staaten einen stärkeren Kurs eingeschlagen. Es wird vermutet, dass dies dazu dienen soll, die jüngsten Proteste gegen das Regime im Zusammenhang mit den „Blank-Sheet-Protesten“ zu unterdrücken.
- Die Deepfake-Technologie wirft ethische Fragen auf, insbesondere im Zusammenhang mit der Erstellung von Inhalten, die einflussreiche Personen betreffen, da die Gefahr besteht, dass sie missbraucht werden.
- Anstatt die Deepfake-Technologie zu regulieren, ist es wichtiger, den Hintergrund der Content-Produktion und die Verbreitungsprozesse zu analysieren. Aus systemischer Sicht sollte der Mensch anders betrachtet werden, und es sollten Community-basierte Bildungsprogramme entwickelt werden, um die Probleme zu lösen.
China hat am 10. Januar umfassende Vorschriften zur Einschränkung der Herstellung von Deepfakes in Kraft gesetzt.
Dies ist Teil einer Reihe von Maßnahmen, die darauf abzielen, die jüngsten Proteste gegen das Regime zu unterdrücken, die mit leeren Blättern verbunden sind. Dies ist insofern bemerkenswert, als es sich um eine tatsächliche Verbotsmaßnahme handelt, die im Gegensatz zu den Empfehlungen der Europäischen Union oder der Vereinigten Staaten steht, die auf der Grundlage von Pressefreiheitseinschränkungen auf einer Empfehlungsebene verbleiben. Natürlich sind diese Maßnahmen Chinas möglich, da es seit über 20 Jahren ein Internet-Zensursystem namens Great Firewall betreibt. Allerdings sind die Belastungen im Hinblick auf die Einhaltung von Transparenz und Offenlegung enorm, so dass die Frage nach der inneren und äußeren Wirksamkeit dieser Maßnahmen weiterhin gestellt werden könnte.
Technologien im Zusammenhang mit Deepfakes haben von Anfang an die Notwendigkeit einer Kennzeichnung synthetischer Inhalte betont, aber die Grenzen waren klar, da die Methoden zur Gewährleistung dieser Kennzeichnung unklar waren. Außerdem ist es äußerst schwierig, die Verbreitung erstellter Inhalte vollständig zu unterbinden, wie der Ausdruck "Das Internet ist für immer" deutlich macht. Darüber hinaus zeigt der Fall der "April Voices", der kritische Inhalte über die Lockdowns in Shanghai enthielt, die die Politik des Lockdowns in Shanghai kritisierten, dass das kollektive Bewusstsein der Zuschauer auch nach der Löschung von Inhalten bestehen bleibt.
Historisch gesehen ist es nicht möglich, die Durchdringung von Technologien in die Gesellschaft zu verhindern. Die Statistik, dass 95 % aller Deepfake-Videos pornografischen Inhalts sind, der Fall des gefälschten Kapitulationsvideos des ukrainischen Präsidenten zu Beginn der russischen Invasion und der Werbeauftritt von Bruce Willis, der an Aphasie leidet, sind eindeutige Beispiele für die gefährlichen Realitäten der Deepfake-Technologie, die die gesamte Gesellschaft beeinflussen. Aber vielleicht ist es nicht die Art und Weise, wie diese Technologie reguliert wird, vor der wir uns wirklich hüten müssen. In der Tat hat es immer neue Methoden zur Manipulation der Wahrheit gegeben, und es ist immer ein verlorenes Spiel, sich immer auf die neuesten Technologien zu konzentrieren. Vielmehr sollten wir uns darauf konzentrieren, warum diese Werke erstellt werden und wie sie verbreitet werden, d. h. auf die sozialen Faktoren, die die Verbreitung falscher Erzählungen unterstützen.
"Deepfake-Technologie ist zwar moralisch bedenklich, aber nicht per se falsch."
Adrienne de Ruiter, eine Ethikerin und politische Philosophin, argumentierte in ihrer Forschung, dass "Ausdrücke ohne Zustimmung", "das absichtliche Täuschen von Zuschauern" und "schädliche Absichten" die Ergebnisse dieser Technologie unmoralisch machen. Sie machte deutlich, dass die Absichten der Menschen, d. h. der Schöpfer und der Zuschauer, die von der Technologie getrennt sind, das eigentliche Objekt der Vorsicht sind. Insbesondere bei Deepfake-Inhalten, die auf Mikro-Targeting basieren und sich auf Personen mit relativ großem sozialen Einfluss wie Prominente oder Politiker konzentrieren, ist es besonders schwierig, die Manifestation der Absichten der Schöpfer zu regulieren.
Wie können wir nun in Zukunft alternative Lösungen entwickeln? Es gibt zwei Hauptrichtungen, die man vorschlagen kann.
Erstens müssen wir uns bewusst sein und akzeptieren, dass wir in einer Welt von Kameras und Erkennungssystemen leben. Auch wer diesen Text schreibt, auch wer diesen Text liest, verbringt den größten Teil seines Alltags vor Mobiltelefonen und Laptops mit eingebauten Kameras.Aus Sicht des Systems ist menschliches Verhalten eine Substanz für Algorithmen..
Kameras, die überprüfen, ob sich ein Kind gut kümmert, dienen der idealen Beziehung zwischen Eltern und Babysitter, aber sie sind auch nichtmenschliche Wesen, die lernen und ausführen, wie Menschen Menschen beschränken wollen. Das Bewusstsein, dass wir mit diesen neuen Entitäten zusammenleben, kann uns helfen, unmoralische Absichten im Zusammenhang mit Deepfakes zu managen und darauf zu reagieren.
Zweitens muss eine communitybasierte Ausbildung entstehen und verbreitet werden. Wir neigen dazu, Zugehörigkeit in einem Umfeld schwächerer Verbindungen innerhalb des digitalen Systems zu suchen. Dies ist ein Phänomen, das mit dem Fehlen von Zugehörigkeit zu sozialen Gruppen zusammenhängt, das durch die Pandemie verstärkt wurde, und dem Wunsch, sich mit unsichtbaren Menschen verbunden zu fühlen, die ähnliche Vorlieben und Interessen haben. Das ständige Überprüfen von TikTok bis 2 Uhr morgens, der häufige Zugriff auf Wiki, das keine Genauigkeit erwartet, die ständige Überprüfung von Instagram-Storys und das Ignorieren von Gruppenchats mit wenig Interesse sind Beispiele dafür.
Deepfakes neigen dazu, Zugehörigkeit aus diesen schwachen Verbindungen heraus zu stimulieren, aber da es kein tiefes Interesse an diesen Subjekten gibt, ist es relativ einfach, den Einfluss dieser Inhalte zu entkräften. Die Überprüfung der Echtheit von Deepfake-Inhalten, die dazu dienen, das Vertrauen in Politiker zu untergraben, war für Einzelpersonen möglicherweise schwierig, aber die Ergebnisse eines Projekts, bei dem Parteien die Falschheit erkannt haben, haben bewiesen, dass Bildungsprogramme auf der Grundlage der Perspektive, Werte und Praktiken von Communities eine wirksame Alternative darstellen können. Dies bedeutet, dass Plattformdienstleister, auf denen Deepfake-Inhalte geteilt werden, strategische Chancen schaffen können, indem sie einzigartige Community-Lösungen für Nutzer entwickeln und vorschlagen.
Neben dem positiven Beispiel des Films "Fast & Furious", in dem der verstorbene Paul Walker mithilfe der Deepfake-Technologie mit dem Gesicht eines Schauspielers über den Körper seines Bruders wieder zum Leben erweckt wurde, gibt es auch den Fall einer Journalistin, die zum Ziel eines gefälschten Sexvideos wurde, das ihr Leben ruinierte.
Es ist wichtig zu bedenken, dass Schauspieler in der Filmindustrie derzeit die am besten geschützten Personen vor der Deepfake-Technologie sind. Die Gesellschaft hat noch keine Antwort darauf, wie man reagieren kann, wenn die Zielgruppe gewöhnliche Menschen sind. Vielleicht ist es vor allem wichtig, sich der Deepfake-Inhalte bewusst zu sein, die wir auf Social Media-Kanälen wie TikTok als Unterhaltung betrachten, bevor wir überhaupt von einer rechtlichen Regulierung sprechen.
*Dieser Artikel basiert auf dem Original, das am 14. Februar 2023 in derKolumne der Wirtschaftszeitung veröffentlicht wurde.
Referenzen