China hat seit dem 10. vergangenen Monats umfassende Regulierungen zur Einschränkung der Erstellung von ‚Deepfakes‘ in Kraft gesetzt.
Dies ist als Teil einer Maßnahme zur Verhinderung von regimekritischen öffentlichen Meinungen im Zusammenhang mit den jüngsten Blank-Sheet-Protesten (白纸运动) interessant, da es sich um eine tatsächliche Verbotsmaßnahme handelt, im Gegensatz zu den Empfehlungen der Europäischen Union oder der Vereinigten Staaten, die aufgrund von Bedenken hinsichtlich der Verletzung der Meinungsfreiheit auf der Ebene von Empfehlungen verbleiben. Natürlich ist diese Maßnahme Chinas durch das seit über 20 Jahren bestehende Internetzensursystem, bekannt als die Great Firewall (万里防火墙), möglich. Angesichts der immensen Belastung durch die Anforderungen an Transparenz und die Einhaltung der Informationsoffenlegung ist es jedoch wahrscheinlich, dass die interne und externe Effektivität weiterhin in Frage gestellt wird.
In Bezug auf die Deepfake-Technologie wurde von Anfang an die Notwendigkeit der Kennzeichnung synthetischer Inhalte angesprochen, doch die Grenzen dieser Methode waren offensichtlich, da die konkrete Umsetzung unklar war. Darüber hinaus ist es, wie der Ausdruck ‚Das Internet ist ewig‘ (인터넷은 영원하다) verdeutlicht, extrem schwierig, erstellte Inhalte vollständig zu entfernen, wenn sie sich einmal verbreitet haben. Darüber hinaus zeigt das Beispiel der ‚April-Stimme‘ (4월의 목소리) Inhalte, die die Shanghaier Lockdown-Politik (上海封控政策) kritisierten und die Blank-Sheet-Proteste beeinflussten, dass das kollektive Bewusstsein der Zuschauer auch nach der Löschung von Inhalten bestehen bleibt.
Historisch gesehen ist es nicht möglich, die Integration von Technologien in die Gesellschaft zu verhindern. Statistiken zeigen, dass 95 % aller Deepfake-Videos weltweit pornografischer Natur sind. Weitere Beispiele für die gefährlichen und realen Auswirkungen der Deepfake-Technologie auf die gesamte Gesellschaft sind das gefälschte Kapitulationsvideo des ukrainischen Präsidenten zu Beginn des russischen Einmarsches und der Einsatz von Deepfake-Technologie für Werbeauftritte des an Aphasie leidenden Schauspielers Bruce Willis. Allerdings ist es möglicherweise nicht die Regulierungsmethode dieser Technologie, vor der wir uns wirklich hüten sollten. Neue Methoden der Faktenmanipulation gab es schon immer, und die ständige Fokussierung auf die neuesten Technologien führt letztendlich immer zu einer Niederlage. Stattdessen sollten wir uns darauf konzentrieren, warum solche Inhalte erstellt werden und wie sie sich verbreiten, d. h. auf die sozialen Faktoren, die die Verbreitung falscher Erzählungen unterstützen.
„Deepfake-Technologie ist ethisch fragwürdig, aber an sich nicht falsch.“
Die Ethikerin und politische Philosophin Adrienne de Ruiter (Adrienne de Ruiter) argumentierte in ihrer Forschung, dass ‚die Darstellung einer Person ohne deren Zustimmung‘, ‚das absichtliche Täuschen des Publikums‘ und ‚schädliche Absichten‘ die Ergebnisse dieser Technologie unethisch machen. Sie zeigte auf, dass die Intentionen des Erstellers und des Betrachters, also der Menschen, die von dieser Technologie getrennt sind, die zu beachtenden Akteure sind. Insbesondere bei Deepfake-Inhalten, die auf eine Mikro-Targeting-Zielgruppe abzielen, wie z. B. Prominente oder Politiker mit relativ großem gesellschaftlichem Einfluss, ist es besonders schwierig, die Äußerung der Intentionen des Erstellers zu regulieren.
Wie sollten wir also in Zukunft mit diesem Thema umgehen? Es lassen sich grob zwei Ansätze formulieren.
Erstens müssen wir uns bewusst sein und akzeptieren, dass wir in einer Welt von Kameras und Erkennungssystemen leben. Auch ich, der diese Zeilen schreibt, und Sie, der diese Zeilen liest, verbringen den Großteil ihres Alltags vor Mobiltelefonen und Laptops, die mit Kameras ausgestattet sind.Aus Sicht des Systems ist menschliches Verhalten Material für Algorithmen.
Kameras, die überprüfen, ob ein Kind gut betreut wird, dienen zwar der Schaffung einer idealen Beziehung zwischen Eltern und Betreuern, sind aber auch nicht-menschliche Akteure, die lernen und ausführen, wie Menschen andere Menschen einschränken wollen. Das Bewusstsein, dass wir mit diesen neuen Akteuren zusammenleben, kann uns helfen, unethische Absichten im Zusammenhang mit Deepfakes zu kontrollieren und darauf zu reagieren.
Zweitens müssen entsprechende Bildungsinitiativen auf Gemeinschaftsebene entstehen und sich verbreiten. Wir neigen dazu, in schwachen Verbindungen innerhalb digitaler Systeme nach Zugehörigkeit zu suchen. Dies hängt mit dem durch die Pandemie verstärkten Gefühl der fehlenden Zugehörigkeit zu sozialen Gruppen zusammen, in Verbindung mit dem Wunsch, zu glauben, dass man mit unsichtbaren Menschen verbunden ist, basierend auf Vorlieben oder Interessen. Beispiele hierfür sind das ständige Überprüfen von TikTok bis in die frühen Morgenstunden, der häufige Zugriff auf die nicht unbedingt präzise Wikipedia, das ständige Überprüfen von Instagram-Storys oder das Ignorieren von Gruppenchats, an denen man wenig Interesse hat.
Deepfakes neigen dazu, dieses Gefühl der Zugehörigkeit aus schwachen Verbindungen zu verstärken, aber da kein tiefes Interesse an den jeweiligen Personen besteht, ist es relativ einfach, den Einfluss solcher Inhalte zu schwächen. Ein Projekt, bei dem die Echtheit von Deepfake-Inhalten, die die Glaubwürdigkeit eines Politikers untergraben sollen, von Einzelpersonen schwer zu beurteilen war, aber von einer politischen Partei als falsch identifiziert werden konnte, zeigt, dass Bildungsprogramme, die auf den Perspektiven, Werten und Praktiken einer Gemeinschaft basieren, eine effektive Lösung sein können. Dies bedeutet auch, dass Unternehmen, die Plattformen für die gemeinsame Nutzung von Deepfake-Inhalten bereitstellen, strategische Chancen schaffen können, indem sie eigene Community-Lösungen für die Nutzer entwickeln und anbieten.
Neben positiven Anwendungsbeispielen der Deepfake-Technologie, wie z. B. dem Film ‚Fast & Furious‘ (분노의 질주), in dem der durch einen Unfall verstorbene Paul Walker durch die Kombination seines Gesichts mit dem Schauspiel eines seiner Brüder wieder zum Leben erweckt wurde, gibt es auch reale Fälle, in denen das Leben einer Journalistin durch ein gefälschtes Sexvideo zerstört wurde.
Es ist wichtig zu bedenken, dass Schauspieler in der Filmindustrie derzeit die am besten geschützten Personen vor Deepfake-Technologie sind. Wie die Gesellschaft darauf reagieren soll, wenn dies auf normale Menschen zutrifft, ist derzeit noch unklar. Anstatt auf Rechtsvorschriften zu hoffen, ist es vielleicht der erste und wichtigste Schritt, sich selbst zu hinterfragen und das eigene Verhalten zu reflektieren, wenn man Deepfake-Inhalte auf Social-Media-Kanälen wie TikTok nur aus Unterhaltungsgründen betrachtet.
*Dieser Text ist die Originalversion des Artikels, der am 14. Februar 2023 in der Kolumne der Elektronischen Zeitung veröffentlicht wurde.
Referenzen
Kommentare0