Byungchae Ryan Son

Derin Sahte Teknolojisi ve İnsan Niyeti

  • Yazım Dili: Korece
  • Baz Ülke: Tüm Ülkelercountry-flag
  • BT

Oluşturulma: 2024-05-10

Oluşturulma: 2024-05-10 12:01

Çin, 10 Ekim'den itibaren 'Derin Sahte' (Deepfake) içerik üretimine yönelik kapsamlı bir düzenleme uygulamaya koydu.


Bu adım, son zamanlardaki boş kağıt protestolarıyla bağlantılı muhalif kamuoyu hareketlerini engelleme çabalarının bir parçası olarak görülüyor. Avrupa Birliği ve ABD'de, ifade özgürlüğü ihlali endişeleri nedeniyle tavsiye niteliğinde kalan düzenlemelere kıyasla, Çin'in getirdiği bu somut yasaklama kararı dikkat çekici. Elbette Çin'in bu tür bir uygulamaya geçebilmesi, 20 yılı aşkın süredir faaliyet gösteren ve 'Büyük Firewall' (Manlı Fang Hua Qiang) olarak bilinen internet sansür sisteminin varlığıyla mümkün görünüyor. Ancak şeffaflık ve bilgi paylaşımına uyum sağlama yükümlülüğü göz önüne alındığında, bu düzenlemenin iç ve dış etkilere karşı etkinliğine dair şüpheler muhtemelen uzun süre devam edecek.


Derin sahte ile ilgili teknolojiler, en başından beri sentetik içeriklerin etiketlenmesi gerekliliğine vurgu yapmış olsa da, bunu güvence altına alacak yöntemlerin belirsizliği açık bir şekilde ortada. Ayrıca, internetin kalıcı bir ortam olduğu gerçeği göz önüne alındığında, oluşturulan içeriklerin yayılması durumunda bunları tamamen ortadan kaldırmak son derece zor. Dahası, içeriklerin silinmesinin ardından bile izleyicilerin kolektif bilincinin ortadan kalkmadığı, boş kağıt protestolarını etkileyen Şangay kilitlenmesini eleştiren 'Nisan Ayının Sesi' (4월의 목소리) içeriği örneğinde de görüldüğü gibi.


Tarihsel olarak, teknolojinin topluma entegre olması engellenemez bir süreçtir. Dünya genelindeki derin sahte videoların %95'inin pornografik içerikli olduğu istatistiği, Rusya'nın Ukrayna'ya saldırısının başlarında Ukrayna Devlet Başkanı'nın sahte teslim olma videosu ve konuşma bozukluğu çeken Bruce Willis'in reklam filmlerinde yer alması, derin sahte teknolojisinin toplum üzerindeki tehlikeli ve gerçekçi etkilerine dair açık örneklerdir. Ancak asıl dikkat etmemiz gereken şey, bu teknolojinin düzenleme biçimleri olmayabilir. Gerçeği çarpıtmanın yeni yolları her zaman var olmuş ve her seferinde en güncel teknolojiye odaklanmak, sonuç olarak hep kaybettiğimiz bir oyundur. Bunun yerine, ilgili üretim materyallerinin neden ve nasıl üretildiği, yani yanlış anlatıların yayılmasını destekleyen toplumsal etkenlere odaklanmalıyız.

“Derin sahte teknolojisi ahlaki açıdan şüphelidir, ancak özünde yanlış değildir.”


Ahlakçı ve siyaset felsefecisi Adrienne de Ruiter, araştırmalarında, 'rızası alınmadan birine ait ifade kullanımı', 'izleyiciyi kasıtlı olarak yanıltma eylemi' ve 'zararlı niyet'in bu teknolojinin ürünlerini ahlak dışı hale getirdiğini savunmuştur. Bu teknolojiyle bağlantısız olarak üretici ve izleyici, yani insanın niyetinin, dikkat edilmesi gereken asıl unsur olduğunu vurgulamıştır. Özellikle ünlüler veya siyasetçiler gibi toplumsal etkisi nispeten yüksek olan kişilere yönelik mikro hedefli derin sahte içeriklerde, üreticinin niyetini düzenlemek zor olacaktır.


Peki, gelecekteki ilgili çözümler nasıl oluşturulmalı? Büyük hatlarıyla iki yönü ele alabiliriz.


Birincisi, kamera ve tanıma sistemlerinin dünyasında var olduğumuzu ve bunu kabul etmemiz gerekiyor. Bu yazıyı yazan ben de, bunu okuyan siz de, çoğunlukla kamera donanımlı cep telefonu ve dizüstü bilgisayarların önünde günlük hayatımızı geçiriyoruz.Sistemin bakış açısından, insan davranışı, algoritmalar için bir malzemedir .

Çocuğa iyi bakılıp bakılmadığını kontrol eden kamera, anne-baba ve bakıcının ideal ilişkisini sağlamak için var olurken, aynı zamanda insanın insanı sınırlandırmak niyetini öğrenen ve uygulayan insan dışı bir öznedir. Bu yeni öznelerle birlikte yaşadığımız bilinci, derin sahte ile bağlantılı ahlak dışı niyetleri yönetmemize ve bunlara karşı önlem almamıza yardımcı olabilir.


İkincisi, topluluk bazında ilgili eğitim programları oluşturulmalı ve yaygınlaştırılmalıdır. Dijital sistemler içindeki zayıf bağlar aracılığıyla aidiyet duygusu arama eğiliminde oluruz. Bu, pandemi döneminde güçlenen topluluklardan kaynaklanan aidiyet duygusunun eksikliği ve görünmez bir şekilde bir başkasıyla bağlantılı olduğuna inanma arzusuyla ilgilidir, örneğin ilgi alanları veya beğeniler gibi. Gece geç saatlere kadar tekrarlanan TikTok kontrolü, doğruluğu beklenmeyen Vikipedi'ye sık sık giriş, Instagram'da sürekli hikaye kontrolü, ilgisi az olan grup sohbetlerinin ihmal edilmesi gibi.


Derin sahte, bu tür zayıf bağlardan kaynaklanan aidiyet duygusunu tetikleme eğiliminde olsa da, ilgili öznelere karşı derin bir ilgi eksikliğinden dolayı, ilgili içeriğin etkisinin azaltılması da nispeten kolaydır. Siyasetçinin güvenilirliğini düşürmek için üretilen derin sahte içeriğin doğruluğunun doğrulanması bireysel olarak zor olsa da, bir partinin yaptığı ve yalanı ayırt etmeyi başaran bir projenin sonuçları, topluluğun bakış açısı, değerleri ve uygulamalarına dayalı eğitim programlarının etkili bir çözüm olabileceğini kanıtlamıştır. Bu da, derin sahte içeriğin paylaşıldığı platform hizmeti şirketlerinin, kullanıcı tabanına özgü topluluk çözümleri geliştirip önererek stratejik fırsatlar yaratabileceği anlamına gelir.


Kazada ölen Paul Walker'ı, kardeşinin dublör oyunculuğu üzerine sadece yüzünü sentezleyerek hayata döndüren 'Hızlı ve Öfkeli' (Fast and Furious) filmi gibi derin sahte teknolojisinin olumlu kullanım örnekleri varken, bir kadın gazeteciyi hedef alan sahte cinsel ilişki videosu nedeniyle bir insanın hayatının mahvolduğu örnekler de gerçek hayatta yaşanıyor.


Film endüstrisindeki oyuncuların şu anda derin sahte teknolojisinden en çok korunan kişiler olduğunu hatırlamakta fayda var. Bu durumun hedef kitlesi sıradan insanlar olduğunda nasıl bir yanıt verilebileceği, günümüz toplumu tarafından henüz yanıtlanamamış görünüyor. TikTok gibi sosyal medya kanallarında derin sahte içerikleri eğlence amaçlı izleyen bizlere yönelik bir farkındalık yaratmak, yasal düzenlemelerden önce gelen en gerekli ilk adım olmalı.


*Bu yazı, 14 Şubat 2023 tarihli Elektronik Haberler İmzalı Yazı Köşesi 'nde yayınlanan içeriğin orijinalidir.


Referanslar

Yorumlar0