Byungchae Ryan Son

Unsere veränderte Beziehung zu Algorithmen

  • Verfasst in: Koreanisch
  • Land: Alle Ländercountry-flag
  • IT

Erstellt: 2024-05-09

Erstellt: 2024-05-09 15:01

„Wir haben jetzt ein KI-Modell, das menschliche Sprache analysiert und Modelle der Welt extrahiert.“


Im vergangenen Monat, am 19., sprach der klinische Psychologe und Professor der Universität Toronto, Jordan Peterson, auf einer Veranstaltung einer Wohltätigkeitsorganisation in Ontario, Kanada, über die jüngsten Anwendungsfälle von ChatGPT und die neue Spannung, die Algorithmen in Zukunft zwischen Mensch und Maschine erzeugen werden. Peterson warnte, dass große Sprachmodelle, generative KI, in naher Zukunft in der Lage sein werden, mithilfe von Bildern und Aktionen selbst Muster zu extrahieren und diese in der Welt zu testen, und so die Rolle menschlicher Wissenschaftler in Sekundenschnelle übernehmen könnten.


GPT-3, DALL-E und Stable Diffusion bilden heute die Grundlage fast aller KI-Systeme und visualisieren den Wandel des KI-Paradigmas. Diese leistungsstarken Systeme, die Bilder und Texte nach Bedarf des Benutzers generieren, führen zwangsläufig zu Konflikten mit bestehenden Kreativen in verschiedenen Branchen. Im November 2022 wurde Microsoft mit seinem ‚GitHub Copilot‘ mit einer Sammelklage konfrontiert, die behauptet, dass das System die rechtlichen Rechte zahlreicher Autoren verletzt habe, die ihren Code unter einer Open-Source-Lizenz veröffentlicht hatten, um das KI-Training zu ermöglichen. Darüber hinaus betonte die Recording Industry Association of America (RIAA) in einer Erklärung im Oktober 2022, dass die KI-basierte Musikgenerierung und -remixing nicht nur die Rechte von Musikern gefährden, sondern auch ihre finanzielle Situation.


Diese Fälle erinnern uns an die Frage, ob die Verwendung von Datensätzen mit urheberrechtlich geschütztem Material zum Trainieren von Systemen und zur Erstellung von Ergebnissen ‚fair für alle‘ ist. Es ist jedoch wichtig zu beachten, dass sich diese Debatten weitgehend auf die neue, technologiezentrierte Perspektive konzentrieren. Letztendlich ist der Mensch derjenige, der Texte in ein KI-Modell eingibt, um das gewünschte Ergebnis zu erhalten. Daher sollten wir uns zunächst mit der Frage befassen, wie die Beziehung zwischen Mensch und Algorithmus in Zukunft aussehen soll.


Algorithmen sind bereits eine treibende Kraft bei der Generierung unserer Welt, ähnlich wie Menschen. Wir haben uns schon lange mit der Frage der Intransparenz von Algorithmen und der damit verbundenen gesellschaftlichen Überwachung auseinandergesetzt. Insbesondere war uns bewusst, dass es schwierig ist, die Verantwortlichen bei mangelnder Transparenz zu identifizieren, und wir waren besorgt, dass anhaltende, verborgene Vorurteile zu ungerechten Ergebnissen führen könnten. Daher ist die Frage ‚Wie sollten wir mit Algorithmen umgehen?‘ möglicherweise die wichtigere Frage, und wir können Hinweise darauf in unserer bereits vertrauten Beziehung zu inhaltsgenerierenden Algorithmen (content-generating algorithm) finden.


Erstens sind wir uns der Existenz von Algorithmen bewusst. Die häufigen Begriffe ‚Empfehlung‘ und ‚Auswahl‘ in Gesprächen über Inhalte und Werbung zeigen, dass Menschen ihre Wortwahl zunehmend um Algorithmen herum aufbauen, sei es beim Online-Shopping oder in sozialen Medien. Außerdem sind wir neugierig auf Algorithmen. Wenn die Startseite von YouTube mit Inhalten aus einer bestimmten Kategorie gefüllt ist oder wir das Gefühl haben, dass unsere eigenen Beiträge nicht genügend Aufmerksamkeit erhalten, äußern wir oft unsere Neugier auf Algorithmen in Form von negativen Reaktionen.


Schließlich wünschen wir uns, dass Algorithmen aktiv und lebendig sind und für uns da sind. Um neue Gewohnheiten zu entwickeln, zu lernen oder sich an Dinge zu erinnern, verlassen wir uns auf Algorithmen und versuchen, sie vollständig zu kontrollieren. Dazu gehören der Versuch, irrelevante Hashtags zu verwenden, den Nicht-Stören-Modus zu aktivieren oder Feedback zu Werbeoptionen zu senden. Und wenn all diese Versuche fehlschlagen, versuchen wir sogar, uns von Algorithmen zu distanzieren, indem wir eine digitale Entgiftung oder den Konsum von Newsletter-Inhalten in Betracht ziehen.


Zusammenfassend lässt sich sagen, dass Menschen dazu neigen, bei fehlgeschlagenen Beziehungen zu Algorithmen Misstrauen, negative Bewertungen und eine Fixierung auf die Vergangenheit zu zeigen. Und das ähnelt stark unseren alltäglichen ‚sozialen Beziehungen‘. Darüber hinaus war die Beziehung zu herkömmlichen inhaltsgenerierenden Algorithmen meist einseitig im Bereich des ‚Konsums‘, während die Beziehung zu aktuellen, großen Sprachmodellen (Large Language Models) als KI-Algorithmen eher als bidirektionale Beziehung im Bereich der ‚Generierung‘ definiert werden kann. Angesichts der Tatsache, dass die vom Benutzer gewünschten Ergebnisse nicht immer vollständig originell sind, sondern auf den Kreationen anderer in der Welt basieren, müssen wir uns bewusst sein, dass sich unsere Haltung und unser Verhalten gegenüber generativen KI-Algorithmen grundlegend ändern müssen.


Auch wenn das Fenster von ChatGPT geöffnet ist, wartet der KI-Algorithmus nur. Vielleicht ist es nur die erstaunliche Fähigkeit, die verdeckt ist. Aber wenn Sie etwas schreiben, hilft er möglicherweise, eine unsichtbare soziale Beziehung zu einer anderen Person in der Welt zu fördern, die Sie betrifft.


*Dieser Artikel ist die Originalfassung eines Artikels, der am 9. Januar 2023 in der Kolumne der Elektronischen Zeitung veröffentlicht wurde.


Referenzen


Kommentare0