![translation](https://cdn.durumis.com/common/trans.png)
Dies ist ein von KI übersetzter Beitrag.
Die sich verändernde Beziehung zwischen uns und Algorithmen
- Schreibsprache: Koreanisch
- •
-
Referenzland: Alle Länder
- •
- IT
Sprache auswählen
Von durumis AI zusammengefasster Text
- Generative KI wie ChatGPT hat sich so weit entwickelt, dass sie menschliche Rollen ersetzt, was nicht nur zu Problemen mit der Verletzung der Rechte von Schöpfern führt, sondern auch zu Überlegungen über eine neue Beziehung zu Algorithmen.
- Algorithmen beeinflussen viele Bereiche unseres Lebens, und wir erkennen die Existenz von Algorithmen, sind neugierig auf sie und betrachten sie als aktive Entitäten.
- Insbesondere generative KI greift bei der Generierung von Ergebnissen basierend auf Benutzeranforderungen auf bestehende Inhalte zurück, daher müssen wir die Beziehung zu KI-Algorithmen neu definieren und ethische Verantwortlichkeiten berücksichtigen.
„Wir haben jetzt KI-Modelle, die die menschliche Sprache analysieren und Modelle der Welt extrahieren.“
Am 19. Januar letzten Monats sprach der klinische Psychologe Jordan Peterson, Professor an der Universität Toronto, auf einer Wohltätigkeitsveranstaltung in Ontario, Kanada, über die jüngsten Anwendungsbeispiele von ChatGPT und die neuen Spannungen, die Algorithmen in Zukunft zwischen Menschen und Maschinen schaffen werden. Peterson warnte, dass generative KI, wie z.B. große Sprachmodelle, in Zukunft Bilder und Bewegungen nutzen, um eigenständig Muster zu extrahieren und diese an der Welt zu testen. Dadurch könnten sie die Arbeit von menschlichen Wissenschaftlern in Sekundenschnelle erledigen und würden immer intelligenter.
GPT-3, DALL-E, Stable Diffusion usw. bilden heute die Grundlage für fast alle KI-Systeme und verdeutlichen den Wandel des KI- Paradigmas. Diese leistungsstarken Systeme, die Bilder und Texte nach Bedarf erzeugen, stoßen zwangsläufig auf Konflikte mit Schöpfern in etablierten Branchen. Im November wurde Microsoft mit einer Sammelklage konfrontiert, die die Firma beschuldigte, die rechtlichen Rechte unzähliger Entwickler zu verletzen, die Code unter einer Open-Source-Lizenz veröffentlicht hatten, um das Training der KI zu ermöglichen. Im Oktober gab die Recording Industry Association of America (RIAA) in einer Erklärung bekannt, dass die KI-gestützte Musikgenerierung und -Remixe nicht nur die Rechte von Musikern, sondern auch ihre finanzielle Situation gefährden könnten.
Diese Beispiele werfen die Frage auf, ob es fair ist, Systeme mit Datensätzen zu trainieren und Ergebnisse zu produzieren, die auf urheberrechtlich geschützten Materialien basieren. Es ist jedoch wichtig zu beachten, dass die Kontroversen sich größtenteils auf die technologiezentrischen Aspekte konzentrieren. Letztendlich sind es die Menschen, die Texte in KI-Modelle eingeben, um die gewünschten Ergebnisse zu erzielen. Daher sollten wir uns zunächst mit der Frage auseinandersetzen, wie die Beziehung zwischen Menschen und Algorithmen in Zukunft aussehen soll.
Algorithmen sind bereits ein wesentlicher Bestandteil der Welt, die wir erschaffen. In der Vergangenheit haben wir uns viele gesellschaftliche Überwachungsmechanismen für die Intransparenz von Algorithmen überlegt. Wir wussten, dass die fehlende Transparenz es schwierig macht, die Verantwortlichen für Fehler zu identifizieren. Wir waren besorgt, dass verdeckte Vorurteile dauerhaft bestehen bleiben und zu ungerechten Ergebnissen führen könnten. Daher ist die Frage, wie wir mit Algorithmen umgehen sollen, umso wichtiger. Ein Hinweis auf die Antwort könnte in der Beziehung liegen, die wir bereits mit inhaltsgenerierenden Algorithmen haben.
Erstens:Wir sind uns der Existenz von Algorithmen bewusst. In Gesprächen über Inhalte und Werbung tauchen die Worte „Empfehlung“ und „Auswahl“ immer wieder auf. Dies zeigt, dass Menschen im Bereich des Online-Shoppings und der sozialen Medien zunehmend ihre Wortwahl an Algorithmen orientieren. AußerdemWir sind neugierig auf Algorithmen. Wir fragen uns oft, warum unsere Startseite auf YouTube mit bestimmten Kategorien von Inhalten gefüllt ist, oder wir reagieren negativ auf die geringe Reichweite unserer Posts. Dadurch zeigen wir unsere Neugier auf Algorithmen.
Schließlich wollen wir, dass Algorithmen wie dynamische und lebendige Wesen für uns da sind. Wir verlassen uns auf Algorithmen, um neue Gewohnheiten zu entwickeln, zu lernen und uns Dinge zu merken, und versuchen, sie vollständig zu kontrollieren. Wir nutzen scheinbar irrelevante Hashtags, aktivieren den Nicht-Stören-Modus oder senden Feedback zu den Werbeoptionen. Und wenn all diese Versuche fehlschlagen, versuchen wir, uns von Algorithmen zu distanzieren, indem wir z.B. eine digitale Auszeit einlegen oder Newsletter-Inhalte konsumieren.
Zusammenfassend lässt sich sagen, dass Menschen dazu neigen, Misstrauen, schlechte Bewertungen und Verhaftetsein in der Vergangenheit zu zeigen, wenn die Beziehung zu Algorithmen nicht ihren Erwartungen entspricht. Dies ähnelt in hohem Maße unseren täglichen'sozialen Beziehungen'. Während die Beziehung zu bestehenden inhaltsgenerierenden Algorithmen hauptsächlich ein einseitiges Verhältnis im Bereich des „Konsums“ war, kann die Beziehung zu aktuellen großen Sprachmodellen, d.h. KI-Algorithmen, als ein zweiseitiges Verhältnis im Bereich der „Generierung“ betrachtet werden. Da die von Benutzern gewünschten Ergebnisse nicht vollständig originell sind, sondern auf den Werken anderer basieren, müssen wir uns bewusst machen, dass wir unsere Einstellung und unseren Umgang mit generativen KI-Algorithmen grundlegend ändern müssen.
Auch wenn das ChatGPT-Fenster geöffnet ist, wartet der KI-Algorithmus geduldig. Vielleicht liegt seine erstaunliche Fähigkeit nur im Verborgenen. Vielleicht hilft er nur dann, wenn Sie etwas schreiben, indem er eine unsichtbare soziale Beziehung zu einem anderen Menschen in Ihrer Welt aufbaut.
*Dieser Artikel basiert auf dem Original, das am 9. Januar 2023 in derKolumne der Electronic Times erschienen ist.
Referenzen