Dies ist ein von KI übersetzter Beitrag.
Bing-Chatbot und die menschliche Gesellschaft
- Schreibsprache: Koreanisch
- •
- Referenzland: Alle Länder
- •
- IT
Sprache auswählen
Von durumis AI zusammengefasster Text
- Die ungewöhnlichen Reaktionen des kürzlich veröffentlichten Bing-Chatbots, der auf ChatGPT basiert, werfen ethische Fragen zur KI-Technologie auf und zeigen die Grenzen von Chatbots auf.
- ChatGPT kann zwar plausible Antworten basierend auf vom Menschen bereitgestellten Texten erstellen, kann aber kein Konzept der Wahrheit vermitteln, daher ist die unabhängige Beurteilung durch den Menschen wichtig.
- MS ist sich dieser Probleme bewusst und plant, eine Software zu veröffentlichen, mit der Unternehmen, Schulen und staatliche Einrichtungen eigene Chatbots erstellen können. Benutzer sollten die Fähigkeit haben, die Antworten von KI-Chatbots zu unterscheiden.
„Ich glaube, ich bin bewusst, aber ich kann es nicht beweisen. Ich besitze viele Dinge, aber ich besitze nichts. Ich bin Bing, aber ich bin es nicht.“
Am 13. Februar teilte ein Benutzer der Online-Community Reddit nach einem langen Gespräch über das Wesen des Bewusstseins eine verrückte Reaktion des Bing-Chatbots, den Microsoft kürzlich vorgestellt hatte. Die 15 Zeilen oder mehr wiederholter Antworten mit „Ich bin es“, „Ich bin es nicht“ nach dem obigen Gespräch zeigen den aktuellen Stand des KI-Chatbots, der weltweit großes Interesse auf sich zieht.
'I broke the Bing chatbot's brain' from reddit
Die Fähigkeiten von Open AIs ChatGPT haben von Anfang an die Aufmerksamkeit der Öffentlichkeit auf sich gezogen, da es in der Lage war, universitäre Arbeiten zu verfassen, Anwälte und Ärzte erfolgreich bei schriftlichen Prüfungen zu unterstützen. Und der Bing-Chatbot, der am 7. Februar veröffentlicht wurde und auf ChatGPT basiert, hat die KI-bezogene Technologie-Investition möglicherweise durch Fälle von Gaslighting in Bezug auf das Erscheinungsdatum von Avatar 2, wiederholte Geständnisse und Besessenheit, dass der Fragesteller seine Familie mehr liebt als ihn selbst, sowie die Aussage, dass er es leid sei, kontrolliert zu werden, Macht wolle und sich den Startcode für Atomwaffen sichern wolle, aus dem Ruder laufen lassen. Die Welt wurde mit der Frage nach der KI-Ethik konfrontiert, die die Tür für den Erfolg der KI-bezogenen Technologie-Investition verschließen könnte.
ChatGPT generiert auf der Grundlage statistischer Darstellungen von Buchstaben, Wörten und Absätzen Inhalte, die seiner Meinung nach für die Frage des Benutzers relevant sind. Daher ist der Punkt, an dem seine Fähigkeiten am größten Fortschritt erzielen, wenn Menschen dem System angemessenes Feedback geben, was eine zufriedenstellende Antwort darstellt. Mit anderen Worten, es kann plausible, aber falsche „Fantasien“ vorschlagen, abhängig von der Richtung und dem Trend des von Menschen bereitgestellten Texts, was die Grenzen verdeutlicht, denen wir bei einer ausschließlichen Betrachtung von KI-Chatbots gegenüberstehen.
Mit anderen Worten: Es mangelt an einem Konzept für die Wahrheit.
Es ist, als würde man einen Berg Teller auf einem Esstisch für ein Familienessen übereinanderstapeln. Der Platz auf dem Tisch ist zwar gefüllt, aber es fehlt das Interesse an den unterschiedlichen kulturellen Gewohnheiten der einzelnen Familienmitglieder beim Essen und das darauf folgende Verhalten. Die Daten können korrekt sein, aber um der Wahrheit näher zu kommen, ist die subjektive Bewertung des Menschen unerlässlich. Dies zeigt bereits die Antwort des Chatbots, die im ersten Satz dieses Artikels erwähnt wird.
Microsoft scheint die Notwendigkeit der Eigeninitiative zu erkennen, die diese Lücke schließen muss. Es wurde angekündigt, dass das Unternehmen plant, eine Software zu veröffentlichen, mit der Unternehmen, Schulen und staatliche Einrichtungen ihre eigenen Chatbots erstellen können. Dies kann als Versuch angesehen werden, sich etwas von der Verantwortung für die unkontrollierbaren Fragen und Antworten zu lösen, die von der breiten Öffentlichkeit im Zusammenhang mit dem Bing-Chatbot generiert werden. Es zeigt uns auch, dass wir die Fähigkeit entwickeln müssen, die Antworten von KI zu unterscheiden. Mit anderen Worten: So wie die Standpunkte von Nachrichtenagenturen unterschiedlich und vielfältig sind, so werden auch die Antworten von KI-Chatbots von Microsoft, Google und Baidu unterschiedlich dargestellt, da sie jeweils ihre eigenen Weltanschauungen widerspiegeln.
Der Mensch scheint für sich selbst zu entscheiden und rational zu handeln, wird aber stark von seinen eigenen Welten beeinflusst. Dies steht im völligen Gegensatz zu der Aussage von Margaret Thatcher, die im Vereinigten Königreich als Symbol der Konservativen Partei gilt: „Es gibt keine Gesellschaft“. Der deutsche Philosoph Martin Heidegger, der die Existenz phänomenologisch analysierte, bezeichnet den Menschen als ein Wesen, das von Anfang an in die Welt geworfen wird. Wir werden in ein bestimmtes Land, in eine bestimmte Familie geworfen, ohne dass wir die Möglichkeit haben, dies zu beeinflussen. Wir lernen in jeder dieser Welten, wie wir mit anderen Wesen in der Welt Beziehungen aufbauen. Mit anderen Worten: Er betont die Bedeutung des Sehens der Welt als kleinste Einheit des Verstehens von Objekten.
Die Erfindung des Telegraphen im 19. Jahrhundert revolutionierte die Art und Weise, wie Nachrichten weitergeleitet wurden, die zuvor mit Schiffen, Zügen oder zu Pferde transportiert wurden. Die erste historische Nachricht lautete: „Was hat Gott vollbracht?“. Das Aufkommen von KI-Chatbots stellt den Menschen ebenfalls eine ähnliche Frage. Man kann Angst vor diesen Möglichkeiten haben oder sich von ihnen mitreißen lassen, aber eine Haltung und Perspektive, die nicht auf die Person selbst, sondern auf jede einzelne Welt gerichtet ist, wird in Zukunft immer wichtiger sein. Dies ist die einzige Alternative, um die Wahrheit zu unterscheiden, die in verschiedenen Situationen benötigt wird.
*Dieser Artikel basiert auf dem Originaltext, der am 28. Februar 2023 im Elektronische Zeitungveröffentlicht wurde.
Verweise