![translation](https://cdn.durumis.com/common/trans.png)
Dies ist ein von KI übersetzter Beitrag.
Das Governance-Drama von OpenAI: Die ethische Zukunft der KI
- Schreibsprache: Koreanisch
- •
-
Referenzland: Alle Länder
- •
- IT
Sprache auswählen
Von durumis AI zusammengefasster Text
- Nach der Entlassung von OpenAI-CEO Sam Altman durch den Vorstand kehrte er wieder als CEO zurück. Dies ist ein Fall, der die besondere Struktur von OpenAI, eine gemeinnützige Organisation mit gewinnorientierten Elementen, und die Betonung der Sicherheit durch den Vorstand zeigt.
- Dieser Vorfall hat das gesellschaftliche Interesse an der Entwicklung und Regulierung von KI verstärkt und verschiedene Standpunkte und Interpretationen über die Zukunft der KI aufgezeigt.
- Er zeigt vor allem, dass die Vorstellungskraft über die Zukunft der KI einen Einfluss auf die Realität haben kann und es notwendig ist, verschiedene gesellschaftliche und kulturelle Kontexte zu berücksichtigen, um die Zukunft der KI zu gestalten.
Vor einigen Monaten, nur wenige Monate nach der Veröffentlichung von ChatGPT, spielte sich im Vorstand von OpenAI, einer gemeinnützigen Organisation, die innerhalb weniger Monate von null auf einen Jahresumsatz von 1 Milliarde Dollar gewachsen war, ein großes Drama ab. Der CEO des Unternehmens, Sam Altman, wurde entlassen und nach der Ankündigung seines Wechsels zu Microsoft wieder zum CEO von OpenAI ernannt. Normalerweise ist der Gründer-CEO die stärkste Kraft in einem Unternehmen, daher ist es sehr selten, dass ein Vorstand einen Gründer-CEO entlässt, besonders bei einem riesigen Unternehmen mit einem Wert von 80 Milliarden Dollar.
Trotzdem konnte sich dieses fünftägige Drama entfalten, weil OpenAI auf einer einzigartigen Struktur basiert, die an das Leitbild "für die Menschheit" gebunden ist. Drei unabhängige Vorstandsmitglieder, die die Entlassung von Altman laut Berichten vorangetrieben haben, sind alle mit dem effektiven Altruismus (EA) und der Mission des Unternehmens verbunden, "die Menschheit und alles beobachtbare Universum zu bewahren".
die Organisationsstruktur von OpenAI
Während Altman in diesem Jahr die Welt bereiste, um Medien und Regierungen vor den existenziellen Risiken der von ihm entwickelten Technologie zu warnen, hat er die ungewöhnliche gemeinnützige Struktur von OpenAI als Warnung vor der rücksichtslosen Entwicklung von mächtiger KI dargestellt. Er sagte im Juni in einem Interview mit Bloomberg, dass der Vorstand ihn jederzeit entlassen könne, wenn er sich riskant oder gegen die Interessen der Menschheit verhalte. Mit anderen Worten, die Struktur war so konzipiert, dass ein Vorstand, der die Sicherheit vor der Entstehung einer unkontrollierbaren AGI über alles andere stellt, jederzeit den CEO entlassen kann.
Wie sollen wir also die aktuelle Situation betrachten, in der der neue CEO von OpenAI der gleiche ist wie der vorherige?
Es ist schwer, dies als eine Episode abzutun, die zu keinen Veränderungen geführt hat, denn wir haben festgestellt, dass Entscheidungen in Bezug auf die ethische Entwicklung von künstlicher Intelligenz, die unseren Gesellschaften den größten Einfluss haben könnte, von einer winzigen Gruppe von Personen getroffen werden. Sam Altman ist heute ein Symbol für die Zeit, in der sich die Aufmerksamkeit der Welt auf die Entwicklung und Regulierung von KI konzentriert. Wir haben gesehen, wie das fast einzige äußere Mittel, das seine Entscheidungen und Urteile hätte verhindern können, faktisch abgeschafft wurde, und wir haben die Bedeutung weiterer externer Mittel bestätigt.
Dieses Ereignis hat auch die Positionen und Interpretationen von Weltuntergangsängstlern, die befürchten, dass KI die Menschheit zerstören wird, Transhumanisten, die glauben, dass die Technologie eine utopische Zukunft beschleunigen wird, diejenigen, die an einen unkontrollierten Marktkapitalismus glauben, und diejenigen, die sich für strenge Regulierungen zur Eindämmung großer Technologieunternehmen einsetzen, die nicht in der Lage sind, ein Gleichgewicht zwischen dem potenziellen Schaden durch disruptive Technologien und dem Wunsch nach Profit zu finden, deutlicher gemacht. Und dies unterstreicht die Notwendigkeit einer vielfältigeren Gemeinschaft, die uns hilft, die Zukunft zu verstehen, denn sie alle entspringen letztlich der Angst vor einer Zukunft mit KI.
Yejin Choi, Professorin an der Universität Washington und unter den 100 einflussreichsten Persönlichkeiten der Welt im Bereich der KI, erklärte in ihrem TED-Vortrag, dass die Gründe dafür, warum eine KI, die verschiedene Staatsexamen besteht, bei der Messung der Wassermenge von 6 Litern mit einem 12- und einem 6-Liter-Wasserkocher dumm und unnötige Schritte unternimmt, darin liegen, dass ihr das Lernen von gesundem Menschenverstand fehlt.
Wenn wir in die Zukunft blicken, identifizieren wir oft Neues aus der Perspektive eines Außenstehenden, indem wir uns an die "Grenzen" orientieren, die die Richtung des Mainstreams aufzeigen. Was von außen als eine stabile Zukunftsvision erscheint, ist immer bis zu einem gewissen Grad eine "lebendige Erfahrung", die aus der Gegenwart abstrahiert wurde. Der amerikanische Anthropologe Arjun Appadurai argumentierte, dass Vorstellungskraft keine private und persönliche Fähigkeit, sondern eine gesellschaftliche Praxis ist. Dies bedeutet, dass verschiedene Zukunftsvisionen Realität werden können, und dieses Ereignis kann als eine der Landschaften interpretiert werden, die durch die Vorstellungskraft einer unsicheren Zukunft mit AGI geschaffen wurden.
Da die Erwartungen der Branchenführer an die Zukunft eine politisch wichtige Bedeutung haben, werden wir in Zukunft ein tieferes Verständnis der Zukunft benötigen, die in verschiedenen sozialen und kulturellen Kontexten kollektiv vorgestellt und konstruiert wird, um die Zukunft der KI zu bestimmen. Es ist an der Zeit, sich zu fragen, wie wir Möglichkeiten schaffen können, kollektive Erwartungen zu fördern, die auf lebhaften Erfahrungen innerhalb vielfältiger Gemeinschaften beruhen.
Referenzen