Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Dies ist ein von KI übersetzter Beitrag.

Byungchae Ryan Son

Das Governance-Drama von OpenAI: Die ethische Zukunft der KI

  • Schreibsprache: Koreanisch
  • Referenzland: Alle Länder country-flag

Sprache auswählen

  • Deutsch
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Von durumis AI zusammengefasster Text

  • Nach der Entlassung von OpenAI-CEO Sam Altman durch den Vorstand kehrte er wieder als CEO zurück. Dies ist ein Fall, der die besondere Struktur von OpenAI, eine gemeinnützige Organisation mit gewinnorientierten Elementen, und die Betonung der Sicherheit durch den Vorstand zeigt.
  • Dieser Vorfall hat das gesellschaftliche Interesse an der Entwicklung und Regulierung von KI verstärkt und verschiedene Standpunkte und Interpretationen über die Zukunft der KI aufgezeigt.
  • Er zeigt vor allem, dass die Vorstellungskraft über die Zukunft der KI einen Einfluss auf die Realität haben kann und es notwendig ist, verschiedene gesellschaftliche und kulturelle Kontexte zu berücksichtigen, um die Zukunft der KI zu gestalten.

Vor einigen Monaten, nur wenige Monate nach der Veröffentlichung von ChatGPT, spielte sich im Vorstand von OpenAI, einer gemeinnützigen Organisation, die innerhalb weniger Monate von null auf einen Jahresumsatz von 1 Milliarde Dollar gewachsen war, ein großes Drama ab. Der CEO des Unternehmens, Sam Altman, wurde entlassen und nach der Ankündigung seines Wechsels zu Microsoft wieder zum CEO von OpenAI ernannt. Normalerweise ist der Gründer-CEO die stärkste Kraft in einem Unternehmen, daher ist es sehr selten, dass ein Vorstand einen Gründer-CEO entlässt, besonders bei einem riesigen Unternehmen mit einem Wert von 80 Milliarden Dollar.


Trotzdem konnte sich dieses fünftägige Drama entfalten, weil OpenAI auf einer einzigartigen Struktur basiert, die an das Leitbild "für die Menschheit" gebunden ist. Drei unabhängige Vorstandsmitglieder, die die Entlassung von Altman laut Berichten vorangetrieben haben, sind alle mit dem effektiven Altruismus (EA) und der Mission des Unternehmens verbunden, "die Menschheit und alles beobachtbare Universum zu bewahren".

die Organisationsstruktur von OpenAI


Während Altman in diesem Jahr die Welt bereiste, um Medien und Regierungen vor den existenziellen Risiken der von ihm entwickelten Technologie zu warnen, hat er die ungewöhnliche gemeinnützige Struktur von OpenAI als Warnung vor der rücksichtslosen Entwicklung von mächtiger KI dargestellt. Er sagte im Juni in einem Interview mit Bloomberg, dass der Vorstand ihn jederzeit entlassen könne, wenn er sich riskant oder gegen die Interessen der Menschheit verhalte. Mit anderen Worten, die Struktur war so konzipiert, dass ein Vorstand, der die Sicherheit vor der Entstehung einer unkontrollierbaren AGI über alles andere stellt, jederzeit den CEO entlassen kann.


Wie sollen wir also die aktuelle Situation betrachten, in der der neue CEO von OpenAI der gleiche ist wie der vorherige?


Es ist schwer, dies als eine Episode abzutun, die zu keinen Veränderungen geführt hat, denn wir haben festgestellt, dass Entscheidungen in Bezug auf die ethische Entwicklung von künstlicher Intelligenz, die unseren Gesellschaften den größten Einfluss haben könnte, von einer winzigen Gruppe von Personen getroffen werden. Sam Altman ist heute ein Symbol für die Zeit, in der sich die Aufmerksamkeit der Welt auf die Entwicklung und Regulierung von KI konzentriert. Wir haben gesehen, wie das fast einzige äußere Mittel, das seine Entscheidungen und Urteile hätte verhindern können, faktisch abgeschafft wurde, und wir haben die Bedeutung weiterer externer Mittel bestätigt.


Dieses Ereignis hat auch die Positionen und Interpretationen von Weltuntergangsängstlern, die befürchten, dass KI die Menschheit zerstören wird, Transhumanisten, die glauben, dass die Technologie eine utopische Zukunft beschleunigen wird, diejenigen, die an einen unkontrollierten Marktkapitalismus glauben, und diejenigen, die sich für strenge Regulierungen zur Eindämmung großer Technologieunternehmen einsetzen, die nicht in der Lage sind, ein Gleichgewicht zwischen dem potenziellen Schaden durch disruptive Technologien und dem Wunsch nach Profit zu finden, deutlicher gemacht. Und dies unterstreicht die Notwendigkeit einer vielfältigeren Gemeinschaft, die uns hilft, die Zukunft zu verstehen, denn sie alle entspringen letztlich der Angst vor einer Zukunft mit KI.


Yejin Choi, Professorin an der Universität Washington und unter den 100 einflussreichsten Persönlichkeiten der Welt im Bereich der KI, erklärte in ihrem TED-Vortrag, dass die Gründe dafür, warum eine KI, die verschiedene Staatsexamen besteht, bei der Messung der Wassermenge von 6 Litern mit einem 12- und einem 6-Liter-Wasserkocher dumm und unnötige Schritte unternimmt, darin liegen, dass ihr das Lernen von gesundem Menschenverstand fehlt.


Wenn wir in die Zukunft blicken, identifizieren wir oft Neues aus der Perspektive eines Außenstehenden, indem wir uns an die "Grenzen" orientieren, die die Richtung des Mainstreams aufzeigen. Was von außen als eine stabile Zukunftsvision erscheint, ist immer bis zu einem gewissen Grad eine "lebendige Erfahrung", die aus der Gegenwart abstrahiert wurde. Der amerikanische Anthropologe Arjun Appadurai argumentierte, dass Vorstellungskraft keine private und persönliche Fähigkeit, sondern eine gesellschaftliche Praxis ist. Dies bedeutet, dass verschiedene Zukunftsvisionen Realität werden können, und dieses Ereignis kann als eine der Landschaften interpretiert werden, die durch die Vorstellungskraft einer unsicheren Zukunft mit AGI geschaffen wurden.


Da die Erwartungen der Branchenführer an die Zukunft eine politisch wichtige Bedeutung haben, werden wir in Zukunft ein tieferes Verständnis der Zukunft benötigen, die in verschiedenen sozialen und kulturellen Kontexten kollektiv vorgestellt und konstruiert wird, um die Zukunft der KI zu bestimmen. Es ist an der Zeit, sich zu fragen, wie wir Möglichkeiten schaffen können, kollektive Erwartungen zu fördern, die auf lebhaften Erfahrungen innerhalb vielfältiger Gemeinschaften beruhen.



Referenzen


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Das Zeitalter des Algorithmus-Brandings kommt Elon Musk, Googles CEO Sundar Pichai und Sam Altman von OpenAI warnen vor den Gefahren der künstlichen Intelligenz und präsentieren verschiedene Lösungen für die Zukunft der Menschheit. In einem Leitartikel der Elektronischen Zeitung vom 24. April 2023 we

10. Mai 2024

Das Paradoxon der führenden KI-Modelle: Transparenz Der Mangel an Transparenz bei hochmodernen KI-Systemen ist zu einem ernsten Problem geworden. Forscher der Stanford University haben 10 KI-Systeme, darunter GPT-4, analysiert und festgestellt, dass kein Modell Informationen wie Datenherkunft, Trainingsmet

14. Mai 2024

Wird KI den Job von Neueinsteigern übernehmen? Microsoft hat den Gründer von Inflection AI eingestellt, was den Wettbewerb auf dem KI-Markt weiter verschärft. Neben der Befürchtung, dass KI Arbeitsplätze ersetzen könnte, erhalten neue Mitarbeiter die Möglichkeit, KI zu nutzen, um schnell zu wachsen, u

20. Mai 2024

Künstliche Intelligenz, die den Menschen übertrifft: Segen oder Fluch der Zukunft? Die Entwicklung der Künstlichen Intelligenz (KI) ist Gegenstand hitziger Debatten darüber, ob sie der Menschheit zum Segen oder zum Fluch werden wird. KI kann in verschiedenen Bereichen wie Medizin, Wissenschaft und Wirtschaft Innovationen vorantreiben, b
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

25. Mai 2024

Meine persönliche Sicht auf die nahe Zukunft KI wird die Zukunft der Entwickler stark verändern. Während KI einfache Aufgaben wie Prototyping und Frontend-Entwicklung übernimmt, werden qualifizierte Entwickler sich auf strategische Problemlösungen und kreative Ideen konzentrieren. Andererseits gibt
Mark Ball Blog
Mark Ball Blog
Ein Bild, das meine persönliche Sicht auf die Zukunft darstellt
Mark Ball Blog
Mark Ball Blog

26. März 2024

Mr. Know-All – 2023.7 Die erste Ausgabe des monatlichen AI-Magazins „Mr. Know-All“ im Juli 2023 stellt Claude 2, Azure OpenAI, LangChain, LlamaIndex und andere aktuelle AI-Technologien und Trends vor. Besonders wird die Einbettung persönlicher Daten in LlamaIndex und das Kernk
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21. März 2024

AI Full Stack mit Open Source realisieren Im Ökosystem der künstlichen Intelligenz tauchen immer mehr Open-Source-LLM-Modelle (Large Language Models) auf. Modelle wie Mistral, Llama und phi-2 mit leistungsstarker Performance und einer Open-Source-Lizenz wurden veröffentlicht und es werden ständig
RevFactory
RevFactory
RevFactory
RevFactory

5. Februar 2024

Splunk veröffentlicht Sicherheitsstatusbericht 2024 Laut dem Splunk Security Status Report 2024 nutzen 93 % der Unternehmen generative KI, aber 34 % haben noch keine Richtlinien dafür aufgestellt. Generative KI bietet sowohl für Cyber-Sicherheitsverantwortliche als auch für Angreifer neue Möglichkeiten, un
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

13. Mai 2024

Mr. Know-All 6 - März 2024 Wir stellen Ihnen LM Studio, eine Plattform zum Ausführen von Open-Source-LLMs wie LLaMa, Falcon, MPT und StarCoder lokal vor, sowie verschiedene KI-Tools und -Dienste wie den KI-Softwareentwickler Devin und die Multi-Agenten-Automatisierungsplattform cre
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21. März 2024