Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Dies ist ein von KI übersetzter Beitrag.

Byungchae Ryan Son

Das Paradoxon der führenden KI-Modelle: Transparenz

  • Schreibsprache: Koreanisch
  • Referenzland: Alle Länder country-flag

Sprache auswählen

  • Deutsch
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Von durumis AI zusammengefasster Text

  • Forscher der Stanford University haben 10 hochmoderne KI-Systeme, darunter GPT-4, analysiert und festgestellt, dass es bei KI-Modellen an Transparenz in Bezug auf Datensätze, Trainingsmethoden usw. mangelt.
  • Insbesondere zeigen wichtige KI-Unternehmen wie OpenAI und Google eine zögerliche Haltung bei der Veröffentlichung von Daten, da sie ein profitorientiertes Geschäftsmodell verfolgen. Dies könnte die Weiterentwicklung der KI-Technologie behindern und zu einer monopolistischen Zukunft führen.
  • Experten fordern, die Transparenz von KI-Modellen zu erhöhen, um Reproduzierbarkeit zu gewährleisten und die soziale Verantwortung zu stärken. Sie fordern, dass parallel zur Weiterentwicklung der KI-Technologie ein gesellschaftlicher Konsens und Regulierungsdiskussionen stattfinden.

Eine am 18. September von Forschern der Stanford University veröffentlichte Studie zeigt, wie tief und potenziell gefährlich die Geheimnisse von GPT-4 und anderen hochmodernen KI-Systemen sind.

Introducing The Foundation Model Transparency Index, Stanford University


Sie untersuchten insgesamt 10 verschiedene KI-Systeme, die größtenteils auf großen Sprachmodellen basierten, wie sie in ChatGPT und anderen Chatbots verwendet werden. Dazu gehören weit verbreitete kommerzielle Modelle wie OpenAIs GPT-4, Googles PaLM 2 und Amazons Titan Text. Die Forscher bewerteten die Offenheit anhand von 13 Kriterien, einschließlich der Transparenz der Entwickler in Bezug auf die Daten, die für das Training der Modelle verwendet wurden (einschließlich der Methoden zur Datenerfassung und -annotierung sowie der Verwendung urheberrechtlich geschützter Materialien). Sie untersuchten auch, ob die Entwickler Informationen über die Hardware, die zum Trainieren und Ausführen der Modelle verwendet wurde, die verwendeten Softwareframeworks und den Energieverbrauch des Projekts öffentlich zugänglich machten.


Die Ergebnisse zeigten, dass kein KI-Modell über alle Kriterien hinweg eine Transparenz von mehr als 54 % erreichte. Insgesamt wurde Amazons Titan Text als das am wenigsten transparente Modell eingestuft, während Metas Llama 2 als das offenste eingestuft wurde. Interessanterweise wurde Llama 2, ein prominenter Vertreter des aktuellen Gegensatzes zwischen Open-Source- und Closed-Source-Modellen, obwohl es ein Open-Source-Modell ist, nicht über die verwendeten Daten, die Methoden zur Datenerfassung und -pflege usw. informiert. Das bedeutet, dass der Mangel an Transparenz in der Branche trotz des wachsenden Einflusses von KI auf unsere Gesellschaft ein weit verbreitetes und anhaltendes Phänomen ist.


Dies bedeutet, dass die KI-Industrie Gefahr läuft, zu einem gewinnorientierten Bereich zu werden, der weniger auf wissenschaftlichen Fortschritt ausgerichtet ist, und dies könnte zu einer von bestimmten Unternehmen dominierten, monopolistischen Zukunft führen.

Eric Lee/Bloomberg via Getty Images


OpenAIs CEO Sam Altman hat sich bereits mit politischen Entscheidungsträgern auf der ganzen Welt getroffen, um ihnen diese unbekannte und neue Form der Intelligenz zu erklären und ihnen bei der Entwicklung spezifischer Vorschriften zu helfen. Prinzipiell unterstützt er die Idee eines internationalen Gremiums zur Aufsicht über KI, hält jedoch einige eingeschränkte Regeln, wie z. B. das Verbot aller urheberrechtlich geschützten Materialien aus Datensätzen, für ungerechte Hindernisse. Dies zeigt deutlich, dass sich die „Offenheit“, die im Namen des Unternehmens OpenAI steckt, von der radikalen Transparenz, die es ursprünglich anstrebte, entfernt hat.


Doch die Ergebnisse des aktuellen Stanford-Berichts lassen erkennen, dass es für den Wettbewerb nicht unbedingt erforderlich ist, die eigenen Modelle so geheim zu halten. Denn die Ergebnisse sind auch ein Indikator dafür, dass fast alle Unternehmen schlecht abschneiden. So gibt es beispielsweise keine Unternehmen, die Statistiken darüber liefern, wie viele Benutzer sich auf ihre Modelle verlassen oder in welchen Regionen oder Marktsegmenten ihre Modelle eingesetzt werden.


In Open-Source-Organisationen gilt das Sprichwort „Viele Augen sehen mehr als ein Paar“ (Linus's Law). Die rohen Zahlen helfen, Probleme zu lösen und Probleme zu erkennen, die behoben werden können.


Aber die Praxis von Open Source führt auch dazu, dass die soziale Stellung und Wertschätzung von Unternehmen, die öffentlich agieren, sowohl intern als auch extern abnimmt. Daher ist eine uneingeschränkte Betonung nicht sinnvoll. Daher sollte man sich nicht auf den Rahmen konzentrieren, ob ein Modell offen oder geschlossen ist, sondern eher darauf, den externen Zugang zu den „Daten“ zu erweitern, die die Grundlage für leistungsstarke KI-Modelle bilden. Das wäre eine bessere Option.


Für den wissenschaftlichen Fortschritt ist die Sicherstellung der Reproduzierbarkeitvon bestimmten Forschungsergebnissen entscheidend. Ohne die konkrete Ausarbeitung von Maßnahmen, die für mehr Transparenz in Bezug auf die wichtigsten Bestandteile der Modellgenerierung sorgen, könnte die Industrie letztendlich in einer geschlossenen und stagnierenden Monopolsituation feststecken. Angesichts der rasanten Verbreitung von KI-Technologien in allen Bereichen der Industrie sollte dies in der heutigen Zeit und in Zukunft eine der wichtigsten Prioritäten sein.


Journalisten und Wissenschaftler müssen Daten verstehen können, und für politische Entscheidungsträger ist Transparenz eine Voraussetzung für geplante politische Maßnahmen. Auch für die breite Öffentlichkeit ist Transparenz wichtig, da sie als Endanwender von KI-Systemen sowohl Täter als auch Opfer von Problemen im Zusammenhang mit geistigem Eigentum, Energieverbrauch und Vorurteilen sein können. Sam Altman argumentiert, dass das Risiko einer durch KI verursachten Auslöschung der Menschheit zu einem gesellschaftlichen Risiko von globaler Bedeutung wie Pandemien oder Atomkrieg werden muss. Doch bevor wir dieses gefährliche Szenario erreichen, sollten wir nicht vergessen, dass das Überleben unserer Gesellschaft davon abhängt, dass wir eine gesunde Beziehung zu der sich entwickelnden KI aufbauen.


*Dieser Artikel ist die Originalversion eines Meinungsbeitrags, der am 23. Oktober 2023 in der Zeitung "Electronic Times" veröffentlicht wurde.


Referenzen


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Das Governance-Drama von OpenAI: Die ethische Zukunft der KI Die Entlassung von OpenAI-CEO Sam Altman durch den Vorstand, gefolgt von seiner Rückkehr nach fünf Tagen, legt die einzigartige Struktur von OpenAI, das sich als eine Mission für die Menschheit versteht, und die Sorgen über die potenziellen Risiken großer

14. Mai 2024

Die Bedeutung des Menschen im Jahr 2023 und danach im Zeitalter der generativen KI 2023 war ein Jahr, in dem KI die gesamte Technologiebranche erfasst hat und wichtige Veränderungen mit sich gebracht hat, darunter die Umstellung auf generative KI-Plattformen, die zunehmende Vertrautheit der Öffentlichkeit und die Vereinbarung von KI-Reg

16. Mai 2024

Das Zeitalter des Algorithmus-Brandings kommt Elon Musk, Googles CEO Sundar Pichai und Sam Altman von OpenAI warnen vor den Gefahren der künstlichen Intelligenz und präsentieren verschiedene Lösungen für die Zukunft der Menschheit. In einem Leitartikel der Elektronischen Zeitung vom 24. April 2023 we

10. Mai 2024

AI Full Stack mit Open Source realisieren Im Ökosystem der künstlichen Intelligenz tauchen immer mehr Open-Source-LLM-Modelle (Large Language Models) auf. Modelle wie Mistral, Llama und phi-2 mit leistungsstarker Performance und einer Open-Source-Lizenz wurden veröffentlicht und es werden ständig
RevFactory
RevFactory
RevFactory
RevFactory

5. Februar 2024

Mr. Know-All – 2023.7 Die erste Ausgabe des monatlichen AI-Magazins „Mr. Know-All“ im Juli 2023 stellt Claude 2, Azure OpenAI, LangChain, LlamaIndex und andere aktuelle AI-Technologien und Trends vor. Besonders wird die Einbettung persönlicher Daten in LlamaIndex und das Kernk
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21. März 2024

Veröffentlichung von Apples OpenELM / MS Phi-3 / Metas Llama 3 Apple, Microsoft und Meta, wichtige Big-Tech-Unternehmen, haben kürzlich ihre selbst entwickelten großen Sprachmodelle veröffentlicht und damit einen neuen Wind in die KI-Branche gebracht. Die neu veröffentlichten Modelle haben sich in verschiedenen Richt
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27. April 2024

Mr. Know-All 2 – August 2023 Dieser Beitrag befasst sich mit der Verarbeitung von PDF-Dateien für das maschinelle Lernen von LLMs mit internen Unternehmensdaten. Er erläutert die Verwendung der OpenAI API, LangChain und Streamlit, um Vektor-Stores wie FAISS und ChromaDB zu verbinden.
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21. März 2024

Snowflake bringt mit 'Arctic' ein branchenführendes, offenes Enterprise-LLM auf den Markt Snowflake hat das Open-Source-Large Language Model 'Arctic' veröffentlicht. Es steht unter der Apache 2.0-Lizenz zur kostenlosen kommerziellen Nutzung zur Verfügung und bietet branchenführende Leistung und Effizienz. Es zeichnet sich durch hervorragende T
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25. April 2024

Was ist ein LLM (Large Language Model)? Große Sprachmodelle (LLMs) sind ein zentrales Element der künstlichen Intelligenz. Sie werden mit riesigen Textdaten trainiert und entwickeln so Sprachverarbeitungsfähigkeiten, die denen des Menschen ähneln. LLMs können in verschiedenen Bereichen eingeset
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1. April 2024