Dies ist ein von KI übersetzter Beitrag.
Das Paradoxon der führenden KI-Modelle: Transparenz
- Schreibsprache: Koreanisch
- •
- Referenzland: Alle Länder
- •
- IT
Sprache auswählen
Von durumis AI zusammengefasster Text
- Forscher der Stanford University haben 10 hochmoderne KI-Systeme, darunter GPT-4, analysiert und festgestellt, dass es bei KI-Modellen an Transparenz in Bezug auf Datensätze, Trainingsmethoden usw. mangelt.
- Insbesondere zeigen wichtige KI-Unternehmen wie OpenAI und Google eine zögerliche Haltung bei der Veröffentlichung von Daten, da sie ein profitorientiertes Geschäftsmodell verfolgen. Dies könnte die Weiterentwicklung der KI-Technologie behindern und zu einer monopolistischen Zukunft führen.
- Experten fordern, die Transparenz von KI-Modellen zu erhöhen, um Reproduzierbarkeit zu gewährleisten und die soziale Verantwortung zu stärken. Sie fordern, dass parallel zur Weiterentwicklung der KI-Technologie ein gesellschaftlicher Konsens und Regulierungsdiskussionen stattfinden.
Eine am 18. September von Forschern der Stanford University veröffentlichte Studie zeigt, wie tief und potenziell gefährlich die Geheimnisse von GPT-4 und anderen hochmodernen KI-Systemen sind.
Introducing The Foundation Model Transparency Index, Stanford University
Sie untersuchten insgesamt 10 verschiedene KI-Systeme, die größtenteils auf großen Sprachmodellen basierten, wie sie in ChatGPT und anderen Chatbots verwendet werden. Dazu gehören weit verbreitete kommerzielle Modelle wie OpenAIs GPT-4, Googles PaLM 2 und Amazons Titan Text. Die Forscher bewerteten die Offenheit anhand von 13 Kriterien, einschließlich der Transparenz der Entwickler in Bezug auf die Daten, die für das Training der Modelle verwendet wurden (einschließlich der Methoden zur Datenerfassung und -annotierung sowie der Verwendung urheberrechtlich geschützter Materialien). Sie untersuchten auch, ob die Entwickler Informationen über die Hardware, die zum Trainieren und Ausführen der Modelle verwendet wurde, die verwendeten Softwareframeworks und den Energieverbrauch des Projekts öffentlich zugänglich machten.
Die Ergebnisse zeigten, dass kein KI-Modell über alle Kriterien hinweg eine Transparenz von mehr als 54 % erreichte. Insgesamt wurde Amazons Titan Text als das am wenigsten transparente Modell eingestuft, während Metas Llama 2 als das offenste eingestuft wurde. Interessanterweise wurde Llama 2, ein prominenter Vertreter des aktuellen Gegensatzes zwischen Open-Source- und Closed-Source-Modellen, obwohl es ein Open-Source-Modell ist, nicht über die verwendeten Daten, die Methoden zur Datenerfassung und -pflege usw. informiert. Das bedeutet, dass der Mangel an Transparenz in der Branche trotz des wachsenden Einflusses von KI auf unsere Gesellschaft ein weit verbreitetes und anhaltendes Phänomen ist.
Dies bedeutet, dass die KI-Industrie Gefahr läuft, zu einem gewinnorientierten Bereich zu werden, der weniger auf wissenschaftlichen Fortschritt ausgerichtet ist, und dies könnte zu einer von bestimmten Unternehmen dominierten, monopolistischen Zukunft führen.
Eric Lee/Bloomberg via Getty Images
OpenAIs CEO Sam Altman hat sich bereits mit politischen Entscheidungsträgern auf der ganzen Welt getroffen, um ihnen diese unbekannte und neue Form der Intelligenz zu erklären und ihnen bei der Entwicklung spezifischer Vorschriften zu helfen. Prinzipiell unterstützt er die Idee eines internationalen Gremiums zur Aufsicht über KI, hält jedoch einige eingeschränkte Regeln, wie z. B. das Verbot aller urheberrechtlich geschützten Materialien aus Datensätzen, für ungerechte Hindernisse. Dies zeigt deutlich, dass sich die „Offenheit“, die im Namen des Unternehmens OpenAI steckt, von der radikalen Transparenz, die es ursprünglich anstrebte, entfernt hat.
Doch die Ergebnisse des aktuellen Stanford-Berichts lassen erkennen, dass es für den Wettbewerb nicht unbedingt erforderlich ist, die eigenen Modelle so geheim zu halten. Denn die Ergebnisse sind auch ein Indikator dafür, dass fast alle Unternehmen schlecht abschneiden. So gibt es beispielsweise keine Unternehmen, die Statistiken darüber liefern, wie viele Benutzer sich auf ihre Modelle verlassen oder in welchen Regionen oder Marktsegmenten ihre Modelle eingesetzt werden.
In Open-Source-Organisationen gilt das Sprichwort „Viele Augen sehen mehr als ein Paar“ (Linus's Law). Die rohen Zahlen helfen, Probleme zu lösen und Probleme zu erkennen, die behoben werden können.
Aber die Praxis von Open Source führt auch dazu, dass die soziale Stellung und Wertschätzung von Unternehmen, die öffentlich agieren, sowohl intern als auch extern abnimmt. Daher ist eine uneingeschränkte Betonung nicht sinnvoll. Daher sollte man sich nicht auf den Rahmen konzentrieren, ob ein Modell offen oder geschlossen ist, sondern eher darauf, den externen Zugang zu den „Daten“ zu erweitern, die die Grundlage für leistungsstarke KI-Modelle bilden. Das wäre eine bessere Option.
Für den wissenschaftlichen Fortschritt ist die Sicherstellung der Reproduzierbarkeitvon bestimmten Forschungsergebnissen entscheidend. Ohne die konkrete Ausarbeitung von Maßnahmen, die für mehr Transparenz in Bezug auf die wichtigsten Bestandteile der Modellgenerierung sorgen, könnte die Industrie letztendlich in einer geschlossenen und stagnierenden Monopolsituation feststecken. Angesichts der rasanten Verbreitung von KI-Technologien in allen Bereichen der Industrie sollte dies in der heutigen Zeit und in Zukunft eine der wichtigsten Prioritäten sein.
Journalisten und Wissenschaftler müssen Daten verstehen können, und für politische Entscheidungsträger ist Transparenz eine Voraussetzung für geplante politische Maßnahmen. Auch für die breite Öffentlichkeit ist Transparenz wichtig, da sie als Endanwender von KI-Systemen sowohl Täter als auch Opfer von Problemen im Zusammenhang mit geistigem Eigentum, Energieverbrauch und Vorurteilen sein können. Sam Altman argumentiert, dass das Risiko einer durch KI verursachten Auslöschung der Menschheit zu einem gesellschaftlichen Risiko von globaler Bedeutung wie Pandemien oder Atomkrieg werden muss. Doch bevor wir dieses gefährliche Szenario erreichen, sollten wir nicht vergessen, dass das Überleben unserer Gesellschaft davon abhängt, dass wir eine gesunde Beziehung zu der sich entwickelnden KI aufbauen.
*Dieser Artikel ist die Originalversion eines Meinungsbeitrags, der am 23. Oktober 2023 in der Zeitung "Electronic Times" veröffentlicht wurde.
Referenzen