![translation](https://cdn.durumis.com/common/trans.png)
これはAIが翻訳した投稿です。
言語を選択
durumis AIが要約した文章
- スタンフォード大学の研究チームは、GPT-4 を含む最先端の AI システム 10 個を分析した結果、データセット、学習方法など、AI モデルの透明性に 欠如があることが明らかになりました。
- 特に OpenAI、Google などの主要な AI 企業は、収益中心のビジネスモデルを追求し、データ公開に消極的な姿勢を見せており、これは AI 技術の発展を阻害し、独占的な未来につながる可能性があります。
- 専門家は、AI モデルの透明性を高め、再現性を確保し、社会的責任を強化する必要があると主張しており、AI 技術の発展とともに社会的な合意と 規制に関する議論を呼びかけています。
18日にスタンフォード大学が発表した研究は、GPT-4やその他の最先端AIシステムの秘密がいかに深く、潜在的に危険であるかを明らかにした。
Introducing The Foundation Model Transparency Index, Stanford University
研究チームは、10種類の異なるAIシステムを調査した。ほとんどは、ChatGPTやその他のチャットボットで使用されているような、大規模言語モデルだった。
ここには、OpenAIのGPT-4、GoogleのPaLM 2、AmazonのTitan Textなど、広く使用されている商用モデルが含まれている。研究チームは、13の基準に基づいて透明性を評価した。
基準には、開発者がモデルの学習に使用したデータについてどの程度公開したか(データ収集や注釈付けの方法、著作権のある資料の包含など)が含まれている。
また、モデルのトレーニングと実行に使用されたハードウェア、使用されたソフトウェアフレームワーク、プロジェクトのエネルギー消費量に関する公開についても調査した。
その結果、すべての基準を満たしたAIモデルは存在しなかった。 AmazonのTitan Textが最も透明性が低いと評価され、MetaのLlama 2が最もオープンなモデルに選ばれた。 興味深いことに、最近注目されているオープンモデルとクローズドモデルの対照的な構造の代表例であるLlama 2は、オープンソースモデルであるにもかかわらず、 学習に使用されたデータやデータの収集・キュレーション方法などを公開していなかった。 つまり、AIが社会に及ぼす影響が大きくなるにつれて、業界の関連する不透明性は、全体的に持続的に確認される現象であることを意味する。
これは、AI業界が科学的進歩ではなく利益中心の分野になるリスクがあり、特定の企業が主導する独占的な未来につながる可能性もあることを意味する。
Eric Lee/Bloomberg via Getty Images
すでに、OpenAIのCEOであるサム・アルトマンは、世界中の政策立案者と会い、彼らにこの新しく未知の知能について積極的に説明し、
関連する規制の明確化に協力する意思を公然と表明してきた。
しかし、彼は原則としてAIを監督する国際機関のアイデアを支持している一方で、データセットから著作権のあるすべての資料を禁止するなど、
一部の限定的なルールは不公平な障害になる可能性もあると考えている。
OpenAIという社名に込められた「オープンネス」は、設立当初に提示された急進的な透明性から変化していることは明らかだ。
しかし、このスタンフォード大学のレポートの結果が示すように、競争のためにそれぞれのモデルをこのように秘密にする必要はないことに注目する必要がある。 この結果は、ほとんどすべての企業が不振であることを示す指標でもあるからだ。 例えば、自社のモデルにどれだけのユーザーが依存しているのか、自社のモデルを使用している地域や市場セグメントに関する統計を提供している企業はないという。
オープンソースを原則とする組織の間では、「百人いれば百の目が ある」という諺がある(Linus's law)。 原始的な数値は、問題を解決し、修正できる問題を発見するのに役立つ。
しかし、オープンソースの慣行は、次第に企業内外の社会的ステータスと価値の認識を失わせる傾向があるため、無条件に強調することは大きな意味がない。 そのため、モデルがオープン型かクローズド型かにとらわれるのではなく、強力なAIモデルの基礎となる「データ」への外部アクセスを徐々に広げていくことに議論の焦点を当てる方が良い選択になる可能性がある。
科学的進歩には、特定の研究結果が再現されるかどうかを確認する再現性(Reproducibility)の確保が重要だ。 これにより、各モデル生成の主要な構成要素に対する透明性が確保される。 そうでなければ、業界は閉鎖的で停滞した独占的な状況にとどまる可能性が高い。 そして、これは、急速にAI技術が産業全体に浸透しつつある現在と将来において、非常に重要な優先事項として考慮されるべきである。
ジャーナリストや科学者にとって、データの理解が重要になっている。 政策立案者にとって、透明性は予定された政策的努力の前提条件だ。 大衆にとっても、透明性はAIシステムの最終的なユーザーとして、知的財産権、エネルギーの使用量、偏見に関連する潜在的な問題の加害者または被害者になる可能性があるため重要だ。 サム・アルトマンは、AIによる人類滅亡のリスクは、パンデミックや核戦争などの社会規模のリスクの一つであり、世界的な優先事項になるべきだと主張する。 しかし、彼が言及した危険な状況に至るまで、発展途上のAIとの健全な関係を維持する私たちの社会の存続が前提であることを忘れてはならない。
*この記事は、23年10月23日付の電子新聞の署名付きコラムのオリジナル記事です。
References