Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

これはAIが翻訳した投稿です。

Byungchae Ryan Son

先端的な AI モデルのパラドックス、透明性

言語を選択

  • 日本語
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

durumis AIが要約した文章

  • スタンフォード大学の研究チームは、GPT-4 を含む最先端の AI システム 10 個を分析した結果、データセット、学習方法など、AI モデルの透明性に 欠如があることが明らかになりました。
  • 特に OpenAI、Google などの主要な AI 企業は、収益中心のビジネスモデルを追求し、データ公開に消極的な姿勢を見せており、これは AI 技術の発展を阻害し、独占的な未来につながる可能性があります。
  • 専門家は、AI モデルの透明性を高め、再現性を確保し、社会的責任を強化する必要があると主張しており、AI 技術の発展とともに社会的な合意と 規制に関する議論を呼びかけています。

18日にスタンフォード大学が発表した研究は、GPT-4やその他の最先端AIシステムの秘密がいかに深く、潜在的に危険であるかを明らかにした。

Introducing The Foundation Model Transparency Index, Stanford University


研究チームは、10種類の異なるAIシステムを調査した。ほとんどは、ChatGPTやその他のチャットボットで使用されているような、大規模言語モデルだった。 ここには、OpenAIのGPT-4、GoogleのPaLM 2、AmazonのTitan Textなど、広く使用されている商用モデルが含まれている。研究チームは、13の基準に基づいて透明性を評価した。 基準には、開発者がモデルの学習に使用したデータについてどの程度公開したか(データ収集や注釈付けの方法、著作権のある資料の包含など)が含まれている。 また、モデルのトレーニングと実行に使用されたハードウェア、使用されたソフトウェアフレームワーク、プロジェクトのエネルギー消費量に関する公開についても調査した。


その結果、すべての基準を満たしたAIモデルは存在しなかった。 AmazonのTitan Textが最も透明性が低いと評価され、MetaのLlama 2が最もオープンなモデルに選ばれた。 興味深いことに、最近注目されているオープンモデルとクローズドモデルの対照的な構造の代表例であるLlama 2は、オープンソースモデルであるにもかかわらず、 学習に使用されたデータやデータの収集・キュレーション方法などを公開していなかった。 つまり、AIが社会に及ぼす影響が大きくなるにつれて、業界の関連する不透明性は、全体的に持続的に確認される現象であることを意味する。


これは、AI業界が科学的進歩ではなく利益中心の分野になるリスクがあり、特定の企業が主導する独占的な未来につながる可能性もあることを意味する。

Eric Lee/Bloomberg via Getty Images


すでに、OpenAIのCEOであるサム・アルトマンは、世界中の政策立案者と会い、彼らにこの新しく未知の知能について積極的に説明し、 関連する規制の明確化に協力する意思を公然と表明してきた。 しかし、彼は原則としてAIを監督する国際機関のアイデアを支持している一方で、データセットから著作権のあるすべての資料を禁止するなど、 一部の限定的なルールは不公平な障害になる可能性もあると考えている。 OpenAIという社名に込められた「オープンネス」は、設立当初に提示された急進的な透明性から変化していることは明らかだ。


しかし、このスタンフォード大学のレポートの結果が示すように、競争のためにそれぞれのモデルをこのように秘密にする必要はないことに注目する必要がある。 この結果は、ほとんどすべての企業が不振であることを示す指標でもあるからだ。 例えば、自社のモデルにどれだけのユーザーが依存しているのか、自社のモデルを使用している地域や市場セグメントに関する統計を提供している企業はないという。


オープンソースを原則とする組織の間では、「百人いれば百の目が ある」という諺がある(Linus's law)。 原始的な数値は、問題を解決し、修正できる問題を発見するのに役立つ。


しかし、オープンソースの慣行は、次第に企業内外の社会的ステータスと価値の認識を失わせる傾向があるため、無条件に強調することは大きな意味がない。 そのため、モデルがオープン型かクローズド型かにとらわれるのではなく、強力なAIモデルの基礎となる「データ」への外部アクセスを徐々に広げていくことに議論の焦点を当てる方が良い選択になる可能性がある。


科学的進歩には、特定の研究結果が再現されるかどうかを確認する再現性(Reproducibility)の確保が重要だ。 これにより、各モデル生成の主要な構成要素に対する透明性が確保される。 そうでなければ、業界は閉鎖的で停滞した独占的な状況にとどまる可能性が高い。 そして、これは、急速にAI技術が産業全体に浸透しつつある現在と将来において、非常に重要な優先事項として考慮されるべきである。


ジャーナリストや科学者にとって、データの理解が重要になっている。 政策立案者にとって、透明性は予定された政策的努力の前提条件だ。 大衆にとっても、透明性はAIシステムの最終的なユーザーとして、知的財産権、エネルギーの使用量、偏見に関連する潜在的な問題の加害者または被害者になる可能性があるため重要だ。 サム・アルトマンは、AIによる人類滅亡のリスクは、パンデミックや核戦争などの社会規模のリスクの一つであり、世界的な優先事項になるべきだと主張する。 しかし、彼が言及した危険な状況に至るまで、発展途上のAIとの健全な関係を維持する私たちの社会の存続が前提であることを忘れてはならない。


*この記事は、23年10月23日付の電子新聞の署名付きコラムのオリジナル記事です。


References


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
OpenAIのガバナンスドラマ、AIの倫理的な未来 OpenAIのCEOサム・アルトマンが取締役会によって解雇されたものの、5日後に復帰した事件は、人類のための使命を掲げるOpenAIの特異な 構造と巨大技術の潜在的なリスクに対する懸念を露呈させています。この事件は、AI開発と規制に関する社会的な議論を촉발하며、多様なコミュニティの 参加と集団的な想像力を通じた未来予測の重要性を強調します。

2024年5月14日

アルゴリズム・ブランディングの時代が来る イーロン・マスク、グーグルCEOサンダー・ピチャイ、オープンAIのサム・アルトマンなど、AI専門家は人工知能の危険性を警告し、人類の未来のためのそれぞれの 解決策を提示しています。23年4月24日付の電子新聞コラムで、これらの主張と人工知能がもたらす変化について、深い議論を確認してみましょう。

2024年5月10日

生成AIの2023年、そして人間の意義 2023年は、AIがテクノロジー業界全体を席巻し、生成AIプラットフォームの転換、大衆の慣れ親しみの増加、AI規制法案の合意など、重要な変化をもたらした 年でした。2024年は、AI技術の発展とともに、人間の意義に関する問い、時間と空間の価値、人間とAIの共存の形態など、深く考える 重要な時期となるでしょう。

2024年5月16日

オープンソースで完成するAI Full Stack AIエコシステムに新しいオープンソースLLM(大規模言語モデル)モデルが続々と登場しています。Mistral、Llama、phi-2など強力な 性能とオープンライセンスを持つモデルが公開され、これを活用するための様々なツールも開発されています。LangChain、 LlamaIndex、HaystackなどのLLMフレームワークとOllama、vLLM、KServeなどの推論およびサービングツール、 LiteLLM、One APIなどのLLMプロキシソリューションまでAIオ
RevFactory
RevFactory
RevFactory
RevFactory

2024年2月5日

Mr. Know-All – 2023.7 2023年7月AI月刊マガジン「Mr. Know-All」1号では、Claude 2、Azure OpenAI、LangChain、 LlamaIndexなどの最新AI技術とトレンドを紹介します。特に、個人データを埋め込むLlamaIndexと、LangChainの核心概念である チェイニングについて詳しく解説します。
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024年3月21日

Mr. Know-All 6号 - 2024年3月 LLaMa、Falcon、MPT、StarCoderなどのオープンソースLLMをローカルで実行できるプラットフォームLM Studioと、AI ソフトウェアエンジニアDevin、マルチエージェント自動化プラットフォームcrewAIなど、さまざまなAIツールとサービスを紹介します。また、AI能力 開発のための有用なYouTubeチャンネルとツールを紹介します。
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024年3月21日

Apple の OpenELM / MS の Phi-3 / Meta の Llama 3 公開 Apple、Microsoft、Meta などの主要なビッグテック企業が最近、独自の開発した大規模言語モデルを公開し、AI業界に新たな風を吹き込んでいる。 今回リリースされたモデルは、サイズ縮小、データ最適化、文脈理解力強化など、さまざまな方向に進化している。
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

2024年4月27日

Mr. Know-All 2号 – 2023年8月 企業内部データのLLM学習のためにPDFファイル処理方法を扱います。OpenAI API、LangChain、Streamlitを 活用してベクターストアであるFAISSとChromaDBを連携する過程を説明します。映像と関連したリポジトリとユーチューバーのGitHub情報を提供し、 UI設定、プレビュー機能、LangChainクラス活用など様々な内容を扱っています。
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024年3月21日

LLM (大規模言語モデル) とは? 大規模言語モデル(LLM)は、人工知能の中核技術であり、膨大なテキストデータを学習することで人間と同様の言語処理能力を備え、チャットボット、翻訳、 テキスト生成など、さまざまな分野で活用できます。LLMは、トークン化、トランスフォーマーモデル、プロンプトという重要な要素を基盤として動作し、優れた 能力を持つ一方で、高い計算コスト、バイアス、倫理的な問題などの欠点も持ち合わせています。
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

2024年4月1日