Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

これはAIが翻訳した投稿です。

Byungchae Ryan Son

OpenAIのガバナンスドラマ、AIの倫理的な未来

言語を選択

  • 日本語
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

durumis AIが要約した文章

  • OpenAI CEOサム・アルトマンが取締役会によって解雇され、その後再びCEOに復帰するという事件が発生し、これはOpenAIの特異な非営利内 営利構造と安全に対する取締役会の強調を示す事件です。
  • この事件は、AI開発と規制に対する社会的な関心を増幅させ、AIの未来に対するさまざまな立場と解釈を明らかにしました。
  • 特に、AIの未来に対する想像力が現実にも影響を与える可能性を示しており、AIの未来を決定する際には、さまざまな社会的、文化的文脈を 考慮する必要があるという主張が提起されています。

先日、ChatGPTのリリースから数か月で、ゼロから年間10億ドルの売上を達成した非営利団体であるOpenAIの取締役会で、大きなドラマが展開された。 同社のCEOであるサム・アルトマンが解雇され、マイクロソフトへの転職発表後、再びOpenAIのCEOに復帰することが決まった。 一般的に創業CEOは会社の最も強力な存在であるため、取締役会が創業CEOを解雇することはほとんどない。 特に企業価値が800億ドルに達するような巨大企業であれば、手を出すことなど考えられない。


それでも、このような5日間の緊迫したドラマが展開できたのは、OpenAIが「人類のために」という使命宣言文に縛られている独自の構造に基づいている。 「人類と観測可能な宇宙がすべて消滅しないように」という目標に沿って、アルトマンの解雇決定を主導したとされる3人の独立した取締役会メンバーは、いずれも会社の使命と関連する効果的な利他主義(EA、effective altruism)と関係している。

OpenAIの取締役会構造


今年、世界中を回り、メディアや政府に対して自分が開発中の技術の現実的な危険性について警告してきたアルトマンは、 OpenAIの特異な非営利組織内での営利構造を、強力なAIの無責任な開発に対する警鐘だと表現してきた。 また、彼が危険な行動をとったり、人類の利益に反する行動をとったりした場合、取締役会は彼を追い出すことができる構造だと、6月のブルームバーグとのインタビューで語っていた。 言い換えれば、お金よりも、制御不能なAGI出現に関連する安全性を優先する取締役会が、いつでもCEOを解雇できるように、意図的に設計された構造だった。


では、このOpen AIの新しいCEOが以前のCEOと同じであるという現状を、私たちはどのように見ればいいのだろうか?


結果的に変化がなかったというハプニングで終わらせるのは難しい。 なぜなら、現代社会に最も大きな影響を与える可能性のある倫理的な人工知能開発に関する決定が、ごく少数の意見だけでなされたことが明らかになったからだ。 サム・アルトマンは、今やAI開発と規制に対する世界中の視線が集中する時代の象徴である。 そして、彼の判断と決定を阻むことができた、ほぼ唯一の外部手段が事実上廃止された過程を、私たちは見てきた。 それ以降、さらなる外部手段の重要性を確認した。


また、今回の騒動により、AIが人類を滅ぼすのではないかと懸念する破滅論者、技術がユートピア的な未来を加速させるだろうと考えているトランスヒューマニスト、自由奔放な市場資本主義を信じる人々、 強力な破壊的な技術の潜在的な被害と、お金儲けへの欲求の間のバランスが取れないと考えている、巨大技術企業の抑制のための厳格な規制を支持する人々の立場と解釈がより明確になった。 そして、これはすべて、AIと共存する人類の未来に対する恐怖から始まっているという点で、この未来を予測する主体を確認できる、より多様なコミュニティの必要性を確認していることに注目する必要がある。


世界AI分野で最も影響力のある100人に選ばれたワシントン大学崔叡珍教授は、彼女のTED講演で、さまざまな国家試験に合格する人工知能が、 12リットル、6リットルのやかんを使って6リットルの水の量を測定する際に、ばかげて不必要なプロセスを追加する理由が、 人間が社会で習得する常識の学習不足によるものだと説明した。


未来を予測する際、私たちはしばしば、主流がどこへ向かっているのかを示す「限界」を基準に、外部者の立場から新しいものを識別する。 この時、外部から安定した未来のビジョンに見えるものは、常に何らかの形で現在を基準とした「生きた経験」から抽象化された期待である。 アメリカの文化人類学者、アルジュン・アパドゥライは、想像力を私的で個人的な能力ではなく、社会的実践であると主張した。 これは、さまざまな未来に対する想像力が現実になる可能性があることを意味する。 今回の騒動は、AGI出現に関連する不安定な未来に対する想像力が作り出した風景の一つだと解釈できる。


未来に対する業界リーダーの期待が、政治的に重要な意味を持つことを確認したように、今後はAIの未来を決定する際に、 さまざまな社会的、文化的文脈における集団的な想像力と構成によって形成される未来に対するより深い理解が必要となる。 より多様なコミュニティにおける生きた経験に基づいた集団的な期待を積極的に提示できる機会の創造は、どのように可能なのかという疑問を投げかける時だ。



参考文献


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
先端的な AI モデルのパラドックス、透明性 最先端の AI システムの透明性の欠如が深刻な問題として浮上しています。スタンフォード大学の研究チームは、GPT-4 を含む 10 個の AI システムを分析した結果、 データソース、学習方法、エネルギー消費量などの情報を透明に公開するモデルがないという結論に至りました。AI業界の透明性の欠如は、 独占的な未来につながるリスクがあり、これは AI の発展と社会の持続可能な共存のために解決すべき課題です。

2024年5月14日

アルゴリズム・ブランディングの時代が来る イーロン・マスク、グーグルCEOサンダー・ピチャイ、オープンAIのサム・アルトマンなど、AI専門家は人工知能の危険性を警告し、人類の未来のためのそれぞれの 解決策を提示しています。23年4月24日付の電子新聞コラムで、これらの主張と人工知能がもたらす変化について、深い議論を確認してみましょう。

2024年5月10日

AIが新卒の仕事をすべて奪うのでしょうか? マイクロソフトがインフレクションAIの創業者を迎え入れ、AI市場の競争がさらに激化しています。AIが仕事を奪うという懸念と共に、 新卒社員はAIを活用して急速な成長を促進し、経験豊富な社員はコア業務に集中できる機会を得ることができます。 AI時代に合わせた 変化と革新を通じて、未来の職場環境に備えることが重要です。

2024年5月20日

人間を超える人工知能、未来の祝福か災厄か? 人工知能(AI)の発展は、人類にとって祝福となるのか、それとも災厄となるのか、議論が白熱しています。AIは、医学、科学、経済など、さまざまな分野でイノベーションをもたらす 可能性がありますが、人間の制御を離れて、危険をもたらす可能性も秘めています。AIの倫理的課題と安全性の研究を通じて、人類はAIを賢く活用し、 制御力を維持する必要があります。
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

2024年5月25日

個人的な短い未来についての考え 開発者の未来には、AIが大きな変化をもたらすでしょう。プロトタイプの作成、フロントエンド開発など、単純な作業はAIが代行しますが、 実力のある開発者は、戦略的な問題解決と創造的なアイデアの創出に注力していくでしょう。一方、セキュリティハッキング、破壊的なウイルスの開発など、 AIの悪用可能性も懸念されています。グローバル化と高齢化などの社会変化も、未来を左右するものと考えられます。
Mark Ball Blog
Mark Ball Blog
個人的な未来についてのイメージ
Mark Ball Blog
Mark Ball Blog

2024年3月26日

Mr. Know-All – 2023.7 2023年7月AI月刊マガジン「Mr. Know-All」1号では、Claude 2、Azure OpenAI、LangChain、 LlamaIndexなどの最新AI技術とトレンドを紹介します。特に、個人データを埋め込むLlamaIndexと、LangChainの核心概念である チェイニングについて詳しく解説します。
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024年3月21日

ネットアップ、2024年クラウド複雑性レポートを発表…世界中で展開されるAI革新か死か時代の展望 ネットアップのクラウド複雑性レポートは、AIリーダーと後発走者の間の格差を分析し、統合されたデータインフラストラクチャがAIの成功に不可欠であることを強調しています。 レポートは、AIリーダーの成功事例を通じてデータ統合の重要性を強調し、AI後発走者に迅速なイノベーションのための統合されたデータインフラストラクチャの構築を 促しています。
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

2024年4月25日

韓国デロイトグループ「グローバルCEOサーベイ」レポート発行 グローバル企業の10社中6社が業務の自動化に生成型AIを導入しており、CEOは今年の企業成長に楽観的であり、46%が1年以内に新しい サービスおよび製品の発売を計画しています。デロイトグローバルCEOサーベイでは、このような結果が発表され、生成型AIの導入と並んで、地政学的な 不安定やグローバル規制などの外部脅威に対する綿密な対応策の必要性が強調されました。
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

2024年5月9日

Mr. Know-All 6号 - 2024年3月 LLaMa、Falcon、MPT、StarCoderなどのオープンソースLLMをローカルで実行できるプラットフォームLM Studioと、AI ソフトウェアエンジニアDevin、マルチエージェント自動化プラットフォームcrewAIなど、さまざまなAIツールとサービスを紹介します。また、AI能力 開発のための有用なYouTubeチャンネルとツールを紹介します。
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024年3月21日