Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

これはAIが翻訳した投稿です。

Byungchae Ryan Son

アルゴリズム・ブランディングの時代が来る

言語を選択

  • 日本語
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

durumis AIが要約した文章

  • イーロン・マスクは真実を求めるAIであるTruthGPTの開発を発表し、人工知能の危険性を警告し、グーグルCEOサンダー・ピチャイはAIの 急速な発展に対する社会的準備を促しました。
  • オープンAIのサム・アルトマンは、超知能AIの出現をできるだけ早く実現することが人類にとって有利であると主張するなど、AI専門家は人工知能との共存について さまざまな意見を提示しています。
  • 人工知能の発展速度が加速するにつれて、人間の役割と価値の再定義が必要となり、人間に優しいAI開発と社会的適応が重要になりました。

"人類は、すべてのチンパンジーを狩って殺すことを決めることができることを私たちは知っています。"


イーロン・マスクは、4月14日にFox Newsとのインタビューで、真実を追求するAIであるTruthGPTの開発計画に触れ、 今後のAIの人間に対する態度について懸念を表明しました。 彼は、チンパンジーの事例を通して、以前のどんな説明よりも直感的に大衆に伝達しました。 この表現は、2016年に彼が設立した脳神経科学スタートアップNeuralinkが、 持続的にサルにコンピューターチップを埋め込む過程で、 極度の苦痛を与えて死に至らしめたという動物虐待の論争と批判に直面していることを考えると、 より現実的に感じられます。

脳にNeuralinkを埋め込まれたサル。The Verge


TruthGPTは、その名称から明らかなようにChatGPTとの技術的な関連性が見て取れ、 GoogleのBard、Open AIのChatGPTとは異なる第3の選択肢となるには、まだ企画初期段階であると判断されます。 しかし、この新しいAI開発の正当性、すなわち宇宙の本質を理解しようとするAIを作れば、 宇宙の興味深い一部である人間を絶滅させる可能性が低くなると彼の論理は十分に説得力があります。 イーロン・マスクが最も懸念しているAIのリスクは、文明破壊の可能性です。


同日、4月14日のCBSとのインタビューで、GoogleのCEOサンダー・ピチャイは、 すべての企業のすべての製品がAIの急速な発展の影響を受けるだろうと予測し、 社会が既存の技術の進化に備える必要があると警告しました。 しかし、彼はGoogleがAI技術がどのように特定の答えを生成するのかを完全に理解していないことを認め、 司会者から「そのような状態で、どのようにAIを社会に放出できるのか」という質問に対して、 「私たちは人間の心がどのように機能するかを完全に理解していません」と答えています。


オゾン層の穴を発見してノーベル化学賞を受賞したオランダの大気化学者パウル・クルッツェンは、 2000年2月にメキシコで開催された地球環境国際会議で、 「私たちは今、人新世(Anthropocene)に生きている」と述べました。 人新世は、人類によって引き起こされた地質時代であり、大気の変化を基準にすると、 産業革命を起点として人類が地球環境に大きな影響を与えてきた時代と定義されています。 このように人類文明の発展過程において、地球環境を破壊したり、他の種の生存を決定したりする力は、 すべて人間の知能から生まれています。 しかし、今やAIが登場し、私たちは社会にこの未知の、潜在的に最も脅威的な存在を投げ出していますが、 どのように対処するかについての経験が不足しています。


一方、Open AIのリーダー、サム・アルトマンは、 先月26日にAI研究者のレックス・フリードマンのポッドキャストに出演し、 現在のレベルを超えた汎用人工知能(AGI)の出現をできるだけ短期間に実現することを目標としていると明かしました。 AIが超知能を得る瞬間は、突然で急速に起こる可能性があるため、 現在のAIよりも一歩進んだAGIを迅速に開発し、 その後、超知能に到達するまでの長い時間をかけて、 人間に優しいAIを作り続けることが人類にとって最善だと考えているのです。


現在、世界で進行しているAI戦争で最も頻繁に言及されるこの3人は、 AIと共存する人類の生活というテーマに対して共通の関心を示しています。 しかし、私たちが覚えておくべきことは、彼らの物語の最終目標は、 特定の行動をとるコンピューティングシステム、つまりAIを作ることであり、 この革新的なモデルは容赦なく機械とデータ中心であり、 以前の世界で重要だった人間は、ますます自律的なシステムのデータ要求を満たすための行動入力の提供者として描かれる可能性があるということです。 そのため、皮肉なことに、マスクが言及した真実への関心と議論が、改めて人類に向かうことが重要になるでしょう。 消滅する職業に属する人が自分の主体性を再確認し、より積極的に発揮できるよう支援する基準と方法は何か、 私たちが行う経験に意味を与える主体は、依然として人間でありえるのか、 そのような認識を忘れないように支援する制度的な装置とコミュニティのテーマは何かを議論する必要があります。


ブランディングは、ターゲット顧客に対して、彼らと同じ道を歩んでいることを宣言するものです。 もしかしたら、私たちは今、人類種の生存を基準とした、3つの側面を持つAIアルゴリズムのブランディングの試みを目の当たりにしているのかもしれません。 人類の保護のためのマスクの「宇宙への関心の転換」、ピチャイの「虚偽と偽情報時代の社会的適応」、 アルトマンの「人間に優しいAI開発のためのタイムライン」。 あなたのお気に入りのアルゴリズムは何ですか。



*この記事は、2023年4月24日付の電子新聞の署名入りコラムに掲載された内容の原本です。


References


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
OpenAIのガバナンスドラマ、AIの倫理的な未来 OpenAIのCEOサム・アルトマンが取締役会によって解雇されたものの、5日後に復帰した事件は、人類のための使命を掲げるOpenAIの特異な 構造と巨大技術の潜在的なリスクに対する懸念を露呈させています。この事件は、AI開発と規制に関する社会的な議論を촉발하며、多様なコミュニティの 参加と集団的な想像力を通じた未来予測の重要性を強調します。

2024年5月14日

AI時代の「体」: 画面の向こうの人間の身体を見よ UMGとTikTok間のライセンス契約の終了は、AI技術の発展とその結果としての社会的変化に関する議論を引き起こしました。ダーウィンの進化論的な 観点からAIの自律性を予測し、潜在的な危険を警告しますが、人間とAIの相互依存的な関係を強調する行為者ネットワーク理論は、より現実的な 視点を提供します。

2024年5月16日

アルゴリズムとの私たちの関係の変化 近年、生成AI技術の発展により、人間とアルゴリズムの関係が再定義されています。著者は、ChatGPTなどの生成AIを活用する時代に、 人間がアルゴリズムとどのような関係を築くべきか、特に創作領域で発生する倫理的な問題と社会的責任について深く議論します。

2024年5月9日

人間を超える人工知能、未来の祝福か災厄か? 人工知能(AI)の発展は、人類にとって祝福となるのか、それとも災厄となるのか、議論が白熱しています。AIは、医学、科学、経済など、さまざまな分野でイノベーションをもたらす 可能性がありますが、人間の制御を離れて、危険をもたらす可能性も秘めています。AIの倫理的課題と安全性の研究を通じて、人類はAIを賢く活用し、 制御力を維持する必要があります。
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

2024年5月25日

個人的な短い未来についての考え 開発者の未来には、AIが大きな変化をもたらすでしょう。プロトタイプの作成、フロントエンド開発など、単純な作業はAIが代行しますが、 実力のある開発者は、戦略的な問題解決と創造的なアイデアの創出に注力していくでしょう。一方、セキュリティハッキング、破壊的なウイルスの開発など、 AIの悪用可能性も懸念されています。グローバル化と高齢化などの社会変化も、未来を左右するものと考えられます。
Mark Ball Blog
Mark Ball Blog
個人的な未来についてのイメージ
Mark Ball Blog
Mark Ball Blog

2024年3月26日

Mr. Know-All – 2023.7 2023年7月AI月刊マガジン「Mr. Know-All」1号では、Claude 2、Azure OpenAI、LangChain、 LlamaIndexなどの最新AI技術とトレンドを紹介します。特に、個人データを埋め込むLlamaIndexと、LangChainの核心概念である チェイニングについて詳しく解説します。
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024年3月21日

AI時代の到来、技術革新と倫理の調和を成す GoogleとOpenAIが新たなAIモデル「ジェミニ」と「GPT-4」を発表し、AI技術の革新的な発展を示しました。ジェミニは、さまざまなモダリティを 入力として受け取り、情報を要約し、質問に対する回答を提供します。Googleフォト、ワークスペース、検索エンジンに統合され、ユーザーエクスペリエンスを 向上させる予定です。
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

2024年5月18日

LLM (大規模言語モデル) とは? 大規模言語モデル(LLM)は、人工知能の中核技術であり、膨大なテキストデータを学習することで人間と同様の言語処理能力を備え、チャットボット、翻訳、 テキスト生成など、さまざまな分野で活用できます。LLMは、トークン化、トランスフォーマーモデル、プロンプトという重要な要素を基盤として動作し、優れた 能力を持つ一方で、高い計算コスト、バイアス、倫理的な問題などの欠点も持ち合わせています。
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

2024年4月1日

Splunk、2024年セキュリティ状況レポートを発表 Splunkの2024年セキュリティ状況レポートによると、企業の93%がジェネレーティブAIを使用していますが、34%は依然としてポリシーを策定していません。ジェネレーティブAIは、サイバーセキュリティ担当者と攻撃者の両方に新たな機会を提供し、このテクノロジーのリスクとメリットを理解することが重要です。
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

2024年5月13日