Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Выход из системы

translation

Это сообщение переведено AI.

Byungchae Ryan Son

Драма управления OpenAI: этическое будущее ИИ

  • Язык написания: Корейский
  • Базовая страна: Все страны country-flag

Выбрать язык

  • Русский
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Текст, резюмированный ИИ durumis

  • Генеральный директор OpenAI Сэм Альтман был уволен советом директоров, а затем вернулся на должность генерального директора. Это событие демонстрирует необычную структуру OpenAI — некоммерческую организацию с коммерческим подразделением — и акцент совета директоров на безопасности.
  • Это событие усилило общественный интерес к разработке и регулированию ИИ, продемонстрировав различные точки зрения и интерпретации будущего ИИ.
  • В частности, событие демонстрирует, что воображение о будущем ИИ может оказывать влияние на реальность. Подчеркивается, что при принятии решений о будущем ИИ необходимо учитывать различные социальные и культурные контексты.

Недавно, всего через несколько месяцев после запуска ChatGPT, в совете директоров OpenAI, некоммерческой организации, которая за несколько месяцев превратилась из безденежной в организацию с годовым оборотом в 1 миллиард долларов, развернулась невероятная драма. Генеральный директор компании, Сэм Альтман, был уволен, а после объявления о его переходе в Microsoft, его возвращение на пост генерального директора OpenAI было утверждено. Обычно основатели компании являются ее самой сильной силой, поэтому совет директоров редко увольняет их, особенно если речь идет о компании стоимостью 80 миллиардов долларов.


Тем не менее, эта пятидневная драма стала возможной благодаря уникальной структуре OpenAI, которая связана с ее миссией "служить человечеству". Три независимых члена совета директоров, которые, как сообщается, были задействованы в решении об увольнении Альтмана, все связаны с эффективным альтруизмом (EA), который сосредоточен на достижении цели "чтобы человечество и все наблюдаемое во Вселенной не исчезло".

структура совета директоров OpenAI


Альтман, который в этом году объездил весь мир, предупреждая СМИ и правительство о существовательной угрозе технологии, которую он разрабатывает, описывал своеобразную структуру OpenAI - некоммерческую организацию внутри коммерческой - как способ предупреждения об опасности безответственного развития мощного ИИ, и что совет директоров может его уволить, если он будет действовать рискованно или против интересов человечества, как он сказал в июньском интервью Bloomberg. Другими словами, это была структура, специально разработанная для того, чтобы совет директоров, ставящий безопасность превыше всего, а не деньги, мог уволить генерального директора в любое время.


Как же нам смотреть на текущую ситуацию, когда новый генеральный директор Open AI тот же, что и предыдущий?


Невозможно завершить эту историю как простое "ничего не изменилось", потому что мы узнали, что решения, которые могут оказывать наибольшее влияние на наше общество в настоящее время, принимаются очень узким кругом людей. Сэм Альтман сейчас является символом эпохи, когда внимание всего мира приковано к развитию и регулированию ИИ. И мы наблюдали, как фактически был ликвидирован единственный внешний инструмент, который мог бы помешать его решениям и действиям в будущем, а также осознали важность дальнейшего поиска внешних инструментов.


Кроме того, в результате этого инцидента позиции и интерпретации стали более ясными: пессимисты, которые опасаются, что ИИ уничтожит человечество; трансгуманисты, которые считают, что технология ускорит наступление утопического будущего; те, кто верит в неограниченный свободный рынок; и те, кто выступает за строгую регламентацию для сдерживания технологических гигантов, которые не способны найти баланс между потенциальным ущербом разрушительных технологий и стремлением к наживе. Все они начинаются с одного и того же: страха перед будущим человека с ИИ, а это значит, что необходимо признать потребность в более разнообразных сообществах, которые могут прогнозировать это будущее.


Чой Йе Джин, профессор Вашингтонского университета, входящая в число 100 самых влиятельных людей в области ИИ в мире, в своей лекции TED объяснила, что искусственный интеллект, который сдает все государственные экзамены, при измерении 6 литров воды с помощью 12-литрового и 6-литрового чайника, совершает глупые и ненужные дополнительные действия, потому что у него нет знаний общего смысла, которые человек приобретает в обществе.


Когда мы прогнозируем будущее, мы часто идентифицируем новые вещи как сторонние наблюдатели, ориентируясь на "предел", который показывает, куда движется мейнстрим. В этом случае то, что кажется стабильным видением будущего с внешней точки зрения, всегда является "ожиданием, абстрагированным из яркого опыта", основанным на настоящем. Американский антрополог Арджун Ападурай утверждал, что воображение - это не личная и индивидуальная способность, а социальная практика. Это означает, что различные фантазии о будущем могут воплотиться в реальность, и этот инцидент можно интерпретировать как один из ландшафтов, созданных воображением тревожного будущего, связанного с появлением AGI.


Поскольку мы убедились, что ожидания лидеров отрасли в отношении будущего имеют важное политическое значение, в будущем нам потребуется более глубокое понимание будущего, которое формируется и конструируется коллективно в различных социальных и культурных контекстах, для принятия решений о будущем ИИ. Возникает вопрос: как мы можем создавать возможности для коллективного представления ожиданий, основанных на ярком опыте, в самых разных сообществах?



Ссылки


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Искусственный интеллект заберет всю работу у новичков? Microsoft усиливает конкуренцию на рынке ИИ, нанимая основателя Inflection AI. Помимо опасений о том, что ИИ заменит рабочие места, новички могут использовать ИИ для быстрого роста, а опытные сотрудники могут получить возможность сосредоточиться на ключев

20 мая 2024 г.

Парадокс ведущих моделей ИИ: прозрачность Отсутствие прозрачности в передовых системах ИИ стало серьезной проблемой. Группа исследователей из Стэнфордского университета проанализировала 10 систем ИИ, включая GPT-4, и пришла к выводу, что ни одна из них не раскрывает информацию о происхождении дан

14 мая 2024 г.

Наступает эра алгоритмического брендинга Илон Маск, генеральный директор Google Сундар Пичаи, Сэм Альтман из Open AI и другие эксперты в области искусственного интеллекта предупреждают об опасности искусственного интеллекта, предлагая различные решения для будущего человечества. В колонке газеты

10 мая 2024 г.

Mr. Know-All – 2023.7 В июльском номере ежемесячного журнала об ИИ "Mr. Know-All" за 2023 год (№ 1) представлены новейшие технологии и тренды в области ИИ, такие как Claude 2, Azure OpenAI, LangChain, LlamaIndex. В частности, в журнале дается подробное описание LlamaIndex, поз
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 марта 2024 г.

Личное видение ближайшего будущего Искусственный интеллект привнесет значительные изменения в будущее разработчиков. AI будет выполнять рутинные задачи, такие как создание прототипов и фронтенд-разработка, в то время как опытные разработчики сосредоточатся на стратегическом решении проблем
Mark Ball Blog
Mark Ball Blog
Изображение, отражающее личное видение будущего
Mark Ball Blog
Mark Ball Blog

26 марта 2024 г.

Публикация отчета Deloitte Global CEO Survey по Южной Корее 6 из 10 глобальных компаний внедрили генеративный ИИ для автоматизации задач, а генеральные директора настроены оптимистично в отношении роста компаний в этом году, 46% из них планируют запустить новые услуги и продукты в течение года. Deloitte Global CEO
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

9 мая 2024 г.

Искусственный интеллект, превосходящий человека: благословение или проклятие будущего? Развитие искусственного интеллекта (ИИ) вызывает горячие споры о том, станет ли он благословением или проклятием для человечества. ИИ может революционизировать медицину, науку, экономику и другие области, но также существует вероятность того, что он выйде
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

25 мая 2024 г.

Полный стек ИИ на основе открытого кода В экосистеме ИИ появляются все новые модели ИИ с открытым исходным кодом (LLM). Mistral, Llama, phi-2 и другие модели с мощными возможностями и открытыми лицензиями были опубликованы, а также разрабатываются различные инструменты для их использования. Lan
RevFactory
RevFactory
RevFactory
RevFactory

5 февраля 2024 г.

Mr. Know-All 6호 - март 2024 года Представляем LM Studio, платформу для запуска с открытым исходным кодом LLM, таких как LLaMa, Falcon, MPT, StarCoder, а также различные инструменты и сервисы ИИ, такие как Devin, AI-инженер программного обеспечения, и crewAI, платформа автоматизации много
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 марта 2024 г.