![translation](https://cdn.durumis.com/common/trans.png)
Это сообщение переведено AI.
Драма управления OpenAI: этическое будущее ИИ
- Язык написания: Корейский
- •
-
Базовая страна: Все страны
- •
- ИТ
Выбрать язык
Текст, резюмированный ИИ durumis
- Генеральный директор OpenAI Сэм Альтман был уволен советом директоров, а затем вернулся на должность генерального директора. Это событие демонстрирует необычную структуру OpenAI — некоммерческую организацию с коммерческим подразделением — и акцент совета директоров на безопасности.
- Это событие усилило общественный интерес к разработке и регулированию ИИ, продемонстрировав различные точки зрения и интерпретации будущего ИИ.
- В частности, событие демонстрирует, что воображение о будущем ИИ может оказывать влияние на реальность. Подчеркивается, что при принятии решений о будущем ИИ необходимо учитывать различные социальные и культурные контексты.
Недавно, всего через несколько месяцев после запуска ChatGPT, в совете директоров OpenAI, некоммерческой организации, которая за несколько месяцев превратилась из безденежной в организацию с годовым оборотом в 1 миллиард долларов, развернулась невероятная драма. Генеральный директор компании, Сэм Альтман, был уволен, а после объявления о его переходе в Microsoft, его возвращение на пост генерального директора OpenAI было утверждено. Обычно основатели компании являются ее самой сильной силой, поэтому совет директоров редко увольняет их, особенно если речь идет о компании стоимостью 80 миллиардов долларов.
Тем не менее, эта пятидневная драма стала возможной благодаря уникальной структуре OpenAI, которая связана с ее миссией "служить человечеству". Три независимых члена совета директоров, которые, как сообщается, были задействованы в решении об увольнении Альтмана, все связаны с эффективным альтруизмом (EA), который сосредоточен на достижении цели "чтобы человечество и все наблюдаемое во Вселенной не исчезло".
структура совета директоров OpenAI
Альтман, который в этом году объездил весь мир, предупреждая СМИ и правительство о существовательной угрозе технологии, которую он разрабатывает, описывал своеобразную структуру OpenAI - некоммерческую организацию внутри коммерческой - как способ предупреждения об опасности безответственного развития мощного ИИ, и что совет директоров может его уволить, если он будет действовать рискованно или против интересов человечества, как он сказал в июньском интервью Bloomberg. Другими словами, это была структура, специально разработанная для того, чтобы совет директоров, ставящий безопасность превыше всего, а не деньги, мог уволить генерального директора в любое время.
Как же нам смотреть на текущую ситуацию, когда новый генеральный директор Open AI тот же, что и предыдущий?
Невозможно завершить эту историю как простое "ничего не изменилось", потому что мы узнали, что решения, которые могут оказывать наибольшее влияние на наше общество в настоящее время, принимаются очень узким кругом людей. Сэм Альтман сейчас является символом эпохи, когда внимание всего мира приковано к развитию и регулированию ИИ. И мы наблюдали, как фактически был ликвидирован единственный внешний инструмент, который мог бы помешать его решениям и действиям в будущем, а также осознали важность дальнейшего поиска внешних инструментов.
Кроме того, в результате этого инцидента позиции и интерпретации стали более ясными: пессимисты, которые опасаются, что ИИ уничтожит человечество; трансгуманисты, которые считают, что технология ускорит наступление утопического будущего; те, кто верит в неограниченный свободный рынок; и те, кто выступает за строгую регламентацию для сдерживания технологических гигантов, которые не способны найти баланс между потенциальным ущербом разрушительных технологий и стремлением к наживе. Все они начинаются с одного и того же: страха перед будущим человека с ИИ, а это значит, что необходимо признать потребность в более разнообразных сообществах, которые могут прогнозировать это будущее.
Чой Йе Джин, профессор Вашингтонского университета, входящая в число 100 самых влиятельных людей в области ИИ в мире, в своей лекции TED объяснила, что искусственный интеллект, который сдает все государственные экзамены, при измерении 6 литров воды с помощью 12-литрового и 6-литрового чайника, совершает глупые и ненужные дополнительные действия, потому что у него нет знаний общего смысла, которые человек приобретает в обществе.
Когда мы прогнозируем будущее, мы часто идентифицируем новые вещи как сторонние наблюдатели, ориентируясь на "предел", который показывает, куда движется мейнстрим. В этом случае то, что кажется стабильным видением будущего с внешней точки зрения, всегда является "ожиданием, абстрагированным из яркого опыта", основанным на настоящем. Американский антрополог Арджун Ападурай утверждал, что воображение - это не личная и индивидуальная способность, а социальная практика. Это означает, что различные фантазии о будущем могут воплотиться в реальность, и этот инцидент можно интерпретировать как один из ландшафтов, созданных воображением тревожного будущего, связанного с появлением AGI.
Поскольку мы убедились, что ожидания лидеров отрасли в отношении будущего имеют важное политическое значение, в будущем нам потребуется более глубокое понимание будущего, которое формируется и конструируется коллективно в различных социальных и культурных контекстах, для принятия решений о будущем ИИ. Возникает вопрос: как мы можем создавать возможности для коллективного представления ожиданий, основанных на ярком опыте, в самых разных сообществах?
Ссылки