Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Выход из системы

translation

Это сообщение переведено AI.

Byungchae Ryan Son

Парадокс ведущих моделей ИИ: прозрачность

  • Язык написания: Корейский
  • Базовая страна: Все страны country-flag

Выбрать язык

  • Русский
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Текст, резюмированный ИИ durumis

  • Группа исследователей из Стэнфордского университета проанализировала 10 передовых систем ИИ, включая GPT-4, и обнаружила, что прозрачность моделей ИИ, таких как наборы данных и методы обучения, недостаточна.
  • В частности, ведущие компании по искусственному интеллекту, такие как OpenAI и Google, придерживаются бизнес-модели, ориентированной на прибыль, и отказываются от раскрытия данных, что может препятствовать развитию технологий ИИ и привести к монополистическому будущему.
  • Эксперты утверждают, что необходимо повысить прозрачность моделей ИИ для обеспечения воспроизводимости и укрепления социальной ответственности, а также призывают к общественному согласию и регулированию в связи с развитием технологий ИИ.

18 октября исследователи Стэнфордского университета опубликовали исследование, которое показало, насколько глубокой и потенциально опасной может быть тайна, окружающая GPT-4 и другие передовые системы ИИ.

Представляем индекс прозрачности базовой модели, Стэнфордский университет


Они изучили 10 различных систем ИИ, большинство из которых были большими языковыми моделями, такими как те, которые используются в ChatGPT и других чат-ботах. В число этих моделей входят широко используемые коммерческие модели, такие как GPT-4 от OpenAI, PaLM 2 от Google и Titan Text от Amazon. Исследователи оценили их открытость по 13 критериям, включая то, насколько прозрачно разработчики раскрывали данные, используемые для обучения моделей (методы сбора и аннотирования данных, включение материалов, защищенных авторским правом и т. д.). Они также изучили, раскрывалась ли информация о том, какое оборудование использовалось для обучения и запуска моделей, какие использовались программные фреймворки и энергопотребление проекта.


Результаты показали, что ни одна из моделей ИИ не достигла показателя прозрачности более 54% по всем указанным критериям. В целом Titan Text от Amazon получил наименьшую оценку по прозрачности, а Llama 2 от Meta был признан самым открытым. Интересно, что Llama 2, являющийся лидером в недавнем противостоянии между открытыми и закрытыми моделями, несмотря на свой статус модели с открытым исходным кодом, не раскрыл данные, использованные для обучения, а также методы сбора и курирования данных. Другими словами, несмотря на растущее влияние ИИ на наше общество, непрозрачность в отрасли является всеобщим и постоянным явлением.


Это означает, что существует риск того, что индустрия ИИ станет областью, ориентированной на прибыль, а не на научный прогресс, что может привести к монопольному будущему, где преобладают определенные компании.

Эрик Ли/Блумберг через Getty Images


Генеральный директор OpenAI Сэм Альтман уже встречался с политиками по всему миру, чтобы рассказать им об этом новом типе интеллекта и помочь в разработке соответствующих правил. Он поддерживает идею создания международного органа по надзору за ИИ, но считает, что некоторые ограниченные правила, например, запрет на использование материалов, защищенных авторским правом, в наборах данных, могут стать несправедливым препятствием. Понятно, почему слово "открытость" в названии компании OpenAI превратилось в искаженную версию радикальной прозрачности, которую они обещали на старте.


Однако стоит отметить, что результаты этого отчета Стэнфордского университета свидетельствуют о том, что необходимость в секретности для своих моделей в целях конкуренции не является обязательной. По сути, эти результаты показывают, что почти все компании не блещут прозрачностью. Например, говорится, что ни одна компания не предоставляет статистику о том, сколько пользователей полагаются на ее модели, а также о регионах или сегментах рынка, где эти модели используются.


В организациях, придерживающихся принципов открытого кода, есть поговорка: "На многих глазах все жуки видны" (закон Линуса). Примитивные цифры помогают обнаруживать проблемы, которые можно решить или исправить.


Однако тенденция к открытому коду постепенно снижает социальный статус и признание ценности как в рамках открытых компаний, так и за их пределами, поэтому не стоит делать на этом чрезмерный акцент. Поэтому вместо того, чтобы зацикливаться на рамках "открытая" или "закрытая" модель, лучше сфокусироваться на обсуждении расширения доступа к данным, лежащим в основе мощных моделей ИИ, для внешних пользователей.


Для научного прогресса важно обеспечивать воспроизводимость (Reproducibility)результатов исследований. Это позволяет конкретизировать пути обеспечения прозрачности ключевых компонентов создания каждой модели. В противном случае отрасль с большой вероятностью окажется в закрытой и стагнирующей монопольной ситуации. И это следует рассматривать в качестве приоритета, учитывая, насколько быстро технологии ИИ проникают во все сферы жизни сегодня и в будущем.


Для журналистов и ученых важно понимать данные, а для политиков прозрачность — это предпосылка для планируемых политических усилий. Для широкой публики прозрачность важна, потому что люди как конечные пользователи систем ИИ могут стать как виновниками, так и жертвами потенциальных проблем, связанных с интеллектуальной собственностью, потреблением энергии, предубеждениями. Сэм Альтман утверждает, что риск исчезновения человечества от ИИ должен стать глобальным приоритетом наряду с такими социальными рисками, как пандемии и ядерная война. Но прежде чем мы дойдем до этой опасной ситуации, нам следует помнить, что выживание нашего общества зависит от поддержания здоровых отношений с развивающимся искусственным интеллектом.


*Эта статья является оригинальным текстом, опубликованным в электронной газете 23 октября 2023 года.


Ссылки


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Драма управления OpenAI: этическое будущее ИИ Событие, когда генеральный директор OpenAI Сэм Альтман был уволен советом директоров, но вернулся через пять дней, показывает необычную структуру OpenAI, стремящейся к миссии для человечества, а также опасения по поводу потенциальных рисков больших технол

14 мая 2024 г.

Искусственный интеллект в 2023 году: новое значение для человека 2023 год ознаменовался стремительным развитием и популяризацией технологий искусственного интеллекта (ИИ). Ключевыми событиями стали появление генеративного ИИ, рост привыкания общества к ИИ и соглашение ЕС по законопроекту о регулировании ИИ.

16 мая 2024 г.

Наступает эра алгоритмического брендинга Илон Маск, генеральный директор Google Сундар Пичаи, Сэм Альтман из Open AI и другие эксперты в области искусственного интеллекта предупреждают об опасности искусственного интеллекта, предлагая различные решения для будущего человечества. В колонке газеты

10 мая 2024 г.

Полный стек ИИ на основе открытого кода В экосистеме ИИ появляются все новые модели ИИ с открытым исходным кодом (LLM). Mistral, Llama, phi-2 и другие модели с мощными возможностями и открытыми лицензиями были опубликованы, а также разрабатываются различные инструменты для их использования. Lan
RevFactory
RevFactory
RevFactory
RevFactory

5 февраля 2024 г.

Mr. Know-All – 2023.7 В июльском номере ежемесячного журнала об ИИ "Mr. Know-All" за 2023 год (№ 1) представлены новейшие технологии и тренды в области ИИ, такие как Claude 2, Azure OpenAI, LangChain, LlamaIndex. В частности, в журнале дается подробное описание LlamaIndex, поз
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 марта 2024 г.

Snowflake выпускает Arctic, корпоративный LLM с лучшей в отрасли открытостью Snowflake выпустила открытую модель языка Arctic. Она доступна для бесплатного коммерческого использования по лицензии Apache 2.0 и отличается лучшей в отрасли производительностью и эффективностью. Arctic обеспечивает высокую эффективность токенов и выс
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 апреля 2024 г.

Snowflake опубликовал отчет о тенденциях в области данных за 2024 год: разработчики ИИ создают в среднем 90 приложений в день Согласно исследованию Snowflake, проведенному среди более 9000 клиентов, доля чат-ботов среди приложений LLM выросла, разработчики предпочитают Python, а также наблюдается увеличение объема обработки неструктурированных данных. Более подробную информацию
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

16 мая 2024 г.

Открытый выпуск OpenELM от Apple / Phi-3 от MS / Llama 3 от Meta Ведущие технологические гиганты, такие как Apple, Microsoft и Meta, недавно представили собственные большие языковые модели, внося новые изменения в индустрию ИИ. Выпущенные модели эволюционируют в различных направлениях, включая сокращение размера, оптим
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27 апреля 2024 г.

Mr. Know-All 2 – Август 2023 года В этом выпуске мы рассмотрим методы обработки PDF-файлов для обучения LLM на данных внутри компании. Мы покажем, как интегрировать векторные хранилища FAISS и ChromaDB с помощью OpenAI API, LangChain и Streamlit. Мы также предоставим информацию о репозито
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 марта 2024 г.