Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Выход из системы

translation

Это сообщение переведено AI.

Byungchae Ryan Son

Изменение наших отношений с алгоритмами

  • Язык написания: Корейский
  • Базовая страна: Все страны country-flag

Выбрать язык

  • Русский
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Текст, резюмированный ИИ durumis

  • Генеративный ИИ, такой как ChatGPT, развивается настолько, что может заменить человека, и это вызывает беспокойство по поводу нарушения прав авторов, а также заставляет задуматься о новых отношениях с алгоритмами.
  • Алгоритмы влияют на многие аспекты нашей жизни, мы осознаем их существование, проявляем к ним любопытство и относимся к ним как к активным сущностям.
  • В частности, генеративный ИИ использует существующий контент в процессе создания результатов в соответствии с запросами пользователей, поэтому необходимо переосмыслить отношения с алгоритмами ИИ и задуматься об этической ответственности.

«Теперь у нас есть модели ИИ, которые анализируют человеческий язык, чтобы извлечь модели мира».


Профессор Джордан Петерсон, клинический психолог из Торонтского университета, на мероприятии благотворительной организации в Онтарио, Канада, 19 января, заявил, что недавние примеры использования ChatGPT демонстрируют растущую напряженность в отношениях человека с алгоритмами. Петерсон предупреждает, что генеративные модели ИИ, такие как модели обработки естественного языка, скоро будут использовать изображения и действия для самообучения и проверки своих моделей, делая их умнее, чем человеческие ученые, и справляясь с их задачами за считанные секунды.


GPT-3, DALL-E, Stable Diffusion и другие модели стали основой практически всех современных ИИ-систем и способствуют очевидной трансформации ИИ-парадигмы. Но эти мощные системы, создающие изображения и текст по требованию пользователей, неизбежно вызывают трения с творческими работниками в существующих отраслях. В ноябре компания Microsoft столкнулась с коллективным иском, обвиняющим ее инструмент GitHub Copilot в нарушении прав авторов, которые разместили свои коды по открытой лицензии для обучения ИИ. В октябре Американская ассоциация звукозаписывающей индустрии (RIAA) заявила, что генерация и ремикширование музыки на основе ИИ угрожает не только правам музыкантов, но и их финансовому благополучию.


Такие примеры заставляют задуматься о том, насколько справедливы методы обучения систем на основе наборов данных, включающих материалы, защищенные авторским правом, для создания результатов. Однако следует отметить, что большая часть этих споров сосредоточена на технологических аспектах нового продукта. В конечном счете, человек вводит текст в ИИ-модель, чтобы получить желаемые результаты, поэтому важнее всего рассмотреть, как должны строиться отношения человека с алгоритмами.


Алгоритмы уже являются неотъемлемой частью создания нашего мира, как и люди. Мы уже давно задумываемся о том, как нам нужно контролировать алгоритмы, учитывая их непрозрачность. Особенно нас беспокоит отсутствие прозрачности, которая делает невозможное объективное оценивание ответственности за результат, а также скрытые предвзятости, которые могут привести к несправедливости. Поэтому гораздо более важным вопросом является «как нам относиться к алгоритмам», и мы можем найти ключ к ответу в наших отношениях с алгоритмами генерации контента, которые мы уже привыкли использовать.


Во-первых,мы осознаем существование алгоритмов. Слова «рекомендации» и «выбор», которые часто встречаются в разговорах о контенте и рекламе, демонстрируют, как люди формируют свои слова, ориентируясь на алгоритмы в онлайн-шопинге или социальных сетях. Такжемы испытываем любопытство к алгоритмам. Когда мы видим, что главная страница YouTube заполнена контентом определенной тематики, или когда мы сомневаемся в достаточной видимости наших публикаций, мы часто выражаем любопытство к алгоритмам, иногда неодобрительными отзывами.


И, наконец,мы хотим, чтобы алгоритмы были активными, живыми существами, которые служат нам. Мы полагаемся на алгоритмы, чтобы формировать новые привычки, учиться, не забывать и помнить. Для этого мы пытаемся полностью контролировать алгоритмы. Например, мы используем не связанные с темой хэштеги, включаем режим «Не беспокоить» или отправляем отзывы об опциях рекламы. И когда все эти попытки не увенчиваются успехом, мы пытаемся разорвать связи с алгоритмами, например, отказываемся от цифровых детоксов или читаем только информационные письма.


Таким образом, люди склонны терять доверие, оставлять негативные отзывы и оставаться в прошлом, когда их отношения с алгоритмами не развиваются так, как им хотелось бы. И это во многом напоминает то, как мы взаимодействуем в социальных отношениях.Кроме того, если традиционные алгоритмы генерации контента в основном основаны на односторонних отношениях «потребления», то сегодняшние алгоритмы ИИ, основанные на больших языковых моделях, представляют собой двусторонние отношения «создания». Факт того, что результаты, которые запрашивает пользователь, не являются полностью оригинальными и основаны на творчестве кого-то другого, заставляет нас пересмотреть свои взгляды и отношение к генеративным алгоритмам ИИ.


Даже если вы держите окно ChatGPT открытым, алгоритм ИИ будет ждать. Возможно, его поразительные возможности просто скрыты, и только когда вы что-то пишете, он помогает вам установить невидимую социальную связь с кем-то другим, кто принадлежит к вашему миру.


*Эта статья — оригинальная версия, опубликованная вКолонка газеты "Electronic News" от 9 января 2023 года.


Список литературы


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
"Тело" в эпоху ИИ: взгляд на человеческое тело за пределами экрана Прекращение лицензионного соглашения между UMG и TikTok вызвало дискуссию о развитии технологий ИИ и социальных изменениях, которые оно вызывает. Дарвиновская теория эволюции предсказывает независимость ИИ и предостерегает от потенциальных опасностей, но

16 мая 2024 г.

Мир, пронизанный генеративным ИИ: теория дисгармонии и процесс Развитие технологии генеративного ИИ ставит перед творцами новые вопросы о конкурентоспособности в области искусства, рекламы и медиа. В этой статье подчеркивается, что в условиях быстро меняющейся цифровой среды творцам необходимо подчеркивать богатую пе

9 мая 2024 г.

Искусственный интеллект в 2023 году: новое значение для человека 2023 год ознаменовался стремительным развитием и популяризацией технологий искусственного интеллекта (ИИ). Ключевыми событиями стали появление генеративного ИИ, рост привыкания общества к ИИ и соглашение ЕС по законопроекту о регулировании ИИ.

16 мая 2024 г.

Личное видение ближайшего будущего Искусственный интеллект привнесет значительные изменения в будущее разработчиков. AI будет выполнять рутинные задачи, такие как создание прототипов и фронтенд-разработка, в то время как опытные разработчики сосредоточатся на стратегическом решении проблем
Mark Ball Blog
Mark Ball Blog
Изображение, отражающее личное видение будущего
Mark Ball Blog
Mark Ball Blog

26 марта 2024 г.

Навык письма - необходим в эпоху искусственного интеллекта. Узнайте, как стать производителем, опираясь на силу данных и времени. Подготовьтесь к будущим возможностям и идите в ногу с эпохой искусственного интеллекта с помощью написания блогов.
카니리 @khanyli
카니리 @khanyli
카니리 @khanyli
카니리 @khanyli

11 июня 2024 г.

Генерация изображений с помощью ИИ: революционная технология и реальные проблемы Генерация изображений с помощью ИИ — это революционная технология, которая позволяет создавать реалистичные изображения по текстовому описанию. Она применяется в различных областях, таких как искусство, дизайн и маркетинг, но также вызывает проблемы, связ
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 мая 2024 г.

Что такое LLM (Large Language Model)? Большая языковая модель (LLM) является ключевой технологией искусственного интеллекта, которая обучается на обширных текстовых данных и обладает способностью обработки языка, подобной человеческой. Она может использоваться в различных областях, таких как
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 апреля 2024 г.

Будущее и перспективы искусственного интеллекта, по мнению ИИ! Искусственный интеллект (ИИ) преобразует многие аспекты нашей жизни, оказывая широкое влияние на повседневную жизнь, промышленность и экономическую структуру. В этой статье рассматривается история ИИ, современные примеры его применения, будущие перспектив
qed
qed
qed
qed

17 июня 2024 г.

Приход эпохи ИИ, гармонизация технологических инноваций и этики Google и OpenAI представили новые модели ИИ «Gemini» и «GPT-4», демонстрируя революционное развитие технологий ИИ. Gemini принимает на вход различные модальности, чтобы резюмировать информацию, отвечать на вопросы и интегрироваться в Google Photos, Worksp
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

18 мая 2024 г.