![translation](https://cdn.durumis.com/common/trans.png)
Это сообщение переведено AI.
Изменение наших отношений с алгоритмами
- Язык написания: Корейский
- •
-
Базовая страна: Все страны
- •
- ИТ
Выбрать язык
Текст, резюмированный ИИ durumis
- Генеративный ИИ, такой как ChatGPT, развивается настолько, что может заменить человека, и это вызывает беспокойство по поводу нарушения прав авторов, а также заставляет задуматься о новых отношениях с алгоритмами.
- Алгоритмы влияют на многие аспекты нашей жизни, мы осознаем их существование, проявляем к ним любопытство и относимся к ним как к активным сущностям.
- В частности, генеративный ИИ использует существующий контент в процессе создания результатов в соответствии с запросами пользователей, поэтому необходимо переосмыслить отношения с алгоритмами ИИ и задуматься об этической ответственности.
«Теперь у нас есть модели ИИ, которые анализируют человеческий язык, чтобы извлечь модели мира».
Профессор Джордан Петерсон, клинический психолог из Торонтского университета, на мероприятии благотворительной организации в Онтарио, Канада, 19 января, заявил, что недавние примеры использования ChatGPT демонстрируют растущую напряженность в отношениях человека с алгоритмами. Петерсон предупреждает, что генеративные модели ИИ, такие как модели обработки естественного языка, скоро будут использовать изображения и действия для самообучения и проверки своих моделей, делая их умнее, чем человеческие ученые, и справляясь с их задачами за считанные секунды.
GPT-3, DALL-E, Stable Diffusion и другие модели стали основой практически всех современных ИИ-систем и способствуют очевидной трансформации ИИ-парадигмы. Но эти мощные системы, создающие изображения и текст по требованию пользователей, неизбежно вызывают трения с творческими работниками в существующих отраслях. В ноябре компания Microsoft столкнулась с коллективным иском, обвиняющим ее инструмент GitHub Copilot в нарушении прав авторов, которые разместили свои коды по открытой лицензии для обучения ИИ. В октябре Американская ассоциация звукозаписывающей индустрии (RIAA) заявила, что генерация и ремикширование музыки на основе ИИ угрожает не только правам музыкантов, но и их финансовому благополучию.
Такие примеры заставляют задуматься о том, насколько справедливы методы обучения систем на основе наборов данных, включающих материалы, защищенные авторским правом, для создания результатов. Однако следует отметить, что большая часть этих споров сосредоточена на технологических аспектах нового продукта. В конечном счете, человек вводит текст в ИИ-модель, чтобы получить желаемые результаты, поэтому важнее всего рассмотреть, как должны строиться отношения человека с алгоритмами.
Алгоритмы уже являются неотъемлемой частью создания нашего мира, как и люди. Мы уже давно задумываемся о том, как нам нужно контролировать алгоритмы, учитывая их непрозрачность. Особенно нас беспокоит отсутствие прозрачности, которая делает невозможное объективное оценивание ответственности за результат, а также скрытые предвзятости, которые могут привести к несправедливости. Поэтому гораздо более важным вопросом является «как нам относиться к алгоритмам», и мы можем найти ключ к ответу в наших отношениях с алгоритмами генерации контента, которые мы уже привыкли использовать.
Во-первых,мы осознаем существование алгоритмов. Слова «рекомендации» и «выбор», которые часто встречаются в разговорах о контенте и рекламе, демонстрируют, как люди формируют свои слова, ориентируясь на алгоритмы в онлайн-шопинге или социальных сетях. Такжемы испытываем любопытство к алгоритмам. Когда мы видим, что главная страница YouTube заполнена контентом определенной тематики, или когда мы сомневаемся в достаточной видимости наших публикаций, мы часто выражаем любопытство к алгоритмам, иногда неодобрительными отзывами.
И, наконец,мы хотим, чтобы алгоритмы были активными, живыми существами, которые служат нам. Мы полагаемся на алгоритмы, чтобы формировать новые привычки, учиться, не забывать и помнить. Для этого мы пытаемся полностью контролировать алгоритмы. Например, мы используем не связанные с темой хэштеги, включаем режим «Не беспокоить» или отправляем отзывы об опциях рекламы. И когда все эти попытки не увенчиваются успехом, мы пытаемся разорвать связи с алгоритмами, например, отказываемся от цифровых детоксов или читаем только информационные письма.
Таким образом, люди склонны терять доверие, оставлять негативные отзывы и оставаться в прошлом, когда их отношения с алгоритмами не развиваются так, как им хотелось бы. И это во многом напоминает то, как мы взаимодействуем в социальных отношениях.Кроме того, если традиционные алгоритмы генерации контента в основном основаны на односторонних отношениях «потребления», то сегодняшние алгоритмы ИИ, основанные на больших языковых моделях, представляют собой двусторонние отношения «создания». Факт того, что результаты, которые запрашивает пользователь, не являются полностью оригинальными и основаны на творчестве кого-то другого, заставляет нас пересмотреть свои взгляды и отношение к генеративным алгоритмам ИИ.
Даже если вы держите окно ChatGPT открытым, алгоритм ИИ будет ждать. Возможно, его поразительные возможности просто скрыты, и только когда вы что-то пишете, он помогает вам установить невидимую социальную связь с кем-то другим, кто принадлежит к вашему миру.
*Эта статья — оригинальная версия, опубликованная вКолонка газеты "Electronic News" от 9 января 2023 года.
Список литературы