«Теперь у нас есть модели ИИ, которые анализируют человеческий язык и извлекают модели мира».
В прошлом месяце, 19 числа, на мероприятии одной благотворительной организации в канадском Онтарио профессор Торонтского университета, клинический психолог Джордан Питерсон, упомянул недавние примеры использования ChatGPT и связанную с ними новую напряженность, которая возникнет между людьми и алгоритмами в будущем. Профессор Питерсон предупредил, что генеративные модели ИИ на основе больших языковых моделей вскоре станут настолько умными, что смогут использовать изображения и действия для самостоятельного извлечения шаблонов, а затем тестировать их в реальном мире, выполняя работу человеческих ученых за считанные секунды.
GPT-3, DALL-E, StableDiffusion и другие модели уже стали основой практически всех систем ИИ, визуализируя смену парадигмы в этой области. Эти мощные системы, способные генерировать изображения и текст по запросу пользователя, неизбежно вызывают конфликты с существующими творческими работниками в различных отраслях. В ноябре прошлого года компания Microsoft столкнулась с коллективным иском, в котором утверждалось, что её сервис «GitHub Copilot» нарушает законные права многочисленных авторов, которые опубликовали свой код под открытой лицензией для обучения ИИ. Также Американская ассоциация звукозаписывающей индустрии (RIAA) в своем заявлении от октября прошлого года подчеркнула, что генерация и ремиксирование музыки на основе ИИ могут угрожать не только правам музыкантов, но и их финансовому положению.
Эти примеры заставляют задуматься о справедливости использования наборов данных, содержащих материалы, защищенные авторским правом, для обучения систем и создания результатов. Однако важно отметить, что большая часть этих споров сосредоточена на новых технологических аспектах. В конечном счете, именно люди вводят текст в модели ИИ, чтобы получить желаемый результат, поэтому нам необходимо в первую очередь задуматься о том, какими должны быть отношения между человеком и алгоритмом в будущем.
Алгоритмы уже стали неотъемлемой частью процесса генерации нашего мира, подобно людям. Мы уже давно задумываемся о необходимости общественного контроля над непрозрачностью алгоритмов. В частности, мы знаем, что сложно определить, кто именно должен нести ответственность за недостаток прозрачности, и опасаемся, что сохраняющиеся скрытые предубеждения могут приводить к несправедливым результатам. Поэтому вопрос «как нам следует относиться к алгоритмам?» может быть более важным, а подсказки к ответу мы можем найти в наших отношениях с уже привычными алгоритмами генерации контента (content-generating algorithm).
Во-первых, мы осознаем существование алгоритмов. Часто используемые в разговорах о контенте и рекламе слова «рекомендации» и «выбор» показывают, что люди строят свою лексику вокруг алгоритмов в онлайн-покупках и социальных сетях. Также нам свойственно любопытство к алгоритмам. Когда мы видим, что главная страница YouTube заполнена контентом определенной категории, или когда мы считаем, что наш контент недостаточно заметен, то часто выражаем свое недовольство, демонстрируя интерес к тому, как работают эти алгоритмы.
Наконец, мы хотим, чтобы алгоритмы были активными, живыми существами, существующими для нас. Мы полагаемся на алгоритмы для формирования новых привычек, обучения и запоминания, и иногда пытаемся полностью контролировать их. Например, мы можем использовать нерелевантные хэштеги, включать режим «Не беспокоить» или отправлять отзывы о настройках рекламы. И когда все эти попытки оказываются безуспешными, мы можем прибегнуть к цифровому детоксу или чтению новостных рассылок, чтобы дистанцироваться от алгоритмов.
Подводя итог, можно сказать, что когда отношения с алгоритмами не развиваются так, как мы хотим, мы склонны испытывать недоверие, негативные оценки и зацикливаться на прошлом. И это во многом напоминает наши обычные «социальные отношения». Кроме того, если раньше наши отношения с алгоритмами генерации контента в основном были односторонними и сводились к «потреблению», то нынешние отношения с алгоритмами ИИ на основе больших языковых моделей можно охарактеризовать как двусторонние отношения в сфере «генерации». Поскольку запрашиваемые пользователем результаты не являются полностью оригинальными, а основаны на творческих работах кого-то другого, нам нужно осознать необходимость коренных изменений в нашем подходе к алгоритмам генеративного ИИ и нашем отношении к ним.
Даже если окно ChatGPT открыто, алгоритм ИИ просто ждет. Возможно, его невероятные возможности просто скрыты, и когда вы начинаете что-то писать, он просто помогает вам развить скрытые социальные отношения с кем-то другим в вашем мире.
*Эта статья является оригинальной версией статьи, опубликованной 9 января 2023 года в колонке в газете «Электронные новости».
Ссылки
Комментарии0