Китай с 10 числа начал вводить всеобъемлющие ограничения на создание «дипфейков».
Это является частью мер по предотвращению антиправительственных настроений, связанных с недавними протестами с белыми листами, и представляет собой интересную практику фактического запрета в отличие от Европейского союза или США, где такие меры ограничиваются рекомендациями из-за опасений нарушения свободы слова. Конечно, такие действия Китая становятся возможными благодаря существованию системы интернет-цензуры, известной как «Великий китайский файервол», которая действует уже более 20 лет. Однако, учитывая огромную нагрузку по соблюдению прозрачности и открытости информации, вероятность постоянного возникновения вопросов о внутренней и внешней эффективности этих мер остается высокой.
С самого начала развития технологий, связанных с дипфейками, поднимался вопрос о необходимости маркировки синтезированного контента, однако проблема заключалась в отсутствии четкого механизма обеспечения этого. Более того, как показывает фраза «Интернет вечен», распространение созданного контента чрезвычайно трудно полностью остановить. Более того, пример «Голоса апреля», критикующего политику изоляции в Шанхае, которая повлияла на протесты с белыми листами, показывает, что коллективное сознание зрителей не исчезает даже после удаления контента.
Исторически сложилось так, что проникновение технологий в общество остановить невозможно. Статистика, согласно которой 95% видеороликов с дипфейками носят порнографический характер, фейковый ролик с заявлением об отказе от сопротивления украинского президента в начале вторжения России, а также использование технологии для участия в рекламе актера Брюса Уиллиса, страдающего афазией, – это явные примеры опасных реальных последствий применения технологий дипфейков, влияющих на все общество. Однако то, чего нам действительно стоит опасаться, – это не методы регулирования данной технологии. На самом деле, новые способы фальсификации фактов всегда существовали, и постоянное внимание к самым современным технологиям в конечном счете обречено на проигрыш. Вместо этого нам следует сосредоточиться на том, почему создаются такие материалы и как они распространяются, то есть на социальных факторах, способствующих распространению ложных нарративов.
«Технология дипфейков вызывает этические сомнения, но по своей сути не является неправильной.»
В своих исследованиях этик и политолог Адриан де Руйте (Adrienne de Ruiter) высказала мнение, что именно «выражение мнений без согласия человека», «намеренное введение зрителей в заблуждение» и «злонамеренные намерения» делают результаты применения этой технологии безнравственными. Она подчеркнула, что именно намерения человека – создателя и зрителя, а не сама технология – являются тем, что следует опасаться. В частности, микротаргетированный контент с дипфейками, направленный на людей с большим социальным влиянием, таких как артисты или политики, неизбежно сталкивается с трудностями в регулировании выражения намерений создателей.
Тогда как же следует разрабатывать альтернативные решения в будущем? Можно выделить два основных направления.
Во-первых, нам необходимо осознать и признать, что мы являемся частью мира камер и систем распознавания. И автор этой статьи, и вы, читающий ее, большую часть своей жизни проводите перед мобильными телефонами и ноутбуками, оснащенными камерами.С точки зрения системы, поведение человека – это материал для алгоритмов.
Камеры, контролирующие правильный уход за ребенком, существуют для установления идеальных отношений между родителями и няней, но они также являются нечеловеческими субъектами, способными обучаться и выполнять действия с целью ограничения человека. Осознание того, что мы живем вместе с этими новыми субъектами, может помочь нам управлять и противодействовать безнравственным намерениям, связанным с дипфейками.
Во-вторых, необходимо создавать и распространять образовательные программы по этой тематике на уровне сообществ. Мы склонны искать чувство принадлежности в рамках слабых связей в цифровой среде. Это связано с отсутствием чувства принадлежности к социальным группам, которое усилилось во время пандемии, и желанием верить, что мы связаны с кем-то невидимым благодаря общим интересам или вкусам. Примером этого могут служить постоянные проверки TikTok до двух часов ночи, частые обращения к Википедии, где не ожидается точность, постоянная проверка историй в Instagram, а также игнорирование малоинтересных групповых чатов.
Дипфейки часто стимулируют чувство принадлежности, основанное на этих слабых связях, однако, поскольку они не связаны с глубоким интересом к объекту, снижение влияния такого контента относительно просто. Результаты одного проекта, в котором политические партии смогли отличить ложные материалы с дипфейками от правдивых, несмотря на сложность проверки их подлинности для обычных граждан, свидетельствуют о том, что образовательные программы, основанные на ценностях, взглядах и практике сообщества, могут стать эффективным решением. Это также означает, что компании, предоставляющие платформы для обмена контентом с дипфейками, могут создавать стратегические возможности, разрабатывая и предлагая уникальные меры реагирования для своих пользователей в рамках каждого сообщества.
С одной стороны, есть примеры позитивного применения технологий дипфейков, например, фильм «Форсаж», в котором умершего Пола Уокера «воскресили», используя двойника и наложив на него его лицо. С другой стороны, в реальной жизни происходят случаи, когда фейковые видеоролики сексуального характера, направленные против женщин-журналисток, разрушают чью-то жизнь.
Важно помнить, что в киноиндустрии актеры в настоящее время являются наиболее защищенной категорией от технологий дипфейков. Однако современное общество пока не может ответить на вопрос, как реагировать, если объектом таких действий станет обычный человек. Возможно, прежде чем ожидать правового регулирования, нам необходимо начать с самосознания, с осознания того, что мы сами, просматривая контент с дипфейками в качестве развлечения на TikTok и других социальных платформах, делаем первый шаг в этом направлении.
*Эта статья является оригиналом материала, опубликованного 14 февраля 2023 года в статье в электронном издании «Электронная газета».
Ссылки
Комментарии0