![translation](https://cdn.durumis.com/common/trans.png)
Esta es una publicación traducida por IA.
Tecnología Deepfake e intención humana
- Idioma de escritura: Coreano
- •
-
País de referencia: Todos los países
- •
- Tecnología de la información
Seleccionar idioma
Texto resumido por la IA durumis
- China ha implementado una regulación integral que limita la creación de Deepfakes, adoptando una medida más enérgica que la Unión Europea y los Estados Unidos. Esto parece ser un intento de reprimir la disidencia relacionada con las recientes protestas en blanco.
- La tecnología Deepfake genera controversia ética, particularmente cuando se trata de la creación de contenido dirigido a figuras con gran influencia social, ya que existe un alto riesgo de abuso.
- En lugar de regular la tecnología Deepfake, es más importante analizar el contexto de creación y la difusión del contenido. Es necesario cambiar la perspectiva de la visión del ser humano desde el punto de vista del sistema e implementar programas educativos a nivel comunitario para abordar el problema.
China ha implementado un amplio conjunto de regulaciones para restringir la creación de “deepfakes” desde el pasado 10 de enero.
Esto se considera como una medida para detener las opiniones disidentes relacionadas con las recientes protestas en blanco, y es interesante ya que es una medida de prohibición real en comparación con la Unión Europea o los Estados Unidos, que se limitan a recomendaciones basadas en la violación de la libertad de prensa, entre otras. Por supuesto, esta medida china parece posible gracias al sistema de censura de Internet llamado “Gran Cortafuegos”, que lleva operando más de 20 años, pero la presión por cumplir con la transparencia y la divulgación de información es enorme, por lo que es probable que las dudas sobre la eficacia interna y externa se planteen continuamente.
La tecnología relacionada con los deepfakes ha planteado la necesidad de etiquetar el contenido sintético desde el principio, pero el límite es claro en el sentido de que no hay un método claro para garantizarlo. Además, como indica la expresión “Internet es para siempre”, una vez que el contenido creado se difunde, es extremadamente difícil eliminarlo por completo. Además, se ha confirmado que la conciencia colectiva de los espectadores no desaparece después de que se elimina el contenido, como se vio en el caso del contenido “Las voces de abril”, que criticó la política de bloqueo de Shanghai que afectó las protestas en blanco.
Históricamente, es imposible evitar que la tecnología se integre en la sociedad. Las estadísticas indican que el 95% de los vídeos de deepfakes del mundo son pornográficos, el vídeo falso de la rendición del presidente ucraniano al principio de la invasión rusa, la aparición en anuncios de Bruce Willis, que padece afasia, son ejemplos claros del peligro real de la tecnología deepfake, que tiene un impacto en toda la sociedad. Sin embargo, lo que realmente deberíamos tener cuidado es con la forma en que se regula la tecnología. De hecho, siempre ha existido una nueva forma de manipular la verdad, y siempre es un juego perdido centrarse en la tecnología más moderna. En cambio, debemos centrarnos en por qué se crea ese contenido y cómo se difunde, es decir, en los factores sociales que sustentan la difusión de narrativas falsas.
“La tecnología deepfake es éticamente cuestionable, pero no intrínsecamente errónea.”
Adrienne de Ruiter, ética y filósofa política, ha argumentado en su investigación que la “expresión de personas que no han dado su consentimiento”, “el acto de engañar deliberadamente a los espectadores” y “la intención dañina” hacen que los resultados de esta tecnología sean inmorales. Esto indica que la intención de las personas, es decir, los creadores y los espectadores, que están separados de la tecnología, son los que deben vigilarse. En particular, el contenido deepfake dirigido a personas con un gran impacto social, como los artistas o los políticos, es mucho más difícil de regular en cuanto a la expresión de la intención del creador.
Entonces, ¿cómo debemos crear soluciones para el futuro? Se pueden sugerir dos direcciones principales.
En primer lugar, debemos reconocer y aceptar que somos seres dentro del mundo de las cámaras y los sistemas de reconocimiento. Tanto el autor de este artículo como tú, que lo estás leyendo, pasamos la mayor parte de nuestra vida diaria delante de teléfonos móviles y portátiles equipados con cámaras.Desde el punto de vista del sistema, el comportamiento humano esmateria para algoritmos.
Las cámaras que comprueban si se está cuidando bien a un niño existen para una relación ideal entre padres y niñeras, pero también son entidades no humanas que aprenden y ejecutan la intención de restringir a los humanos. La conciencia de que convivimos con estas nuevas entidades puede ayudar a gestionar y responder a las intenciones inmorales relacionadas con los deepfakes.
En segundo lugar, es necesario que se generen y difundan programas educativos a nivel comunitario. Tenemos una tendencia a buscar la pertenencia dentro de las conexiones débiles dentro de los sistemas digitales. Esto está relacionado con la falta de pertenencia a las comunidades sociales intensificada por la pandemia, y con el deseo de creer que estamos conectados con personas invisibles por gustos o intereses. Un ejemplo de ello es comprobar repetidamente TikTok hasta las 2 de la madrugada, acceder con frecuencia a la Wikipedia, que no espera precisión, comprobar constantemente las historias de Instagram y dejar de lado los chats grupales de poca relevancia.
Los deepfakes tienden a estimular la pertenencia a partir de estas conexiones débiles, pero la falta de un interés profundo en el sujeto hace que también sea relativamente fácil desmantelar la influencia de ese contenido. Si bien era difícil para un individuo verificar la autenticidad de un contenido deepfake con el fin de desprestigiar a un político, un proyecto que identificó la falsedad desde la perspectiva de un partido demostró que un programa educativo basado en la perspectiva, los valores y las prácticas de una comunidad puede ser una solución eficaz. Esto significa que las empresas de servicios de plataforma que comparten contenido deepfake también pueden crear oportunidades estratégicas estableciendo y proponiendo estrategias de respuesta comunitarias únicas para los usuarios.
Hay casos de uso positivo de la tecnología deepfake, como la película "Fast & Furious", en la que el fallecido Paul Walker fue revivido mediante la combinación de su rostro con la actuación de su hermano, pero también se está produciendo en la realidad el caso de una periodista que ha sido víctima de un vídeo falso de relaciones sexuales y cuya vida se ha arruinado.
Es necesario recordar que los actores de la industria cinematográfica son los más protegidos de la tecnología deepfake en la actualidad. La sociedad actual aún no puede responder a la cuestión de cómo se puede responder cuando el objetivo es una persona normal. Antes de esperar una regulación legal, la primera medida necesaria es la concienciación personal sobre el uso de contenido relacionado con deepfakes como entretenimiento en redes sociales como TikTok.
*Este artículo es la versión original del artículo publicado el 14 de febrero de 2023 en la columna firmada de The Electronic Times.
Referencias