![translation](https://cdn.durumis.com/common/trans.png)
Esta é uma postagem traduzida por IA.
Tecnologia Deepfake e Intenção Humana
- Idioma de escrita: Coreana
- •
-
País de referência: Todos os países
- •
- TI
Selecionar idioma
Texto resumido pela IA durumis
- A China implementou regulamentações abrangentes para restringir a produção de Deepfakes, tomando medidas mais fortes do que a União Europeia e os Estados Unidos, o que parece ser um esforço para reprimir a dissidência relacionada aos recentes protestos de papel em branco.
- A tecnologia Deepfake levanta controvérsias éticas, particularmente preocupante com o potencial de abuso na criação de conteúdo direcionado a figuras influentes na sociedade.
- Em vez de regular a tecnologia Deepfake, é mais importante analisar o contexto de produção e a difusão do conteúdo, mudando a forma como vemos os humanos do ponto de vista do sistema, e resolvendo os problemas através de programas educativos em nível comunitário.
A China implementou regulamentos abrangentes para restringir a criação de "deepfakes" a partir de 10 de fevereiro.
Isso faz parte de uma série de medidas para impedir a opinião pública dissidente associada aos recentes protestos em branco e é interessante porque é uma proibição real, em contraste com a União Europeia ou os EUA, que, com base na violação da liberdade de imprensa, por exemplo, limitaram suas medidas a recomendações. Claro, essa medida da China é possível devido ao sistema de censura da Internet, conhecido como Grande Firewall, que opera há mais de 20 anos. No entanto, a pressão para garantir a transparência e o cumprimento da divulgação de informações é enorme, então é provável que as dúvidas sobre sua eficácia interna e externa persistam.
Desde o início, as tecnologias relacionadas a "deepfakes" têm defendido a necessidade de rotular o conteúdo sintetizado, mas é claro que há uma lacuna clara em relação a como garantir isso. Além disso, como a frase "A Internet é para sempre" indica, é extremamente difícil apagar completamente o conteúdo criado uma vez que ele se propaga. Além disso, mesmo após a exclusão do conteúdo, a consciência coletiva dos espectadores não desaparece, como pode ser visto no caso do conteúdo "Vozes de Abril", que criticava a política de bloqueio de Xangai, que teve um impacto nos protestos em branco.
Historicamente, a tecnologia tem sido impossível de impedir de se infiltrar na sociedade. Estatísticas indicam que 95% dos vídeos de "deepfakes" no mundo são pornográficos, o vídeo falso da rendição do presidente ucraniano no início da invasão russa e o endosso de Bruce Willis, que sofre de afasia, para um anúncio são exemplos concretos e perigosos do impacto da tecnologia de "deepfakes" em toda a sociedade. No entanto, o que realmente devemos ter cuidado é o método de regulamentação dessa tecnologia. Novas formas de manipular a verdade sempre existiram, e focar na tecnologia mais recente é, no final das contas, um jogo sempre perdido. Em vez disso, devemos nos concentrar no motivo pelo qual essas produções são feitas e como elas se espalham, ou seja, nos fatores sociais que sustentam a disseminação de narrativas falsas.
“A tecnologia "deepfake" é eticamente questionável, mas não inerentemente errada.”
Em sua pesquisa, a ética e filósofa política Adrienne de Ruiter argumenta que a "expressão sem consentimento de alguém", o "ato de enganar propositalmente os espectadores" e a "intenção prejudicial" são o que tornam as saídas dessa tecnologia imorais. Ela revelou que são as intenções das pessoas, separadas da tecnologia, que devem ser observadas, tanto o criador quanto o espectador, ou seja, a pessoa. Em particular, no caso de "deepfakes" direcionados a pessoas com grande influência social, como celebridades ou políticos, é difícil regular a expressão das intenções dos criadores.
Então, como devemos construir alternativas relacionadas a isso no futuro? Podem ser apresentadas duas grandes direções.
Primeiro, devemos reconhecer e admitir que somos seres no mundo dos sistemas de câmera e reconhecimento. Eu, que estou escrevendo este artigo, e você, que está lendo, passamos a maior parte do nosso dia a dia na frente de telefones celulares e laptops com câmeras.Do ponto de vista do sistema, o comportamento humano é material para algoritmos.
As câmeras que verificam se as crianças estão sendo bem cuidadas existem para o bem do relacionamento ideal entre pais e babás, mas também são entidades não humanas que aprendem e executam a intenção de restringir humanos. A consciência de que estamos vivendo com essas novas entidades pode nos ajudar a gerenciar e lidar com as intenções imorais associadas a "deepfakes".
Segundo, a educação relacionada a isso deve ser criada e disseminada em nível comunitário. Somos propensos a buscar pertencimento em conexões fracas dentro de sistemas digitais. Isso se refere à ausência de pertencimento a grupos sociais, que foi intensificada pela pandemia, e ao desejo de acreditar que estamos conectados a pessoas invisíveis por meio de gostos e interesses. Verificação do TikTok repetidas vezes até as 2 da manhã, acesso frequente a wikis, que não são esperados para serem precisos, verificação constante de histórias no Instagram e abandono de salas de bate-papo em grupo com pouco interesse são exemplos disso.
"Deepfakes" tendem a estimular o senso de pertencimento dessas conexões fracas, mas, como não há um grande interesse nas entidades em questão, a desconstrução da influência de seu conteúdo também é relativamente fácil. Verificar a autenticidade de um conteúdo "deepfake" para minar a credibilidade de um político era difícil para um indivíduo, mas um projeto que distinguia o falso do verdadeiro em nível de partido mostrou que um programa educacional baseado nas perspectivas, valores e práticas da comunidade pode ser uma alternativa eficaz. Isso significa que as empresas de serviços de plataforma que compartilham conteúdo "deepfake" também podem criar oportunidades estratégicas, estabelecendo e propondo medidas de resposta específicas da comunidade para seus usuários.
Há exemplos de uso positivo da tecnologia "deepfake", como o filme "Velozes e Furiosos", que ressuscitou Paul Walker, que morreu em um acidente, usando a face de seu irmão sobre uma dublê, mas também há casos reais em que a vida de uma jornalista é arruinada por um vídeo falso de sexo que a tinha como alvo.
Vale lembrar que os atores da indústria cinematográfica são os mais protegidos atualmente da tecnologia "deepfake". No entanto, a sociedade ainda não consegue responder como lidar com isso quando o alvo são pessoas comuns. Antes da expectativa de regulamentação legal, talvez a primeira etapa seja a conscientização de nós mesmos, que verificamos conteúdo "deepfake" no TikTok e outras redes sociais por diversão.
*Este artigo é a versão original do artigo publicado emColuna assinada no jornal eletrônico em 14 de fevereiro de 2023.
Referências