La Chine a mis en œuvre, à partir du 10 de ce mois, une réglementation globale visant à limiter la création de « deepfakes ».
Cette mesure, qui s'inscrit dans le cadre d'une série de mesures visant à endiguer l'opinion publique dissidente liée aux récentes manifestations de protestation sur fond blanc, est intéressante dans la mesure où il s'agit d'une mesure d'interdiction concrète, contrairement à l'Union européenne ou aux États-Unis, où les recommandations se limitent à un niveau consultatif, en raison notamment de la violation de la liberté de la presse. Bien sûr, une telle mesure de la part de la Chine est rendue possible par l'existence du système de censure Internet connu sous le nom de « Great Firewall » (万里长城), en place depuis plus de 20 ans. Toutefois, la pression liée au respect de la transparence et de la diffusion de l'information est énorme, et il est fort probable que des doutes quant à l'efficacité interne et externe de cette mesure seront constamment soulevés.
Dès le début, les technologies liées aux deepfakes ont mis en avant la nécessité d'apposer une étiquette sur les contenus synthétiques, mais la limite de cette approche réside dans le fait que les moyens de garantir cette pratique sont loin d'être clairs. De plus, comme le dit l'expression « Internet est éternel », il est extrêmement difficile d'effacer complètement un contenu une fois qu'il a été diffusé. Qui plus est, même après la suppression d'un contenu, la conscience collective des spectateurs ne disparaît pas, comme en témoigne l'exemple du contenu « La voix d'avril » qui a critiqué la politique de confinement de Shanghai et a influencé les manifestations de protestation sur fond blanc.
Historiquement, l'intégration de la technologie dans la société est inévitable. Les statistiques selon lesquelles 95 % des vidéos deepfakes dans le monde sont à caractère pornographique, la fausse déclaration de reddition du président ukrainien au début de l'invasion russe, ou encore la participation de Bruce Willis, atteint d'aphasie, à une publicité sont autant d'exemples concrets et dangereux de l'impact des technologies deepfakes sur l'ensemble de la société. Toutefois, ce que nous devons vraiment craindre, ce n'est peut-être pas la façon dont cette technologie est réglementée. En réalité, de nouvelles méthodes de manipulation de la vérité ont toujours existé, et le fait de se concentrer constamment sur les technologies de pointe est, au final, une partie perdue d'avance. Nous devrions plutôt nous intéresser aux raisons pour lesquelles ces contenus sont créés et comment ils se propagent, c'est-à-dire nous concentrer sur les facteurs sociaux qui sous-tendent la diffusion de récits fallacieux.
« La technologie des deepfakes est moralement douteuse, mais pas intrinsèquement mauvaise. »
Dans ses travaux de recherche, Adrienne de Ruiter, éthicienne et philosophe politique, a émis l'avis que « l'expression non consentie d'une personne », « l'acte délibéré de tromper le spectateur » et « l'intention malveillante » sont autant d'éléments qui rendent le résultat de cette technologie immoral. Elle a ainsi démontré que l'intention humaine, à savoir le créateur et le spectateur, détachés de la technologie elle-même, est l'entité à surveiller. En particulier, les contenus deepfakes ciblant des personnes ayant une influence sociale relativement importante, comme les célébrités ou les personnalités politiques, sont difficiles à réglementer en termes d'intention du créateur.
Alors, comment devons-nous élaborer des solutions de rechange pour l'avenir ? Deux axes principaux peuvent être envisagés.
Premièrement, nous devons prendre conscience et accepter que nous sommes des êtres qui évoluent dans un monde de caméras et de systèmes de reconnaissance. L'auteur de cet article, comme vous qui le lisez, passe la majeure partie de sa vie quotidienne devant un téléphone portable ou un ordinateur portable équipé d'une caméra.Du point de vue du système, le comportement humain est une matière première pour les algorithmes.
Une caméra qui vérifie si un enfant est bien pris en charge n'existe pas seulement pour promouvoir une relation idéale entre parents et nourrices, mais aussi pour représenter un agent non humain qui apprend et met en œuvre l'intention de restreindre l'homme. La conscience que nous vivons avec ces nouveaux agents peut nous aider à gérer et à faire face aux intentions immorales liées aux deepfakes.
Deuxièmement, il est nécessaire de créer et de diffuser une éducation relative aux deepfakes au niveau communautaire. Nous avons tendance à rechercher un sentiment d'appartenance au sein de liens faibles au sein d'un système numérique. Il s'agit d'un phénomène lié à l'absence de sentiment d'appartenance à des groupes sociaux renforcée par la pandémie, et à l'envie de croire qu'on est connecté à des personnes invisibles en fonction de ses goûts ou de ses centres d'intérêt. La vérification incessante de TikTok jusqu'à 2 heures du matin, les consultations fréquentes de la Wikipédia, qui n'est pas réputée pour sa fiabilité, les vérifications continues des stories sur Instagram, ou encore la négligence d'un groupe de discussion dont on ne se soucie pas sont autant d'exemples de ce phénomène.
Les deepfakes ont tendance à stimuler ce sentiment d'appartenance issu de liens faibles, mais comme ils ne reflètent pas un intérêt profond pour la personne concernée, il est relativement facile de réduire l'influence de ces contenus. Si la vérification de l'authenticité des contenus deepfakes visant à discréditer un homme politique était difficile pour les particuliers, un projet a permis à un parti politique de distinguer le faux du vrai, ce qui prouve que des programmes éducatifs basés sur les points de vue, les valeurs et les pratiques d'une communauté peuvent être une solution de rechange efficace. Cela signifie également que les entreprises de plateformes de partage de contenus deepfakes peuvent créer des opportunités stratégiques en proposant des solutions spécifiques à leurs communautés d'utilisateurs.
D'un côté, on trouve des exemples positifs d'utilisation des technologies deepfakes, comme le film « Fast and Furious », qui a ressuscité Paul Walker, décédé dans un accident, en utilisant la doublure de son propre frère et en lui superposant son visage. De l'autre, on constate que des événements réels se produisent, comme la destruction de la vie d'une journaliste à la suite d'une fausse vidéo de relation sexuelle qui la visait.
Il est important de se rappeler que les acteurs du cinéma sont actuellement les personnes les plus protégées contre les technologies deepfakes. La société actuelle ne semble pas encore en mesure de répondre à la question de savoir comment réagir lorsque la cible est un simple citoyen. Avant de miser sur une réglementation juridique, il me semble que la prise de conscience de notre propre comportement, notamment lorsque nous regardons des contenus deepfakes sur des plateformes comme TikTok, est la première étape indispensable.
*Cet article est la version originale de l'article publié le 14 février 2023 dansla chronique du journal électronique.
Références
Commentaires0