Byungchae Ryan Son

L'ère du brand algorithmique est arrivée

Création: 2024-05-10

Création: 2024-05-10 14:43

"Nous savons que l'humanité pourrait décider de chasser et de tuer tous les chimpanzés."


Lors d'une interview accordée à Fox News le 14 avril dernier, Elon Musk a évoqué son projet de développement d'une IA axée sur la recherche de la vérité, TruthGPT (TruthGPT), et a exprimé ses inquiétudes quant à l'attitude future de l'intelligence artificielle envers les humains en utilisant l'exemple des chimpanzés, une façon plus intuitive que jamais de transmettre le message au grand public. Cette formulation prend une dimension encore plus réaliste au vu des critiques et des controverses liées à la maltraitance animale auxquelles est confrontée Neuralink, la startup de neurosciences qu'il a fondée en 2016, qui a été accusée d'avoir infligé des souffrances extrêmes à des singes lors d'expériences d'implantation de puces informatiques dans leur cerveau, entraînant leur mort.

L'ère du brand algorithmique est arrivée

Un singe avec une puce Neuralink implantée dans son cerveau. The Verge


Comme son nom l'indique, TruthGPT semble être technologiquement lié à ChatGPT, et il est encore considéré comme étant au stade initial de sa conception pour devenir une troisième option distincte de Bard de Google et de ChatGPT d'Open AI. Toutefois, la justification de ce nouveau développement de l'IA, à savoir qu'en créant une IA qui s'efforce de comprendre la nature de l'univers, on réduit les risques qu'elle finisse par anéantir les humains, une partie fascinante de l'univers, est un argument tout à fait convaincant. En effet, le principal danger que craint Elon Musk concernant l'intelligence artificielle est son potentiel de destruction de la civilisation.


Le 14 avril, lors d'une interview avec CBS, Sundar Pichai, PDG de Google, a prédit que tous les produits de toutes les entreprises seraient affectés par l'évolution rapide de l'IA et a mis en garde la société contre la nécessité de se préparer à l'évolution des technologies existantes. Toutefois, il a admis que Google ne comprenait pas parfaitement comment l'IA produisait certaines réponses. En réponse à la question du présentateur sur la façon dont Google pouvait déployer l'IA dans la société dans un tel état, il a répondu que nous ne comprenions pas parfaitement le fonctionnement de l'esprit humain.


En février 2000, lors d'une conférence internationale sur l'environnement à Mexico, Paul Crutzen, chimiste atmosphérique néerlandais et lauréat du prix Nobel de chimie pour sa découverte du trou dans la couche d'ozone, a déclaré que nous vivions désormais à l'Anthropocène. L'Anthropocène est une époque géologique marquée par l'influence humaine sur l'environnement terrestre, qui, d'après les changements atmosphériques, est définie comme l'ère commençant avec la révolution industrielle, où l'humanité a eu un impact majeur sur l'environnement terrestre. Ainsi, le pouvoir de détruire l'environnement terrestre ou de décider du sort d'autres espèces dans le cadre du développement de la civilisation humaine provient de l'intelligence humaine. Cependant, l'intelligence artificielle (IA) est apparue, et nous nous retrouvons face à une situation où nous devons gérer une entité nouvelle et potentiellement la plus menaçante, sans avoir d'expérience préalable en la matière.


Le 26 mars dernier, Sam Altman, le directeur d'Open AI, a participé au podcast du chercheur en IA Lex Fridman, où il a déclaré que l'objectif était de créer une intelligence artificielle générale (IAG) plus performante que le niveau actuel dans les plus brefs délais. Il a expliqué que l'émergence d'une superintelligence pourrait se produire de manière soudaine et rapide, et que la meilleure solution pour l'humanité était de créer rapidement une IAG plus performante que l'IA actuelle afin de pouvoir créer une IA conviviale pendant la longue période qui suivrait avant qu'elle n'atteigne la superintelligence.


Ces trois personnalités, qui sont les plus citées dans la guerre de l'IA qui fait rage actuellement dans le monde, manifestent un intérêt commun pour la question de la vie humaine en compagnie de l'IA. Toutefois, il ne faut pas oublier que l'objectif ultime de leurs discours est la création d'un système informatique capable de se comporter d'une certaine manière, c'est-à-dire de l'IA. Ce modèle innovant est impitoyablement axé sur la machine et les données, et les personnes qui étaient importantes dans le monde d'avant peuvent être de plus en plus décrites comme des fournisseurs d'entrées comportementales pour satisfaire les besoins en données de systèmes plus autonomes. C'est pourquoi, paradoxalement, il sera encore plus important à l'avenir de rediriger l'attention et la discussion sur la vérité évoquées par Musk vers l'humanité. Il est nécessaire de discuter de ce qui pourrait servir de critères et de méthodes pour aider les personnes dont les professions sont en voie de disparition à réaffirmer et à exercer plus activement leur subjectivité, de savoir si les humains peuvent toujours être les auteurs du sens de leurs expériences, et de quels sujets devraient traiter les dispositifs institutionnels et les communautés pour éviter d'oublier cette prise de conscience.


Le branding est une déclaration selon laquelle on se tient sur le même chemin que ses clients cibles. Peut-être assistons-nous actuellement à trois tentatives de branding d'algorithmes d'IA basées sur la survie de l'espèce humaine. Parmi le « changement d'orientation vers l'espace » de Musk pour la préservation de l'humanité, l'« adaptation sociale à l'ère des fausses informations et des informations erronées » de Pichai et le « calendrier de développement de l'IA conviviale » d'Altman, quel algorithme préférez-vous ?



*Cet article est la version originale de l'article publié le 24 avril 2023 dans la chronique signée d'Electron Times.


Références


Commentaires0