Byungchae Ryan Son

L'évolution de notre relation avec les algorithmes

Création: 2024-05-09

Création: 2024-05-09 15:01

« Nous disposons désormais de modèles d'IA capables d'analyser le langage humain et d'en extraire des modèles du monde. »


Le 19 du mois dernier, lors d'un événement caritatif organisé à Ontario, au Canada, le professeur Jordan Peterson, clinicien et psychologue à l'université de Toronto, a évoqué les récents cas d'utilisation de ChatGPT et la nouvelle tension que les algorithmes créeront avec les humains à l'avenir. Le professeur Peterson a averti que les modèles de langage de grande taille, ou IA générative, deviendront bientôt suffisamment intelligents pour exploiter des images et des mouvements afin d'extraire des schémas par eux-mêmes, puis de les tester dans le monde réel, effectuant ainsi le travail des scientifiques humains en quelques secondes.


GPT-3, DALL-E, StableDiffusion, etc., sont désormais à la base de presque tous les systèmes d'IA et matérialisent le changement de paradigme de l'IA. Et ces puissants systèmes, qui génèrent des images et des textes en fonction des besoins de l'utilisateur, provoquent inévitablement des conflits avec les créateurs existants au sein des industries existantes. En novembre dernier, GitHub Copilot de Microsoft a fait face à une action collective alléguant que le système violait les droits légaux de nombreux auteurs qui avaient publié du code sous licence open source pour l'apprentissage de l'IA. En outre, la Recording Industry Association of America (RIAA) a déclaré dans un communiqué publié en octobre que la génération et le remixage de musique basés sur l'IA pourraient menacer les droits des musiciens ainsi que leur situation financière.


Ces exemples nous rappellent la question de savoir si les méthodes d'entraînement des systèmes et de production de résultats à partir d'ensembles de données protégés par le droit d'auteur sont « justes pour tous ». Cependant, il est important de noter que ces controverses se concentrent largement sur le côté nouveau et axé sur la technologie. En fin de compte, étant donné que l'utilisateur est celui qui saisit du texte dans le modèle d'IA afin d'obtenir le résultat souhaité, nous devons nous préoccuper davantage de la manière dont les humains doivent interagir avec les algorithmes à l'avenir.


Les algorithmes sont déjà un pilier de la génération de notre monde, au même titre que les humains. Nous avons longtemps réfléchi à la surveillance sociale liée à l'opacité des algorithmes. En particulier, nous savions qu'il était difficile de déterminer qui était responsable en cas de manque de transparence, et nous craignions que les biais cachés ne persistent et n'entraînent des résultats inéquitables. Par conséquent, la question de « comment devons-nous traiter les algorithmes ? » est peut-être la plus importante, et nous pouvons trouver des indices dans notre relation avec les algorithmes de génération de contenu (content-generating algorithm), que nous connaissons déjà.


Premièrement,nous sommes conscients de l'existence des algorithmes. Les termes « recommandation » et « sélection », qui apparaissent fréquemment dans les conversations sur le contenu et la publicité, révèlent que les gens construisent leur vocabulaire autour des algorithmes dans le contexte du shopping en ligne ou des médias sociaux. De plus,nous sommes curieux à propos des algorithmes. Lorsque la page d'accueil de YouTube est remplie de contenus d'une catégorie particulière ou lorsque nous estimons que la visibilité de nos publications n'est pas suffisante, nous exprimons souvent notre curiosité à l'égard des algorithmes par des réactions négatives.


Enfin,nous voulons que les algorithmes soient actifs et vivants, et qu'ils existent pour nous. Nous nous appuyons sur les algorithmes pour créer de nouvelles habitudes, apprendre et nous souvenir des choses, et nous essayons parfois de les contrôler complètement. Que ce soit par des tentatives d'utilisation de hashtags non pertinents, l'activation du mode Ne pas déranger ou l'envoi de commentaires sur les options publicitaires. Et lorsque tous ces efforts échouent, nous essayons de rompre avec les algorithmes, par exemple en optant pour une détox numérique ou en lisant des newsletters.


En résumé, lorsque les gens ne parviennent pas à interagir avec les algorithmes comme ils le souhaitent, ils ont tendance à montrer un manque de confiance, à émettre des évaluations négatives et à se laisser submerger par le passé. Et cela ressemble beaucoup à nos relations « sociales » quotidiennes. De plus, si la relation avec les algorithmes de génération de contenu existants était principalement unilatérale dans le domaine de la « consommation », la relation avec les modèles de langage de grande taille actuels, ou algorithmes d'IA, peut être définie comme une relation bidirectionnelle dans le domaine de la « génération ». Étant donné que les résultats demandés par l'utilisateur ne sont pas entièrement originaux et reposent sur les créations de quelqu'un d'autre dans le monde, nous devons prendre conscience que notre approche et notre attitude envers les algorithmes d'IA génératifs doivent fondamentalement changer.


Même si la fenêtre de ChatGPT est ouverte, l'algorithme d'IA attend simplement. Peut-être que sa formidable capacité ne fait que masquer le fait que, lorsque vous écrivez quelque chose, il ne fait que faciliter l'épanouissement d'une relation sociale cachée avec une autre personne de votre monde.


*Cet article est la version originale de l'article publié le 9 janvier 2023 dans la chronique signée du journal électronique.


Références


Commentaires0