Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Ceci est un post traduit par IA.

Byungchae Ryan Son

L'évolution de notre relation avec les algorithmes

Choisir la langue

  • Français
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texte résumé par l'IA durumis

  • L'IA générative, dont ChatGPT, est en train de devenir suffisamment puissante pour remplacer le rôle des humains, soulevant des questions de violation des droits des créateurs et de la nécessité de repenser notre relation avec les algorithmes.
  • Les algorithmes influencent de nombreux aspects de notre vie, et nous sommes conscients de leur existence, nous les trouvons fascinants et les reconnaissons comme des entités actives.
  • L'IA générative, en particulier, s'appuie sur des contenus existants pour produire des résultats en fonction des besoins de l'utilisateur, ce qui nous oblige à redéfinir notre relation avec les algorithmes d'IA et à réfléchir à nos responsabilités éthiques.

« Nous avons maintenant des modèles d'IA qui analysent le langage humain pour extraire des modèles du monde. »


Le mois dernier, le 19, lors d'un événement de charité à Ontario, au Canada, le professeur Jordan Peterson, clinicien en psychologie à l'Université de Toronto, a évoqué la tension nouvelle qui se créera entre l'homme et les algorithmes à l'avenir, en s'appuyant sur des exemples d'utilisation de ChatGPT, qui connaît un succès fulgurant. Le professeur Peterson a averti que les IA génératives, qui sont des modèles de traitement du langage de grande taille, deviendront si intelligentes qu'elles pourront utiliser des images et des mouvements pour extraire des schémas par elles-mêmes, puis tester ces schémas dans le monde, exécutant en quelques secondes le travail de scientifiques humains.


GPT-3, DALL-E, StableDiffusion sont désormais à la base de la quasi-totalité des systèmes d'IA et ils rendent la transition vers un paradigme de l'IA plus tangible. Ces systèmes puissants qui génèrent des images et du texte selon les besoins des utilisateurs créent inévitablement des conflits avec les créateurs déjà présents dans les industries. En novembre dernier, GitHubCopilot, une société de Microsoft, a fait face à une action collective accusant la société d'avoir violé les droits légaux de nombreux auteurs qui ont publié du code sous licence open source pour la formation de l'IA. En outre, la Recording Industry Association of America (RIAA) a déclaré en octobre dernier dans un communiqué que la création et le remixage de musique basés sur l'IA pourraient menacer les droits et les finances des musiciens.


Ces exemples nous rappellent la question de savoir si le recours à des ensembles de données basés sur des documents protégés par des droits d'auteur pour entraîner des systèmes et produire des résultats est vraiment équitable pour tous. Toutefois, il convient de noter que ces controverses se concentrent en grande partie sur les aspects axés sur les nouvelles technologies. En fin de compte, étant donné que l'homme est celui qui saisit du texte dans les modèles d'IA afin d'obtenir le résultat souhaité, il est peut-être plus important de se concentrer sur la manière dont l'homme doit interagir avec les algorithmes à l'avenir.


Les algorithmes sont déjà un élément constitutif de la création de notre monde, au même titre que les humains. Depuis longtemps, nous avons réfléchi à de nombreuses formes de surveillance sociale pour lutter contre l'opacité des algorithmes. Nous savons en particulier qu'il est difficile d'évaluer qui est responsable en cas de manque de transparence, et nous sommes inquiets de la persistance des biais cachés qui pourraient conduire à des résultats injustes. La question « comment devons-nous traiter les algorithmes » est donc peut-être la plus importante, et nous pouvons trouver des indices dans notre relation avec les algorithmes de génération de contenu, une relation que nous connaissons bien.


Premièrement,nous sommes conscients de l'existence des algorithmes. Les termes « recommandations » et « choix » que l'on retrouve souvent dans les conversations sur le contenu et la publicité témoignent de la façon dont les gens construisent leur vocabulaire autour des algorithmes dans les achats en ligne ou sur les médias sociaux. En outre,nous sommes curieux des algorithmes. Lorsque la page principale de YouTube est remplie de contenu d'une catégorie particulière, ou lorsque l'on estime que la visibilité de son contenu est insuffisante, on exprime souvent son intérêt pour les algorithmes par des réactions négatives.


Enfin,nous voulons que les algorithmes existent pour nous, comme des êtres actifs et vivants. Pour acquérir de nouvelles habitudes, pour apprendre, pour se souvenir, nous comptons sur les algorithmes et nous tentons de les contrôler entièrement. Que ce soit en utilisant des hashtags qui n'ont rien à voir avec le sujet, en activant le mode « Ne pas déranger » ou en envoyant des commentaires sur les options publicitaires. Et lorsque tous ces efforts échouent, nous essayons de rompre avec les algorithmes en pratiquant une désintoxication numérique ou en consommant du contenu de newsletter.


En résumé, les gens ont tendance à manifester un manque de confiance, une mauvaise évaluation et un comportement obsédé par le passé lorsque leurs relations avec les algorithmes ne se déroulent pas comme ils le souhaitent. Et cela ressemble beaucoup à nosrelations socialesquotidiennes. De plus, si la relation avec les algorithmes de génération de contenu était auparavant unilatérale et centrée sur la « consommation », la relation avec les algorithmes d'IA basés sur le traitement du langage de grande taille est aujourd'hui plus bilatérale et axée sur la « création ». Le fait que les résultats souhaités par l'utilisateur ne soient pas entièrement originaux et soient basés sur les créations d'autres personnes dans le monde implique qu'il est nécessaire de modifier fondamentalement notre approche et notre attitude envers les algorithmes d'IA génératifs.


Même si la fenêtre de ChatGPT est ouverte, les algorithmes d'IA attendent. Peut-être est-ce leur incroyable puissance qui les masque, mais il se peut que lorsqu'on écrit quelque chose, ils aident simplement à faire éclore une relation sociale cachée avec quelqu'un d'autre dans notre monde.


* Cet article est la version originale de l'article publié le 9 janvier 2023 dansColonne de l'Electronic Times .


Références


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
L'IA générative en 2023, le sens humain après 2023 a été une année de changements importants pour l'IA, qui a dominé l'ensemble de l'industrie technologique, avec des transitions vers des plateformes d'IA générative, une familiarisation croissante du public et des accords sur des lois réglementant l'

16 mai 2024

Le corps du travail est 'Hybrid'. OpenAI, le développeur de ChatGPT, est devenu le 17e site Web le plus populaire au monde en mai, enregistrant plus de visites que Netflix et LinkedIn. En particulier, le lancement de l'application mobile a permis à l'IA générative de sortir des limites ph

13 mai 2024

Le 'corps' à l'ère de l'IA : regarder le corps humain au-delà de l'écran La fin du contrat de licence entre UMG et TikTok a suscité des discussions sur les progrès de la technologie de l'IA et les changements sociaux qui en résultent. Du point de vue évolutionniste de Darwin, la prédiction de l'autonomie de l'IA met en garde c

16 mai 2024

L'IA de génération d'images, une technologie révolutionnaire et ses défis réels L'IA de génération d'images est une technologie révolutionnaire qui permet de créer des images réalistes à partir de simples entrées de texte. Elle est utilisée dans divers domaines tels que l'art, le design et le marketing, mais elle pose également des p
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 mai 2024

Qu'est-ce qu'un modèle linguistique de grande taille (LLM) ? Les modèles linguistiques de grande taille (LLM) sont une technologie clé de l'intelligence artificielle qui apprend à partir d'un ensemble de données textuelles volumineux pour acquérir des capacités de traitement du langage similaires à celles des humai
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 avril 2024

Mon avenir personnel à court terme L'IA transformera considérablement l'avenir des développeurs. Bien que l'IA puisse automatiser des tâches simples telles que la création de prototypes et le développement front-end, les développeurs compétents se concentreront sur la résolution de problèm
Mark Ball Blog
Mark Ball Blog
Image de l'avenir selon mes réflexions personnelles
Mark Ball Blog
Mark Ball Blog

26 mars 2024

L'écriture est une compétence essentielle à l'ère de l'IA. Découvrez comment exploiter la puissance des données et du temps pour devenir un producteur. Préparez l'avenir avec l'écriture de blog et rejoignez l'ère de l'IA.
카니리 @khanyli
카니리 @khanyli
카니리 @khanyli
카니리 @khanyli

11 juin 2024

Les malentendus et les vérités sur les textes écrits par l'IA générative Google exclut des résultats de recherche le contenu de faible qualité, y compris le contenu généré par l'IA. Même si vous utilisez l'IA, la qualité du contenu est importante, et le simple copier-coller peut être considéré comme de faible qualité. En d'aut
durumis official blog
durumis official blog
Image FAQ de Durumis
durumis official blog
durumis official blog

21 février 2024

L'avenir et les perspectives de l'intelligence artificielle, selon l'IA ! L'intelligence artificielle (IA) transforme de nombreux aspects de notre vie et a un impact considérable sur la vie quotidienne, l'industrie et les structures économiques. Cet article traite de l'histoire de l'IA, des cas d'utilisation actuels, des perspe
qed
qed
qed
qed

17 juin 2024