Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Ceci est un post traduit par IA.

Byungchae Ryan Son

Le paradoxe des modèles d'IA de pointe : la transparence

Choisir la langue

  • Français
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texte résumé par l'IA durumis

  • Des chercheurs de l'Université de Stanford ont analysé 10 systèmes d'IA de pointe, y compris GPT-4, et ont découvert que les modèles manquaient de transparence en ce qui concerne les ensembles de données, les méthodes d'apprentissage, etc.
  • En particulier, les principales entreprises d'IA telles qu'OpenAI et Google ont adopté une attitude réticente à la publication de données car elles poursuivent un modèle commercial axé sur les revenus, ce qui pourrait entraver le développement de la technologie de l'IA et conduire à un avenir monopoliste.
  • Les experts affirment qu'il est nécessaire d'améliorer la transparence des modèles d'IA afin d'assurer la reproductibilité et de renforcer la responsabilité sociale, tout en appelant à un consensus social et à des discussions réglementaires parallèlement au développement de la technologie de l'IA.

Le 18 août, une étude publiée par des chercheurs de l'Université de Stanford a montré à quel point les secrets des systèmes d'IA de pointe comme GPT-4 et d'autres sont profonds et potentiellement dangereux.

Présentation de l'indice de transparence des modèles fondamentaux, Université de Stanford


Ils ont examiné un total de 10 systèmes d'IA différents, la plupart étant des modèles linguistiques de grande taille, comme ceux utilisés dans ChatGPT et d'autres chatbots. Cela comprend des modèles commerciaux largement utilisés tels que GPT-4 d'OpenAI, PaLM 2 de Google et Titan Text d'Amazon, et ils ont évalué l'ouverture en fonction de 13 critères, y compris la transparence avec laquelle les développeurs ont divulgué les données utilisées pour entraîner les modèles (méthodes de collecte et d'annotation des données, inclusion de matériel protégé par le droit d'auteur, etc.). Ils ont également étudié si les détails sur le matériel utilisé pour entraîner et exécuter les modèles, les frameworks logiciels utilisés et la consommation énergétique du projet étaient publics.


Les résultats ont révélé qu'aucun modèle d'IA n'a obtenu plus de 54 % sur l'échelle de transparence sur tous les critères mentionnés. Globalement, Titan Text d'Amazon a été classé comme le moins transparent, tandis que Llama 2 de Meta a été jugé le plus ouvert. Il est intéressant de noter que Llama 2, qui est un modèle de pointe en termes d'ouverture et de fermeture, est un modèle open source, mais n'a pas divulgué les données utilisées pour l'entraînement, les méthodes de collecte et de conservation des données, etc. En d'autres termes, malgré l'influence croissante de l'IA sur notre société, la nature opaque de l'industrie est une tendance générale et continue.


Cela signifie que l'industrie de l'IA risque de devenir un domaine axé sur les profits plutôt que sur le progrès scientifique, ce qui pourrait conduire à un avenir dominé par des entreprises spécifiques et exclusif.

Eric Lee/Bloomberg via Getty Images


Sam Altman, PDG d'OpenAI, a déjà rencontré des décideurs du monde entier pour leur expliquer cette nouvelle intelligence étrange et a publiquement exprimé sa volonté d'aider à préciser les réglementations en la matière. Cependant, bien qu'il soutienne en principe l'idée d'une organisation internationale de surveillance de l'IA, il estime que certaines règles limitées, comme l'interdiction de tout matériel protégé par le droit d'auteur dans les ensembles de données, pourraient constituer un obstacle injuste. C'est une preuve que l'ouverture d'OpenAI, comme l'indique le nom de l'entreprise, s'est éloignée de la transparence radicale qu'elle préconisait à ses débuts.


Cependant, il est également important de noter que les résultats du rapport de Stanford montrent qu'il n'est pas nécessaire de garder ses modèles aussi secrets par souci de concurrence. En effet, les résultats sont également un indicateur de la faiblesse de la plupart des entreprises. Par exemple, aucune entreprise ne fournirait de statistiques sur le nombre d'utilisateurs qui dépendent de ses modèles ni sur les régions ou les segments de marché qui les utilisent.


Au sein des organisations basées sur l'open source, il existe un dicton : « Plus il y a d'yeux, plus il y a de bugs ». (Loi de Linus) Les chiffres bruts aident à identifier les problèmes qui peuvent être résolus et corrigés.


Cependant, les pratiques open source ont également tendance à faire perdre progressivement leur statut social et leur reconnaissance aux entreprises publiques, à l'intérieur et à l'extérieur. Il n'est donc pas très pertinent de les mettre en avant de manière absolue. Plutôt que de se limiter au cadre du modèle ouvert ou fermé, il serait plus judicieux de concentrer les discussions sur l'amélioration progressive de l'accès externe aux données qui sont à la base des modèles d'IA.


Pour le progrès scientifique, il est important de garantir la reproductibilité, c'est-à-dire de vérifier si un résultat de recherche particulier se reproduit. Cela permettra de définir des moyens d'assurer la transparence des principaux éléments constitutifs de la création de chaque modèle, faute de quoi l'industrie risque de stagner dans une situation exclusive et fermée. Et cela est un élément essentiel qui doit être pris en compte en priorité, compte tenu de la pénétration croissante de l'IA dans l'ensemble de l'industrie, tant aujourd'hui que demain.


Il est devenu essentiel pour les journalistes et les scientifiques de comprendre les données, et la transparence est une condition préalable pour les efforts politiques à venir. Pour le grand public, la transparence est également importante, car en tant qu'utilisateur final des systèmes d'IA, il peut être à la fois un auteur et une victime de problèmes potentiels liés aux droits de propriété intellectuelle, à la consommation énergétique et aux biais. Sam Altman soutient que le risque d'extinction de l'humanité par l'IA devrait être considéré comme une priorité mondiale, au même titre que les autres dangers à l'échelle de la société, comme les épidémies ou les armes nucléaires. Cependant, il ne faut pas oublier que, avant d'atteindre ce point, la survie de notre société dépend de notre capacité à maintenir une relation saine avec l'IA en évolution.


* Cet article est la version originale de l'éditorial qui a été publié dans le journal électronique le 23 octobre 2023.


Références


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Le drame de la gouvernance d'OpenAI, l'avenir éthique de l'IA Le licenciement du PDG d'OpenAI, Sam Altman, par le conseil d'administration, suivi de son retour cinq jours plus tard, révèle la structure particulière d'OpenAI, qui se présente comme une mission pour l'humanité, ainsi que les inquiétudes concernant les

14 mai 2024

L'IA générative en 2023, le sens humain après 2023 a été une année de changements importants pour l'IA, qui a dominé l'ensemble de l'industrie technologique, avec des transitions vers des plateformes d'IA générative, une familiarisation croissante du public et des accords sur des lois réglementant l'

16 mai 2024

Le corps du travail est 'Hybrid'. OpenAI, le développeur de ChatGPT, est devenu le 17e site Web le plus populaire au monde en mai, enregistrant plus de visites que Netflix et LinkedIn. En particulier, le lancement de l'application mobile a permis à l'IA générative de sortir des limites ph

13 mai 2024

AI Full Stack : Une réalisation open source De nouveaux modèles LLM (grands modèles linguistiques) open source apparaissent dans l'écosystème AI. Des modèles puissants comme Mistral, Llama et phi-2, dotés de performances élevées et de licences ouvertes, ont été publiés, et divers outils sont en cou
RevFactory
RevFactory
RevFactory
RevFactory

5 février 2024

Mr. Know-All – 2023.7 Le premier numéro du magazine mensuel d'IA "Mr. Know-All" de juillet 2023 présente Claude 2, Azure OpenAI, LangChain, LlamaIndex et d'autres technologies et tendances d'IA de pointe. En particulier, il fournit une description détaillée de LlamaIndex, qui
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 mars 2024

Snowflake lance "Arctic", un LLM d'entreprise à la pointe de l'ouverture du secteur Snowflake a lancé "Arctic", un modèle linguistique de grande taille (LLM) open source. Disponible gratuitement pour un usage commercial sous licence Apache 2.0, Arctic se distingue par ses performances et son efficacité de pointe dans le secteur. Offrant
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 avril 2024

Mr. Know-All 2 – Août 2023 Cet article traite de la manière de gérer les fichiers PDF pour l'apprentissage des LLM à partir de données internes à l'entreprise. Il explique le processus d'intégration des vecteurs FAISS et ChromaDB à l'aide d'OpenAI API, LangChain et Streamlit. Il fo
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 mars 2024

Splunk publie un rapport sur l'état de la sécurité en 2024 Selon le rapport sur l'état de la sécurité de Splunk en 2024, 93 % des entreprises utilisent l'IA générative, mais 34 % n'ont pas encore élaboré de politiques. L'IA générative offre de nouvelles opportunités aux responsables de la sécurité et aux attaquan
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

13 mai 2024

Qu'est-ce qu'un modèle linguistique de grande taille (LLM) ? Les modèles linguistiques de grande taille (LLM) sont une technologie clé de l'intelligence artificielle qui apprend à partir d'un ensemble de données textuelles volumineux pour acquérir des capacités de traitement du langage similaires à celles des humai
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 avril 2024