![translation](https://cdn.durumis.com/common/trans.png)
Ceci est un post traduit par IA.
Le paradoxe des modèles d'IA de pointe : la transparence
- Langue de rédaction : Coréen
- •
-
Pays de référence : Tous les pays
- •
- Technologies de l'information
Choisir la langue
Texte résumé par l'IA durumis
- Des chercheurs de l'Université de Stanford ont analysé 10 systèmes d'IA de pointe, y compris GPT-4, et ont découvert que les modèles manquaient de transparence en ce qui concerne les ensembles de données, les méthodes d'apprentissage, etc.
- En particulier, les principales entreprises d'IA telles qu'OpenAI et Google ont adopté une attitude réticente à la publication de données car elles poursuivent un modèle commercial axé sur les revenus, ce qui pourrait entraver le développement de la technologie de l'IA et conduire à un avenir monopoliste.
- Les experts affirment qu'il est nécessaire d'améliorer la transparence des modèles d'IA afin d'assurer la reproductibilité et de renforcer la responsabilité sociale, tout en appelant à un consensus social et à des discussions réglementaires parallèlement au développement de la technologie de l'IA.
Le 18 août, une étude publiée par des chercheurs de l'Université de Stanford a montré à quel point les secrets des systèmes d'IA de pointe comme GPT-4 et d'autres sont profonds et potentiellement dangereux.
Présentation de l'indice de transparence des modèles fondamentaux, Université de Stanford
Ils ont examiné un total de 10 systèmes d'IA différents, la plupart étant des modèles linguistiques de grande taille, comme ceux utilisés dans ChatGPT et d'autres chatbots. Cela comprend des modèles commerciaux largement utilisés tels que GPT-4 d'OpenAI, PaLM 2 de Google et Titan Text d'Amazon, et ils ont évalué l'ouverture en fonction de 13 critères, y compris la transparence avec laquelle les développeurs ont divulgué les données utilisées pour entraîner les modèles (méthodes de collecte et d'annotation des données, inclusion de matériel protégé par le droit d'auteur, etc.). Ils ont également étudié si les détails sur le matériel utilisé pour entraîner et exécuter les modèles, les frameworks logiciels utilisés et la consommation énergétique du projet étaient publics.
Les résultats ont révélé qu'aucun modèle d'IA n'a obtenu plus de 54 % sur l'échelle de transparence sur tous les critères mentionnés. Globalement, Titan Text d'Amazon a été classé comme le moins transparent, tandis que Llama 2 de Meta a été jugé le plus ouvert. Il est intéressant de noter que Llama 2, qui est un modèle de pointe en termes d'ouverture et de fermeture, est un modèle open source, mais n'a pas divulgué les données utilisées pour l'entraînement, les méthodes de collecte et de conservation des données, etc. En d'autres termes, malgré l'influence croissante de l'IA sur notre société, la nature opaque de l'industrie est une tendance générale et continue.
Cela signifie que l'industrie de l'IA risque de devenir un domaine axé sur les profits plutôt que sur le progrès scientifique, ce qui pourrait conduire à un avenir dominé par des entreprises spécifiques et exclusif.
Eric Lee/Bloomberg via Getty Images
Sam Altman, PDG d'OpenAI, a déjà rencontré des décideurs du monde entier pour leur expliquer cette nouvelle intelligence étrange et a publiquement exprimé sa volonté d'aider à préciser les réglementations en la matière. Cependant, bien qu'il soutienne en principe l'idée d'une organisation internationale de surveillance de l'IA, il estime que certaines règles limitées, comme l'interdiction de tout matériel protégé par le droit d'auteur dans les ensembles de données, pourraient constituer un obstacle injuste. C'est une preuve que l'ouverture d'OpenAI, comme l'indique le nom de l'entreprise, s'est éloignée de la transparence radicale qu'elle préconisait à ses débuts.
Cependant, il est également important de noter que les résultats du rapport de Stanford montrent qu'il n'est pas nécessaire de garder ses modèles aussi secrets par souci de concurrence. En effet, les résultats sont également un indicateur de la faiblesse de la plupart des entreprises. Par exemple, aucune entreprise ne fournirait de statistiques sur le nombre d'utilisateurs qui dépendent de ses modèles ni sur les régions ou les segments de marché qui les utilisent.
Au sein des organisations basées sur l'open source, il existe un dicton : « Plus il y a d'yeux, plus il y a de bugs ». (Loi de Linus) Les chiffres bruts aident à identifier les problèmes qui peuvent être résolus et corrigés.
Cependant, les pratiques open source ont également tendance à faire perdre progressivement leur statut social et leur reconnaissance aux entreprises publiques, à l'intérieur et à l'extérieur. Il n'est donc pas très pertinent de les mettre en avant de manière absolue. Plutôt que de se limiter au cadre du modèle ouvert ou fermé, il serait plus judicieux de concentrer les discussions sur l'amélioration progressive de l'accès externe aux données qui sont à la base des modèles d'IA.
Pour le progrès scientifique, il est important de garantir la reproductibilité, c'est-à-dire de vérifier si un résultat de recherche particulier se reproduit. Cela permettra de définir des moyens d'assurer la transparence des principaux éléments constitutifs de la création de chaque modèle, faute de quoi l'industrie risque de stagner dans une situation exclusive et fermée. Et cela est un élément essentiel qui doit être pris en compte en priorité, compte tenu de la pénétration croissante de l'IA dans l'ensemble de l'industrie, tant aujourd'hui que demain.
Il est devenu essentiel pour les journalistes et les scientifiques de comprendre les données, et la transparence est une condition préalable pour les efforts politiques à venir. Pour le grand public, la transparence est également importante, car en tant qu'utilisateur final des systèmes d'IA, il peut être à la fois un auteur et une victime de problèmes potentiels liés aux droits de propriété intellectuelle, à la consommation énergétique et aux biais. Sam Altman soutient que le risque d'extinction de l'humanité par l'IA devrait être considéré comme une priorité mondiale, au même titre que les autres dangers à l'échelle de la société, comme les épidémies ou les armes nucléaires. Cependant, il ne faut pas oublier que, avant d'atteindre ce point, la survie de notre société dépend de notre capacité à maintenir une relation saine avec l'IA en évolution.
* Cet article est la version originale de l'éditorial qui a été publié dans le journal électronique le 23 octobre 2023.
Références