Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Ceci est un post traduit par IA.

Byungchae Ryan Son

Le drame de la gouvernance d'OpenAI, l'avenir éthique de l'IA

Choisir la langue

  • Français
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texte résumé par l'IA durumis

  • Le licenciement puis le retour au poste de PDG de Sam Altman, PDG d'OpenAI, par le conseil d'administration, est un événement qui montre la structure particulière de l'organisation non lucrative à but lucratif d'OpenAI et l'accent mis par le conseil sur la sécurité.
  • Cet événement a intensifié l'intérêt social pour le développement et la réglementation de l'IA, révélant une variété de points de vue et d'interprétations sur l'avenir de l'IA.
  • Il montre en particulier que l'imagination de l'avenir de l'IA peut avoir un impact sur la réalité, soulignant la nécessité de tenir compte de divers contextes sociaux et culturels pour décider de l'avenir de l'IA.

Il y a quelque temps, quelques mois après le lancement de ChatGPT, un drame extraordinaire s'est joué au sein du conseil d'administration d'OpenAI, une organisation à but non lucratif qui est passée de zéro à 1 milliard de dollars de chiffre d'affaires annuel. Le PDG de l'entreprise, Sam Altman, a été licencié, puis réintégré à son poste de PDG d'OpenAI après l'annonce de son départ pour Microsoft. Généralement, les PDG fondateurs sont la force la plus puissante d'une entreprise, il est donc très rare que le conseil d'administration licencie un PDG fondateur, en particulier dans le cas d'une entreprise géante d'une valeur de 80 milliards de dollars.


Pourtant, ce drame intense de cinq jours a pu se produire en raison de la structure unique d'OpenAI, liée à sa mission de "servir l'humanité". Trois membres indépendants du conseil d'administration, connus pour avoir mené la décision de licencier Altman, sont tous liés à l'altruisme efficace (EA) et à la mission de l'entreprise, visant à "éviter que l'humanité et tout l'univers observable ne disparaissent".

la structure du conseil d'administration d'OpenAI


Tout au long de l'année, Altman a fait le tour du monde pour mettre en garde les médias et les gouvernements contre les risques existentiels de la technologie qu'il développe. Il a décrit la structure particulière d'OpenAI, à but non lucratif mais avec une branche commerciale, comme une sonnette d'alarme contre le développement irresponsable de l'IA puissante. En juin dernier, dans une interview à Bloomberg, il a déclaré que le conseil d'administration pouvait le renvoyer s'il adoptait un comportement dangereux ou contraire aux intérêts de l'humanité. En d'autres termes, il s'agissait d'une structure conçue intentionnellement pour permettre au conseil d'administration, qui privilégiait la sécurité plutôt que l'argent, face à l'émergence d'une AGI incontrôlable, de licencier le PDG à tout moment.


Alors, comment devons-nous interpréter la situation actuelle, où le nouveau PDG d'OpenAI est identique à l'ancien ?


Il est difficile de conclure que tout cela n'a été qu'une farce sans changement. En effet, nous avons constaté que les décisions concernant le développement d'une intelligence artificielle éthique, qui pourrait avoir un impact majeur sur notre société, étaient prises par un groupe très restreint de personnes. Sam Altman est devenu un symbole de notre époque, où les regards du monde entier se tournent vers le développement et la régulation de l'IA. Nous avons assisté au rejet de facto du seul moyen externe de freiner ses décisions et ses jugements futurs, ce qui souligne l'importance de moyens externes supplémentaires.


Cet événement a également permis de clarifier les positions et interprétations des tenants de la fin du monde, qui craignent que l'IA ne détruise l'humanité, des transhumanistes, qui pensent que la technologie accélérera un avenir utopique, des partisans d'un capitalisme de marché libéral, et des partisans d'une réglementation stricte pour restreindre les grandes entreprises technologiques, convaincus de l'impossibilité de trouver un équilibre entre les dommages potentiels des technologies disruptives et le désir de réaliser des profits. Cela montre que tous ces points de vue, tous liés à la peur de l'avenir de l'humanité aux côtés de l'IA, soulignent la nécessité d'une plus grande diversité de communautés pour prédire cet avenir.


Yejin Choi, professeur à l'Université de Washington, qui figure parmi les 100 personnes les plus influentes dans le domaine de l'IA au monde, a expliqué dans son discours TED que l'IA capable de réussir les examens nationaux ajoute des étapes inutiles et stupides à la mesure de 6 litres d'eau à l'aide de bouilloires de 12 litres et de 6 litres, car elle manque deconnaissance du bon sens acquise dans la société.


Lorsque nous prédisons l'avenir, nous identifions souvent de nouvelles choses d'un point de vue externe, en utilisant comme référence les "limites" qui indiquent la direction du courant dominant. Dans ce cas, ce qui semble être une vision stable de l'avenir vu de l'extérieur est toujours, dans une certaine mesure, basé sur le présent, et donc surdes attentes abstraites tirées d'expériences vécues. L'anthropologue américain Arjun Appadurai a affirmé que l'imagination n'est pas une capacité privée et personnelle, mais une pratique sociale. Cela signifie que les différentes imaginations du futur peuvent se matérialiser, et cet événement peut être interprété comme l'un des paysages créés par l'imagination d'un avenir incertain lié à l'émergence de l'AGI.


Alors que nous avons constaté que les attentes des leaders de l'industrie concernant l'avenir ont une importance politique, nous aurons besoin d'une compréhension plus approfondie de l'avenir, qui est imaginé et constitué collectivement dans des contextes sociaux et culturels variés, afin de déterminer l'avenir de l'IA. Il est temps de se demander comment créer des opportunités pour présenter de manière proactive des attentes collectives basées sur des expériences vécues dans des communautés plus diverses.



Références


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Le paradoxe des modèles d'IA de pointe : la transparence Le manque de transparence des systèmes d'IA de pointe est devenu un problème grave. Des chercheurs de l'Université de Stanford ont analysé 10 systèmes d'IA, y compris GPT-4, et ont conclu qu'aucun modèle ne publiait de manière transparente des information

14 mai 2024

L'ère de la marque algorithmique arrive Elon Musk, Sundar Pichai, PDG de Google, et Sam Altman d'OpenAI, des experts en intelligence artificielle, ont mis en garde contre les risques de l'intelligence artificielle et proposé des solutions distinctes pour l'avenir de l'humanité. Dans un article

10 mai 2024

L'IA va-t-elle prendre en charge les tâches des débutants ? Microsoft a recruté le fondateur d'Inflection AI, intensifiant ainsi la concurrence sur le marché de l'IA. Alors que des inquiétudes se font jour quant au remplacement des emplois par l'IA, les nouveaux employés peuvent utiliser l'IA pour se développer r

20 mai 2024

Mon avenir personnel à court terme L'IA transformera considérablement l'avenir des développeurs. Bien que l'IA puisse automatiser des tâches simples telles que la création de prototypes et le développement front-end, les développeurs compétents se concentreront sur la résolution de problèm
Mark Ball Blog
Mark Ball Blog
Image de l'avenir selon mes réflexions personnelles
Mark Ball Blog
Mark Ball Blog

26 mars 2024

Mr. Know-All – 2023.7 Le premier numéro du magazine mensuel d'IA "Mr. Know-All" de juillet 2023 présente Claude 2, Azure OpenAI, LangChain, LlamaIndex et d'autres technologies et tendances d'IA de pointe. En particulier, il fournit une description détaillée de LlamaIndex, qui
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 mars 2024

L'intelligence artificielle dépassant l'homme : une bénédiction ou une malédiction pour l'avenir ? Le développement de l'intelligence artificielle (IA) suscite un débat intense sur sa capacité à être une bénédiction ou une malédiction pour l'humanité. L'IA a le potentiel de révolutionner des domaines tels que la médecine, la science et l'économie, mais
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

25 mai 2024

Publication du rapport « Global CEO Survey » du groupe Deloitte Corée Six entreprises sur dix dans le monde ont intégré l’IA générative à l’automatisation des tâches, et les PDG sont optimistes quant à la croissance de leur entreprise cette année. 46 % d’entre eux prévoient de lancer de nouveaux services et produits dans l’
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

9 mai 2024

AI Full Stack : Une réalisation open source De nouveaux modèles LLM (grands modèles linguistiques) open source apparaissent dans l'écosystème AI. Des modèles puissants comme Mistral, Llama et phi-2, dotés de performances élevées et de licences ouvertes, ont été publiés, et divers outils sont en cou
RevFactory
RevFactory
RevFactory
RevFactory

5 février 2024

Splunk publie un rapport sur l'état de la sécurité en 2024 Selon le rapport sur l'état de la sécurité de Splunk en 2024, 93 % des entreprises utilisent l'IA générative, mais 34 % n'ont pas encore élaboré de politiques. L'IA générative offre de nouvelles opportunités aux responsables de la sécurité et aux attaquan
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

13 mai 2024