![translation](https://cdn.durumis.com/common/trans.png)
Ceci est un post traduit par IA.
Le drame de la gouvernance d'OpenAI, l'avenir éthique de l'IA
- Langue de rédaction : Coréen
- •
-
Pays de référence : Tous les pays
- •
- Technologies de l'information
Choisir la langue
Texte résumé par l'IA durumis
- Le licenciement puis le retour au poste de PDG de Sam Altman, PDG d'OpenAI, par le conseil d'administration, est un événement qui montre la structure particulière de l'organisation non lucrative à but lucratif d'OpenAI et l'accent mis par le conseil sur la sécurité.
- Cet événement a intensifié l'intérêt social pour le développement et la réglementation de l'IA, révélant une variété de points de vue et d'interprétations sur l'avenir de l'IA.
- Il montre en particulier que l'imagination de l'avenir de l'IA peut avoir un impact sur la réalité, soulignant la nécessité de tenir compte de divers contextes sociaux et culturels pour décider de l'avenir de l'IA.
Il y a quelque temps, quelques mois après le lancement de ChatGPT, un drame extraordinaire s'est joué au sein du conseil d'administration d'OpenAI, une organisation à but non lucratif qui est passée de zéro à 1 milliard de dollars de chiffre d'affaires annuel. Le PDG de l'entreprise, Sam Altman, a été licencié, puis réintégré à son poste de PDG d'OpenAI après l'annonce de son départ pour Microsoft. Généralement, les PDG fondateurs sont la force la plus puissante d'une entreprise, il est donc très rare que le conseil d'administration licencie un PDG fondateur, en particulier dans le cas d'une entreprise géante d'une valeur de 80 milliards de dollars.
Pourtant, ce drame intense de cinq jours a pu se produire en raison de la structure unique d'OpenAI, liée à sa mission de "servir l'humanité". Trois membres indépendants du conseil d'administration, connus pour avoir mené la décision de licencier Altman, sont tous liés à l'altruisme efficace (EA) et à la mission de l'entreprise, visant à "éviter que l'humanité et tout l'univers observable ne disparaissent".
la structure du conseil d'administration d'OpenAI
Tout au long de l'année, Altman a fait le tour du monde pour mettre en garde les médias et les gouvernements contre les risques existentiels de la technologie qu'il développe. Il a décrit la structure particulière d'OpenAI, à but non lucratif mais avec une branche commerciale, comme une sonnette d'alarme contre le développement irresponsable de l'IA puissante. En juin dernier, dans une interview à Bloomberg, il a déclaré que le conseil d'administration pouvait le renvoyer s'il adoptait un comportement dangereux ou contraire aux intérêts de l'humanité. En d'autres termes, il s'agissait d'une structure conçue intentionnellement pour permettre au conseil d'administration, qui privilégiait la sécurité plutôt que l'argent, face à l'émergence d'une AGI incontrôlable, de licencier le PDG à tout moment.
Alors, comment devons-nous interpréter la situation actuelle, où le nouveau PDG d'OpenAI est identique à l'ancien ?
Il est difficile de conclure que tout cela n'a été qu'une farce sans changement. En effet, nous avons constaté que les décisions concernant le développement d'une intelligence artificielle éthique, qui pourrait avoir un impact majeur sur notre société, étaient prises par un groupe très restreint de personnes. Sam Altman est devenu un symbole de notre époque, où les regards du monde entier se tournent vers le développement et la régulation de l'IA. Nous avons assisté au rejet de facto du seul moyen externe de freiner ses décisions et ses jugements futurs, ce qui souligne l'importance de moyens externes supplémentaires.
Cet événement a également permis de clarifier les positions et interprétations des tenants de la fin du monde, qui craignent que l'IA ne détruise l'humanité, des transhumanistes, qui pensent que la technologie accélérera un avenir utopique, des partisans d'un capitalisme de marché libéral, et des partisans d'une réglementation stricte pour restreindre les grandes entreprises technologiques, convaincus de l'impossibilité de trouver un équilibre entre les dommages potentiels des technologies disruptives et le désir de réaliser des profits. Cela montre que tous ces points de vue, tous liés à la peur de l'avenir de l'humanité aux côtés de l'IA, soulignent la nécessité d'une plus grande diversité de communautés pour prédire cet avenir.
Yejin Choi, professeur à l'Université de Washington, qui figure parmi les 100 personnes les plus influentes dans le domaine de l'IA au monde, a expliqué dans son discours TED que l'IA capable de réussir les examens nationaux ajoute des étapes inutiles et stupides à la mesure de 6 litres d'eau à l'aide de bouilloires de 12 litres et de 6 litres, car elle manque deconnaissance du bon sens acquise dans la société.
Lorsque nous prédisons l'avenir, nous identifions souvent de nouvelles choses d'un point de vue externe, en utilisant comme référence les "limites" qui indiquent la direction du courant dominant. Dans ce cas, ce qui semble être une vision stable de l'avenir vu de l'extérieur est toujours, dans une certaine mesure, basé sur le présent, et donc surdes attentes abstraites tirées d'expériences vécues. L'anthropologue américain Arjun Appadurai a affirmé que l'imagination n'est pas une capacité privée et personnelle, mais une pratique sociale. Cela signifie que les différentes imaginations du futur peuvent se matérialiser, et cet événement peut être interprété comme l'un des paysages créés par l'imagination d'un avenir incertain lié à l'émergence de l'AGI.
Alors que nous avons constaté que les attentes des leaders de l'industrie concernant l'avenir ont une importance politique, nous aurons besoin d'une compréhension plus approfondie de l'avenir, qui est imaginé et constitué collectivement dans des contextes sociaux et culturels variés, afin de déterminer l'avenir de l'IA. Il est temps de se demander comment créer des opportunités pour présenter de manière proactive des attentes collectives basées sur des expériences vécues dans des communautés plus diverses.
Références