Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Esta es una publicación traducida por IA.

Byungchae Ryan Son

El drama de gobernanza de OpenAI: el futuro ético de la IA

Seleccionar idioma

  • Español
  • English
  • 汉语
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texto resumido por la IA durumis

  • El despido y posterior reincorporación del CEO de OpenAI, Sam Altman, por la junta directiva, es un evento que pone de manifiesto la inusual estructura sin fines de lucro dentro de una estructura con fines de lucro de OpenAI, y el énfasis de la junta directiva en la seguridad.
  • Este evento ha aumentado el interés social en el desarrollo y la regulación de la IA, revelando diversas perspectivas e interpretaciones sobre el futuro de la IA.
  • Demuestra particularmente cómo la imaginación del futuro de la IA puede influir en la realidad, y se argumenta que se deben tener en cuenta diversos contextos sociales y culturales a la hora de determinar el futuro de la IA.

Hace poco, unos meses después del lanzamiento de ChatGPT, se produjo un drama extraordinario dentro del consejo de administración de OpenAI, una organización sin ánimo de lucro que pasó de la quiebra a generar 1.000 millones de dólares en ingresos anuales. Sam Altman, el director ejecutivo de la empresa, fue despedido y, tras anunciar su traslado a Microsoft, fue readmitido como director ejecutivo de OpenAI. Por lo general, los directores ejecutivos fundadores son el poder más fuerte de una empresa, por lo que es muy poco común que el consejo de administración despida a un director ejecutivo fundador, y menos aún cuando se trata de una empresa gigante con un valor de 80.000 millones de dólares.


Sin embargo, este intenso drama de cinco días fue posible gracias a la estructura única de OpenAI, que está vinculada a su declaración de misión de "beneficiar a la humanidad". Con el objetivo de "evitar que la humanidad y todo el universo observable desaparezcan", se sabe que los tres miembros independientes del consejo de administración que impulsaron la decisión de despedir a Altman están todos relacionados con el altruismo eficaz (EA), un movimiento que busca maximizar el impacto positivo en el mundo.

la estructura de la junta de OpenAI


Altman ha pasado este año viajando por todo el mundo, advirtiendo a los medios de comunicación y a los gobiernos sobre los riesgos existenciales de la tecnología que está desarrollando. Ha descrito la estructura inusual de OpenAI, una organización sin ánimo de lucro dentro de una organización con ánimo de lucro, como una forma de alertar sobre los peligros de desarrollar una IA irresponsable. En una entrevista con Bloomberg en junio, dijo que el consejo de administración podría echarlo si actuara de forma peligrosa o en contra del interés de la humanidad. En otras palabras, la estructura fue diseñada intencionadamente para que el consejo de administración, que prioriza la seguridad por encima del dinero, en relación con la aparición de una IA incontrolable, pudiera despedir al director ejecutivo en cualquier momento.


Entonces, ¿cómo debemos interpretar la situación actual, en la que el nuevo director ejecutivo de OpenAI es el mismo que el anterior?


No es fácil concluir que todo ha terminado en un simple "incidente" sin cambios. Lo que sí se ha confirmado es que las decisiones relacionadas con el desarrollo de una IA ética, que puede tener el mayor impacto en nuestra sociedad actual, se toman con el apoyo de un grupo extremadamente pequeño. Sam Altman se ha convertido en un símbolo de la época en la que la atención mundial se centra en el desarrollo y la regulación de la IA. Hemos sido testigos de cómo el único medio externo que podría haber impedido sus decisiones futuras ha sido, en realidad, desmantelado, y hemos confirmado la importancia de medios externos adicionales.


Este incidente también ha puesto de manifiesto con mayor claridad las posiciones e interpretaciones de los catastrofistas que temen que la IA destruya a la humanidad, los transhumanistas que creen que la tecnología acelerará un futuro utópico, quienes creen en el libre mercado capitalista, y los que abogan por una regulación estricta para frenar a las grandes empresas tecnológicas, que creen que no se puede equilibrar el potencial de daño de las poderosas tecnologías disruptivas con su lucro. Esto nos recuerda que todos ellos parten de un miedo al futuro de la humanidad junto con la IA, y que esto hace que sea necesario que haya una mayor variedad de comunidades que puedan predecir este futuro.


Yejin Choi, profesora de la Universidad de Washington e incluida entre las 100 personas más influyentes del mundo en el campo de la IA, explicó en su charla de TED que la razón por la que una IA capaz de aprobar diversos exámenes nacionales añade pasos innecesariamente complicados al medir la cantidad de agua de 6 litros utilizando jarras de 12 litros y 6 litros es la falta de aprendizaje de la “sabiduría común” adquirida en la sociedad.


Cuando predecimos el futuro, a menudo identificamos lo nuevo desde una perspectiva externa, basándonos en un "límite" que indica hacia dónde se dirige la corriente principal. En este caso, lo que parece ser una visión estable del futuro desde fuera siempre se basa, en cierta medida, en el presente, en una “experiencia vívida” que se abstrae en una expectativa. El antropólogo estadounidense Arjun Appadurai argumentó que la imaginación no es una capacidad privada y personal, sino una práctica social. Esto significa que la imaginación de diversos futuros puede hacerse realidad, y este incidente se puede interpretar como uno de los paisajes creados por la imaginación de un futuro incierto en relación con la aparición de la AGI.


Ahora que hemos confirmado que las expectativas de los líderes del sector sobre el futuro tienen un significado político importante, necesitaremos una comprensión más profunda del futuro que se imagina y se construye colectivamente en diversos contextos sociales y culturales para decidir el futuro de la IA. Es el momento de plantearse cómo podemos crear oportunidades para presentar expectativas colectivas basadas en experiencias vívidas en comunidades más diversas.



Referencias


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
La era de la marca de algoritmos está llegando Elon Musk, el CEO de Google Sundar Pichai y Sam Altman de Open AI, entre otros expertos en IA, advierten sobre los riesgos de la inteligencia artificial y ofrecen soluciones diferentes para el futuro de la humanidad. En un artículo de opinión de Electroni

10 de mayo de 2024

La paradoja de los modelos de IA líderes, la transparencia La falta de transparencia en los sistemas de IA de vanguardia se ha convertido en un problema grave. Un equipo de investigación de la Universidad de Stanford analizó 10 sistemas de IA, incluido GPT-4, y concluyó que no hay modelos que revelen información

14 de mayo de 2024

El significado humano después de la IA generativa en 2023 2023 ha sido un año de cambios importantes en la industria tecnológica, con la IA tomando el control en general, la transición a plataformas de IA generativa, el aumento de la familiaridad del público y la aprobación de leyes de regulación de la IA. En 20

16 de mayo de 2024

El futuro cercano a mi manera de verlo La IA va a generar un cambio importante en el futuro de los desarrolladores. La IA se encargará de las tareas simples, como la creación de prototipos y el desarrollo de frontend, pero los desarrolladores cualificados se centrarán en la resolución estratég
Mark Ball Blog
Mark Ball Blog
Imagen sobre el futuro a mi manera de verlo
Mark Ball Blog
Mark Ball Blog

26 de marzo de 2024

Inteligencia artificial que supera a los humanos: ¿bendición o maldición del futuro? El desarrollo de la inteligencia artificial (IA) genera un debate acalorado sobre si será una bendición o una maldición para la humanidad. La IA puede generar innovaciones en diversos campos como la medicina, la ciencia y la economía, pero también existe
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

25 de mayo de 2024

Mr. Know-All – 2023.7 La edición número 1 de la revista mensual de IA "Mr. Know-All" de julio de 2023 presenta las últimas tecnologías y tendencias de IA, como Claude 2, Azure OpenAI, LangChain y LlamaIndex. En particular, proporciona una explicación detallada de LlamaIndex, q
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de marzo de 2024

BSI publica la primera guía global para apoyar la gestión responsable de la IA BSI ha publicado la norma internacional (BS ISO/IEC 42001) para el uso seguro y responsable de la inteligencia artificial (IA). Esta norma proporciona a las organizaciones un método para gestionar la IA y mitigar los riesgos, haciendo hincapié en la trans
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

9 de mayo de 2024

Pila completa de IA con código abierto Nuevos modelos de LLM (modelos de lenguaje grandes) de código abierto están apareciendo rápidamente en el ecosistema de IA. Modelos como Mistral, Llama y phi-2, con un rendimiento potente y licencias abiertas, se han puesto a disposición del público, y se
RevFactory
RevFactory
RevFactory
RevFactory

5 de febrero de 2024

Mr. Know-All 6호 - Marzo de 2024 Presentamos LM Studio, una plataforma que permite ejecutar LLM de código abierto como LLaMa, Falcon, MPT y StarCoder de forma local, así como Devin, un ingeniero de software de IA, la plataforma de automatización multiagente crewAI y otras diversas herram
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de marzo de 2024