Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Esta es una publicación traducida por IA.

Byungchae Ryan Son

La paradoja de los modelos de IA líderes, la transparencia

Seleccionar idioma

  • Español
  • English
  • 汉语
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texto resumido por la IA durumis

  • Un equipo de investigación de la Universidad de Stanford analizó 10 sistemas de IA de vanguardia, incluido GPT-4, y descubrió que los modelos de IA carecen de transparencia en cuanto a los conjuntos de datos, los métodos de aprendizaje, etc.
  • En particular, las principales empresas de IA como OpenAI y Google están adoptando una actitud pasiva con respecto a la divulgación de datos, ya que buscan un modelo de negocio centrado en los beneficios. Esto podría obstaculizar el desarrollo de la tecnología de IA y llevar a un futuro monopolista.
  • Los expertos argumentan que la transparencia de los modelos de IA debe mejorarse para garantizar la reproducibilidad y fortalecer la responsabilidad social. También exigen un debate sobre el consenso social y la regulación a medida que avanza la tecnología de IA.

Un estudio publicado el 18 de este mes por investigadores de la Universidad de Stanford muestra cuán profundo y potencialmente peligroso es el secreto que rodea a GPT-4 y otros sistemas de IA de vanguardia.

Presentación del Índice de Transparencia de los Modelos Fundamentales, Universidad de Stanford


Examinaron un total de 10 sistemas de IA diferentes, la mayoría de los cuales eran modelos de lenguaje a gran escala, como los que se utilizan en ChatGPT y otros chatbots. Esto incluía modelos comerciales ampliamente utilizados como GPT-4 de OpenAI, PaLM 2 de Google y Titan Text de Amazon, y evaluaron su apertura según 13 criterios, incluida la transparencia con la que los desarrolladores revelaron los datos utilizados para entrenar los modelos (cómo se recopilaron y anotaron los datos, si incluían materiales con derechos de autor, etc.). También investigaron si se reveló el hardware utilizado para entrenar y ejecutar los modelos, los marcos de software utilizados y el consumo de energía del proyecto.


Los resultados mostraron que ningún modelo de IA logró una puntuación superior al 54% en la escala de transparencia en todos los criterios mencionados. En general, Titan Text de Amazon se consideró el menos transparente, mientras que Llama 2 de Meta se consideró el más abierto. Curiosamente, Llama 2, un modelo abierto y cerrado que ha estado recibiendo mucha atención últimamente, no reveló los datos utilizados para el entrenamiento, los métodos de recopilación y curación de datos, etc., a pesar de ser un modelo de código abierto. En otras palabras, a pesar de que la influencia de la IA en nuestra sociedad está creciendo, la falta de transparencia en la industria es un fenómeno generalizado y persistente.


Estosignifica que la industria de la IA corre el riesgo de convertirse en un campo impulsado por las ganancias en lugar del progreso científico y que podría conducir a un futuro monopolista liderado por determinadas empresas.

Eric Lee/Bloomberg vía Getty Images


El propio director ejecutivo de OpenAI, Sam Altman, ya se ha reunido con legisladores de todo el mundo para explicarles esta inteligencia nueva y desconocida y expresar su disposición a ayudar a concretar la normativa relacionada. Sin embargo, aunque en principio apoya la idea de un organismo internacional que supervise la IA, también cree que algunas reglas limitadas, como la prohibición de todo material con derechos de autor en los conjuntos de datos, podrían convertirse en obstáculos injustos. Es evidente que la "apertura" que se desprende del nombre de la empresa OpenAI se ha desviado de la transparencia radical que propuso en sus inicios.


Sin embargo, los resultados del informe de Stanford sugieren que no es necesario mantener los modelos en secreto para competir. Esto se debe a que los resultados también son un indicador del rendimiento general de casi todas las empresas. Por ejemplo, dicen que ninguna empresa proporciona estadísticas sobre cuántos usuarios dependen de sus modelos o sobre la región o el segmento del mercado en el que se utilizan sus modelos.


Entre las organizaciones que operan bajo los principios del código abierto, existe el proverbio "Muchos ojos atrapan a todos los bichos" (Ley de Linus). Los números brutos ayudan a identificar y corregir los problemas que se pueden resolver.


Perolas prácticas de código abierto tienden a hacer que el estatus social y el reconocimiento de valor, tanto dentro como fuera de las empresas que las adoptan, se desvanezcan gradualmente, por lo que hacer un énfasis absoluto en ellas no tiene mucho sentido. Por lo tanto, en lugar de quedarse atascados en el marco de si un modelo es abierto o cerrado,es mejor centrar la discusión en la expansión gradual del acceso externo a los "datos" que sustentan los poderosos modelos de IA.


Para el progreso científico, es importante asegurar lareproducibilidadde los resultados de las investigaciones. Esto ayudará a desarrollar enfoques concretos para garantizar la transparencia en los principales componentes de la creación de cada modelo; de lo contrario, es probable que la industria siga atrapada en un entorno monopolista cerrado y estancado. Y esto es algo que debemos tener en cuenta como una prioridad importante, especialmente en el contexto actual y futuro, donde la IA está penetrando rápidamente en todos los sectores de la industria.


Para los periodistas y los científicos, comprender los datos se ha vuelto crucial, y para los legisladores, la transparencia es un requisito previo para los esfuerzos políticos que se avecinan. Para el público en general, la transparencia también es importante, ya que, como usuarios finales de los sistemas de IA, pueden ser perpetradores o víctimas de problemas potenciales relacionados con los derechos de propiedad intelectual, el uso de energía y los sesgos. Sam Altman sostiene que el riesgo de extinción de la humanidad a causa de la IA debe convertirse en una prioridad mundial, al mismo nivel que otras amenazas sociales a gran escala, como las pandemias o la guerra nuclear. Sin embargo, no debemos olvidar que la existencia de nuestra sociedad, que mantiene una relación sana con la IA en desarrollo, es un requisito previo para alcanzar las peligrosas situaciones que menciona.


*Este artículo es la versión original de la columna que se publicó en el periódico electrónico el 23 de octubre de 2023.


Referencias


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
El cuerpo del trabajo es 'Híbrido'. OpenAI, el desarrollador de ChatGPT, es el sitio web número 17 más popular del mundo a partir de mayo, registrando más visitas que Netflix y Linkedin. Especialmente con el lanzamiento de la aplicación móvil, la IA generativa ha trascendido los límites fís

13 de mayo de 2024

El significado humano después de la IA generativa en 2023 2023 ha sido un año de cambios importantes en la industria tecnológica, con la IA tomando el control en general, la transición a plataformas de IA generativa, el aumento de la familiaridad del público y la aprobación de leyes de regulación de la IA. En 20

16 de mayo de 2024

El drama de gobernanza de OpenAI: el futuro ético de la IA El despido del CEO de OpenAI, Sam Altman, por la junta directiva, solo para ser reincorporado cinco días después, pone de manifiesto la estructura inusual de OpenAI, que se presenta como una misión para la humanidad, y las preocupaciones sobre los riesgos

14 de mayo de 2024

Pila completa de IA con código abierto Nuevos modelos de LLM (modelos de lenguaje grandes) de código abierto están apareciendo rápidamente en el ecosistema de IA. Modelos como Mistral, Llama y phi-2, con un rendimiento potente y licencias abiertas, se han puesto a disposición del público, y se
RevFactory
RevFactory
RevFactory
RevFactory

5 de febrero de 2024

Mr. Know-All – 2023.7 La edición número 1 de la revista mensual de IA "Mr. Know-All" de julio de 2023 presenta las últimas tecnologías y tendencias de IA, como Claude 2, Azure OpenAI, LangChain y LlamaIndex. En particular, proporciona una explicación detallada de LlamaIndex, q
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de marzo de 2024

Mr. Know-All 2 – Agosto de 2023 Aborda cómo procesar archivos PDF para el aprendizaje de LLM de datos internos de la empresa. Se explica el proceso de vincular FAISS y ChromaDB, que son tiendas vectoriales, utilizando la API de OpenAI, LangChain y Streamlit. Se proporciona información s
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de marzo de 2024

¿Qué es un Modelo de Lenguaje Grande (LLM)? Los modelos de lenguaje grandes (LLM) son una tecnología central de la inteligencia artificial que aprende de una gran cantidad de datos de texto para adquirir habilidades de procesamiento de lenguaje similares a las humanas, y se pueden utilizar en una v
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 de abril de 2024

La llegada de la era de la IA, armonizando la innovación tecnológica y la ética Google y OpenAI han mostrado los avances innovadores en la tecnología de IA con el lanzamiento de sus nuevos modelos de IA 'Gemini' y 'GPT-4'. Gemini puede aceptar entradas de varios modos para resumir información y proporcionar respuestas a preguntas, y
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

18 de mayo de 2024

Precios de Gemini 1.5 Flash, GPT-4o y otros LLM Comparación de rendimiento y precio de los últimos modelos de IA como GPT-4o, Gemini 1.5 Pro, Claude 3 Haiku y Gemini 1.5 Flash. Te mostramos cómo elegir el modelo adecuado para ti. Encuentra el modelo más eficiente teniendo en cuenta el tamaño de los tok
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

18 de mayo de 2024