![translation](https://cdn.durumis.com/common/trans.png)
Esta es una publicación traducida por IA.
La paradoja de los modelos de IA líderes, la transparencia
- Idioma de escritura: Coreano
- •
-
País de referencia: Todos los países
- •
- Tecnología de la información
Seleccionar idioma
Texto resumido por la IA durumis
- Un equipo de investigación de la Universidad de Stanford analizó 10 sistemas de IA de vanguardia, incluido GPT-4, y descubrió que los modelos de IA carecen de transparencia en cuanto a los conjuntos de datos, los métodos de aprendizaje, etc.
- En particular, las principales empresas de IA como OpenAI y Google están adoptando una actitud pasiva con respecto a la divulgación de datos, ya que buscan un modelo de negocio centrado en los beneficios. Esto podría obstaculizar el desarrollo de la tecnología de IA y llevar a un futuro monopolista.
- Los expertos argumentan que la transparencia de los modelos de IA debe mejorarse para garantizar la reproducibilidad y fortalecer la responsabilidad social. También exigen un debate sobre el consenso social y la regulación a medida que avanza la tecnología de IA.
Un estudio publicado el 18 de este mes por investigadores de la Universidad de Stanford muestra cuán profundo y potencialmente peligroso es el secreto que rodea a GPT-4 y otros sistemas de IA de vanguardia.
Presentación del Índice de Transparencia de los Modelos Fundamentales, Universidad de Stanford
Examinaron un total de 10 sistemas de IA diferentes, la mayoría de los cuales eran modelos de lenguaje a gran escala, como los que se utilizan en ChatGPT y otros chatbots. Esto incluía modelos comerciales ampliamente utilizados como GPT-4 de OpenAI, PaLM 2 de Google y Titan Text de Amazon, y evaluaron su apertura según 13 criterios, incluida la transparencia con la que los desarrolladores revelaron los datos utilizados para entrenar los modelos (cómo se recopilaron y anotaron los datos, si incluían materiales con derechos de autor, etc.). También investigaron si se reveló el hardware utilizado para entrenar y ejecutar los modelos, los marcos de software utilizados y el consumo de energía del proyecto.
Los resultados mostraron que ningún modelo de IA logró una puntuación superior al 54% en la escala de transparencia en todos los criterios mencionados. En general, Titan Text de Amazon se consideró el menos transparente, mientras que Llama 2 de Meta se consideró el más abierto. Curiosamente, Llama 2, un modelo abierto y cerrado que ha estado recibiendo mucha atención últimamente, no reveló los datos utilizados para el entrenamiento, los métodos de recopilación y curación de datos, etc., a pesar de ser un modelo de código abierto. En otras palabras, a pesar de que la influencia de la IA en nuestra sociedad está creciendo, la falta de transparencia en la industria es un fenómeno generalizado y persistente.
Estosignifica que la industria de la IA corre el riesgo de convertirse en un campo impulsado por las ganancias en lugar del progreso científico y que podría conducir a un futuro monopolista liderado por determinadas empresas.
Eric Lee/Bloomberg vía Getty Images
El propio director ejecutivo de OpenAI, Sam Altman, ya se ha reunido con legisladores de todo el mundo para explicarles esta inteligencia nueva y desconocida y expresar su disposición a ayudar a concretar la normativa relacionada. Sin embargo, aunque en principio apoya la idea de un organismo internacional que supervise la IA, también cree que algunas reglas limitadas, como la prohibición de todo material con derechos de autor en los conjuntos de datos, podrían convertirse en obstáculos injustos. Es evidente que la "apertura" que se desprende del nombre de la empresa OpenAI se ha desviado de la transparencia radical que propuso en sus inicios.
Sin embargo, los resultados del informe de Stanford sugieren que no es necesario mantener los modelos en secreto para competir. Esto se debe a que los resultados también son un indicador del rendimiento general de casi todas las empresas. Por ejemplo, dicen que ninguna empresa proporciona estadísticas sobre cuántos usuarios dependen de sus modelos o sobre la región o el segmento del mercado en el que se utilizan sus modelos.
Entre las organizaciones que operan bajo los principios del código abierto, existe el proverbio "Muchos ojos atrapan a todos los bichos" (Ley de Linus). Los números brutos ayudan a identificar y corregir los problemas que se pueden resolver.
Perolas prácticas de código abierto tienden a hacer que el estatus social y el reconocimiento de valor, tanto dentro como fuera de las empresas que las adoptan, se desvanezcan gradualmente, por lo que hacer un énfasis absoluto en ellas no tiene mucho sentido. Por lo tanto, en lugar de quedarse atascados en el marco de si un modelo es abierto o cerrado,es mejor centrar la discusión en la expansión gradual del acceso externo a los "datos" que sustentan los poderosos modelos de IA.
Para el progreso científico, es importante asegurar lareproducibilidadde los resultados de las investigaciones. Esto ayudará a desarrollar enfoques concretos para garantizar la transparencia en los principales componentes de la creación de cada modelo; de lo contrario, es probable que la industria siga atrapada en un entorno monopolista cerrado y estancado. Y esto es algo que debemos tener en cuenta como una prioridad importante, especialmente en el contexto actual y futuro, donde la IA está penetrando rápidamente en todos los sectores de la industria.
Para los periodistas y los científicos, comprender los datos se ha vuelto crucial, y para los legisladores, la transparencia es un requisito previo para los esfuerzos políticos que se avecinan. Para el público en general, la transparencia también es importante, ya que, como usuarios finales de los sistemas de IA, pueden ser perpetradores o víctimas de problemas potenciales relacionados con los derechos de propiedad intelectual, el uso de energía y los sesgos. Sam Altman sostiene que el riesgo de extinción de la humanidad a causa de la IA debe convertirse en una prioridad mundial, al mismo nivel que otras amenazas sociales a gran escala, como las pandemias o la guerra nuclear. Sin embargo, no debemos olvidar que la existencia de nuestra sociedad, que mantiene una relación sana con la IA en desarrollo, es un requisito previo para alcanzar las peligrosas situaciones que menciona.
*Este artículo es la versión original de la columna que se publicó en el periódico electrónico el 23 de octubre de 2023.
Referencias