El estudio publicado el 18 de pasado por investigadores de la Universidad de Stanford muestra cuán profundas y potencialmente peligrosas son las profundidades ocultas de GPT-4 y otros sistemas de IA de vanguardia.
Presentación del Índice de Transparencia de Modelos Fundamentales, Universidad de Stanford
Investigaron un total de 10 sistemas de IA diferentes, la mayoría de los cuales eran modelos lingüísticos de gran tamaño, similares a los utilizados en ChatGPT y otros chatbots. Esto incluía modelos comerciales ampliamente utilizados como GPT-4 de OpenAI, PaLM 2 de Google y Titan Text de Amazon, y evaluaron su apertura según 13 criterios, incluyendo la transparencia con la que los desarrolladores revelaron los datos utilizados para entrenar los modelos (métodos de recopilación y anotación de datos, inclusión de materiales con derechos de autor, etc.). También investigaron si se había hecho pública información sobre el hardware utilizado para entrenar y ejecutar los modelos, el marco de software utilizado y el consumo de energía del proyecto.
El resultado fue que ningún modelo de IA superó el 54% en la escala de transparencia en todos los criterios mencionados. En general, Titan Text de Amazon recibió la calificación más baja en transparencia, mientras que Llama 2 de Meta fue calificado como el más abierto. Lo interesante es que Llama 2, un modelo de código abierto que representa a los principales contendientes en la reciente estructura de oposición entre modelos abiertos y cerrados, no reveló los datos utilizados para el entrenamiento, los métodos de recopilación y curación de datos, etc. En otras palabras, a pesar del creciente impacto de la IA en nuestra sociedad, la falta de transparencia en la industria es un fenómeno generalizado y persistente.
Esto significa que existe el riesgo de que la industria de la IA se convierta pronto en un campo centrado en las ganancias en lugar del avance científico, y que esto pueda conducir a un futuro monopolizado dominado por empresas específicas..
Eric Lee/Bloomberg via Getty Images
Sam Altman, CEO de OpenAI, ya se ha reunido con legisladores de todo el mundo para explicarles activamente esta nueva e inusual inteligencia y ofrecer su ayuda para concretar las regulaciones relacionadas. Aunque en principio apoya la idea de un organismo internacional para supervisar la IA, también cree que ciertas reglas limitadas, como la prohibición de todos los materiales con derechos de autor en los conjuntos de datos, podrían convertirse en obstáculos injustos. Es evidente que la "apertura" que se refleja en el nombre de la empresa OpenAI ha perdido la transparencia radical que se propuso en sus inicios.
Sin embargo, los resultados del informe de Stanford también sugieren que no es necesario mantener en secreto los modelos individuales por motivos de competencia. Esto se debe a que los resultados son un indicador de que casi todas las empresas están mostrando un bajo rendimiento. Por ejemplo, dicen que ninguna empresa proporciona estadísticas sobre el número de usuarios que confían en sus modelos o sobre las regiones o segmentos de mercado en los que se utilizan sus modelos.
En las organizaciones que se rigen por el principio de código abierto, existe un dicho que dice: "Cuantos más ojos miran, más rápido se encuentran los errores". (Ley de Linus) Un gran número de personas ayuda a identificar y resolver problemas y encontrar problemas que se pueden solucionar.
Sin embargo, las prácticas de código abierto también tienden a socavar gradualmente el estatus social y el reconocimiento de valor dentro y fuera de las empresas que se hacen públicas.Por lo tanto, no tiene mucho sentido hacer un énfasis excesivo en ello. En lugar de centrarse en el marco de si un modelo es abierto o cerrado, sería mejor centrar la discusión en ampliar gradualmente el acceso externo a los 'datos' que sustentan los modelos de IA.Esto podría ser una mejor opción.
Para el avance científico, es importante garantizar la reproducibilidad (Reproducibility) de los resultados de la investigación específicos.Si no se concreta una forma de asegurar la transparencia en los componentes principales de la creación de cada modelo, existe una alta probabilidad de que la industria se estanque en una situación de monopolio cerrada. Y es necesario recordar que esto debe considerarse una prioridad alta en la situación actual y futura, en la que la tecnología de IA se está infiltrando rápidamente en todas las industrias.
Es cada vez más importante que los periodistas y los científicos comprendan los datos, y la transparencia es una condición previa para los esfuerzos políticos previstos. Para el público, la transparencia también es importante porque, como usuarios finales de los sistemas de IA, pueden ser victimas o perpetradores de problemas potenciales relacionados con la propiedad intelectual, el consumo de energía y el sesgo. Sam Altman argumenta que el riesgo de extinción de la humanidad debido a la IA debe ser una prioridad mundial, al mismo nivel que otros riesgos a escala social como las pandemias o las guerras nucleares. Sin embargo, no debemos olvidar que la supervivencia de nuestra sociedad que mantiene una relación saludable con la IA en desarrollo es un requisito previo para llegar a la peligrosa situación que menciona.
*Este artículo es la versión original de una columna publicada en el periódico electrónico el 23 de octubre de 2023.
Referencias
Comentarios0