Byungchae Ryan Son

Nuestra relación cambiante con los algoritmos

Creado: 2024-05-09

Creado: 2024-05-09 15:01

“Ahora tenemos un modelo de IA que analiza el lenguaje humano y extrae modelos del mundo.”


El pasado 19 de octubre, en un evento de una organización benéfica celebrado en Ontario, Canadá, el profesor Jordan Peterson, psicólogo clínico de la Universidad de Toronto, mencionó la tensión que la inteligencia artificial (IA) creará entre humanos y algoritmos en el futuro, utilizando el caso de uso actual de ChatGPT. El profesor Peterson advirtió que los modelos de lenguaje a gran escala, como la IA generativa, pronto serán lo suficientemente inteligentes como para utilizar imágenes y acciones para extraer patrones por sí mismos y probarlos en el mundo, lo que permitirá que la IA complete el trabajo de un científico humano en cuestión de segundos.


GPT-3, DALL-E y Stable Diffusion se están convirtiendo en la base de casi todos los sistemas de IA y están visualizando un cambio de paradigma en la IA. Estos potentes sistemas, que generan imágenes y texto según las necesidades del usuario, inevitablemente están creando conflictos con los creadores dentro de las industrias existentes. En noviembre pasado, GitHub Copilot de Microsoft se enfrentó a una demanda colectiva alegando que infringió los derechos legales de numerosos autores que publicaron código bajo licencias de código abierto para el aprendizaje de IA. Además, la Asociación de la Industria Discográfica de Estados Unidos (RIAA) enfatizó en un comunicado en octubre que la generación y remezcla de música basada en IA podría amenazar los derechos de los músicos, así como sus finanzas.


Estos casos nos recuerdan la cuestión de si el uso de conjuntos de datos con material protegido por derechos de autor para entrenar sistemas y producir resultados es justo para todos. Sin embargo, es importante tener en cuenta que muchas de estas controversias se centran en gran medida en el aspecto novedoso de la tecnología. Dado que, en última instancia, son las personas las que introducen texto en los modelos de IA para obtener los resultados deseados, es más importante prestar atención a cómo deben ser las relaciones futuras entre los humanos y los algoritmos.


Los algoritmos ya son un eje que genera nuestro mundo, al igual que los humanos. Desde hace tiempo, hemos considerado la necesidad de una vigilancia social sobre la opacidad de los algoritmos. En particular, sabemos que es difícil determinar quién es responsable en caso de falta de transparencia, y nos preocupa que los sesgos ocultos puedan perpetuarse y que los resultados sean injustos. Por lo tanto, la pregunta de 'cómo debemos tratar con los algoritmos' podría ser más importante, y podemos encontrar pistas en nuestra relación familiar con los algoritmos de generación de contenido.


En primer lugar, somos conscientes de la existencia de los algoritmos. Las palabras 'recomendación' y 'selección', que aparecen con frecuencia en las conversaciones sobre contenido y publicidad, demuestran que las personas están construyendo su vocabulario en torno a los algoritmos en las compras en línea y las redes sociales. Además, somos curiosos por los algoritmos. Cuando la página principal de YouTube se llena de contenido de una categoría específica o cuando creemos que la exposición de nuestro contenido no es suficiente, a menudo expresamos nuestra curiosidad sobre los algoritmos con reacciones desfavorables.


Por último, queremos que los algoritmos sean activos y existan para nosotros como entidades vivientes. Confiamos en los algoritmos para crear nuevos hábitos, aprender y recordar, e intentamos controlarlos por completo. Desde intentar usar hashtags que no parecen estar relacionados hasta activar el modo No molestar o enviar comentarios sobre las opciones de publicidad. E incluso intentamos desconectarnos de los algoritmos, como mediante la desintoxicación digital o la lectura de boletines informativos, cuando todos estos intentos no tienen éxito.


En resumen, las personas tienden a mostrar desconfianza, juicios negativos y apego al pasado cuando sus relaciones con los algoritmos no van como esperan. Y esto es muy similar a las 'relaciones sociales'que establecemos en nuestra vida diaria. Además, mientras que la relación con los algoritmos de generación de contenido tradicionales se ha basado principalmente en la 'consumos' en un sentido unilateral, la relación con los modelos de lenguaje a gran escala, como los algoritmos de IA actuales, puede definirse como una relación bidireccional en el ámbito de la 'generación'. Dado que los resultados que solicita el usuario no tienen una originalidad completa y se basan en las creaciones de alguien más en el mundo, debemos darnos cuenta de que la forma en que nos acercamos y actuamos frente a los algoritmos de IA generativa debe cambiar fundamentalmente.


Aunque tenga abierta la ventana de ChatGPT, el algoritmo de IA simplemente espera. Tal vez, solo esté oculto por su asombrosa capacidad, pero cuando escribes algo, es posible que solo esté ayudando a que florezca una relación social oculta con otra persona en el mundo en el que te encuentras.


*Este artículo es la versión original del artículo publicado el 9 de enero de 2023 en columna firmada en el periódico electrónico.


Referencias


Comentarios0