![translation](https://cdn.durumis.com/common/trans.png)
Esta es una publicación traducida por IA.
Nuestra relación cambiante con los algoritmos
- Idioma de escritura: Coreano
- •
-
País de referencia: Todos los países
- •
- Tecnología de la información
Seleccionar idioma
Texto resumido por la IA durumis
- La IA generativa, incluida ChatGPT, ha evolucionado hasta el punto de reemplazar las funciones humanas, lo que genera preocupación por la violación de los derechos de los creadores y una reflexión sobre una nueva relación con los algoritmos.
- Los algoritmos están afectando a muchos aspectos de nuestras vidas, y reconocemos su existencia, sentimos curiosidad por ellos y los percibimos como entidades activas.
- Especialmente la IA generativa, dado que utiliza contenido existente para generar resultados según las necesidades del usuario, exige una nueva definición de la relación con los algoritmos de IA y una reflexión sobre la responsabilidad ética.
“Ahora tenemos modelos de IA que analizan el lenguaje humano para extraer modelos del mundo.”
El mes pasado, el 19 de enero, en un evento de una organización benéfica en Ontario, Canadá, el profesor Jordan Peterson, psicólogo clínico de la Universidad de Toronto, mencionó la tensión que se está generando entre la humanidad y los algoritmos del futuro. El profesor Peterson advirtió que los modelos de lenguaje a gran escala, la IA generativa, pronto se volverán tan inteligentes que podrán utilizar imágenes y movimientos para extraer sus propios patrones y luego probarlos en el mundo, superando las capacidades de los científicos humanos en cuestión de segundos.
GPT-3, DALL-E, StableDiffusion, etc., ahora son la base de casi todos los sistemas de IA y están haciendo visible el cambio de paradigma de la IA. Y estos potentes sistemas que generan imágenes y texto a petición del usuario inevitablemente están causando conflictos con los creadores existentes dentro de las industrias establecidas. En noviembre pasado, GitHub Copilot de Microsoft fue objeto de una demanda colectiva por violar los derechos legales de innumerables autores que publicaron código bajo una licencia de código abierto para el aprendizaje de la IA. Además, la Asociación de la Industria Discográfica de Estados Unidos (RIAA) dijo en un comunicado en octubre que la creación y remezcla de música basada en la IA podría amenazar los derechos de los músicos y sus finanzas.
Estos casos nos recuerdan la cuestión de si es justo que los sistemas puedan entrenarse y generar resultados utilizando conjuntos de datos basados en material con derechos de autor. Pero es importante señalar que estas controversias se centran en gran medida en el enfoque tecnológico. Después de todo, la persona es quien introduce texto en el modelo de IA para obtener el resultado deseado, por lo que, en cambio, debemos preocuparnos por la relación que los humanos deben tener con los algoritmos.
Los algoritmos ya son parte de la creación de nuestro mundo, como lo hacen los humanos. Hemos estado considerando durante mucho tiempo la supervisión social de la opacidad de los algoritmos. En particular, sabíamos que la falta de transparencia hacía difícil evaluar quién era responsable y que la persistencia de los sesgos ocultos en ella podía llevar a resultados injustos. Por lo tanto, la pregunta más importante podría ser "¿cómo debemos tratar con los algoritmos?" y podemos encontrar pistas en nuestra relación familiar con los algoritmos de generación de contenido (algoritmos de generación de contenido).
Primero,Somos conscientes de la existencia de los algoritmos. Las palabras "recomendación" y "selección" aparecen a menudo en las conversaciones sobre contenido y publicidad, lo que evidencia el fenómeno de que las personas están construyendo un vocabulario en torno a los algoritmos dentro de las compras en línea o las redes sociales. Además,Tenemos mucha curiosidad por los algoritmos. A menudo expresamos nuestra curiosidad por los algoritmos con reacciones poco amigables cuando la página principal de YouTube se llena de contenido de una categoría específica o cuando creemos que la exposición de nuestro contenido publicado no es suficiente.
Finalmente,Queremos que los algoritmos existan para nosotros como entidades activas y vivas. Confiamos en los algoritmos para crear nuevos hábitos, aprender y recordar, y a menudo intentamos controlarlos por completo. Intentamos usar hashtags que parecen no estar relacionados, activar el modo no molestar o enviar comentarios sobre las opciones de publicidad. Y cuando todos estos intentos no tienen éxito, incluso intentamos desvincularnos de los algoritmos mediante un detox digital o el consumo de contenido de boletines.
En resumen, las personas tienden a mostrar desconfianza, malas evaluaciones y actitudes obsesivas con el pasado cuando la relación con los algoritmos no se desarrolla como se desea. Y esto se parece mucho a las"relaciones sociales"que mantenemos en nuestra vida diaria. Además, si la relación con los algoritmos de generación de contenido existente era principalmente unidireccional en el ámbito del "consumo", la relación con los algoritmos de IA de los modelos de lenguaje a gran escala actuales es más cercana a una relación bidireccional en el ámbito de la "generación". Dado que el resultado que el usuario solicita se basa en la creación de alguien más en el mundo que no tiene originalidad completa, necesitamos darnos cuenta de que la actitud y la actitud hacia los algoritmos de IA generativa deben cambiar fundamentalmente.
Incluso con la ventana de ChatGPT abierta, los algoritmos de IA simplemente esperan. Tal vez solo estén ocultos detrás de su increíble capacidad y estén ayudando a florecer una relación social oculta con otra persona en el mundo cuando escribes algo.
*Este artículo es la versión original del artículo publicado el 9 de enero de 2023 encolumna de opinión con nombre en el Korea Economic Daily .
Referencias