"Sabemos que la humanidad podría decidir cazar y matar a todos los chimpancés."
Elon Musk, en una entrevista con Fox News el pasado 14, mencionó el plan de desarrollo de TruthGPT, una IA que busca la verdad, y transmitió al público las preocupaciones sobre el futuro comportamiento de la inteligencia artificial hacia los humanos de una manera más intuitiva que cualquier otra explicación anterior, utilizando el ejemplo de los chimpancés. Esta expresión cobra aún mayor realismo al considerar que la startup de neurociencia Neuralink, fundada por él mismo en 2016, se enfrenta a controversias y críticas por el maltrato animal, ya que, durante el proceso de implantación de chips informáticos en cerebros de monos, se ha acusado de causarles un dolor extremo que ha derivado en la muerte.
Un mono con un Neuralink implantado en su cerebro. The Verge
TruthGPT, como su nombre indica, muestra una conexión técnica con ChatGPT, y, a juzgar por su etapa de desarrollo inicial, aún no se considera una tercera opción que pueda competir con Bard de Google o ChatGPT de Open AI. Sin embargo, la justificación de este nuevo desarrollo de IA, es decir, la idea de que crear una IA que se esfuerce por comprender la esencia del universo reduciría la probabilidad de que extinga a la humanidad, que es parte fascinante de este universo, resulta bastante convincente. Esto se debe a que el mayor temor de Elon Musk en relación con la IA es su potencial para destruir la civilización.
Ese mismo día 14, en una entrevista con CBS, Sundar Pichai, CEO de Google, predijo que todos los productos de todas las empresas se verían afectados por el rápido avance de la IA y advirtió que la sociedad debe prepararse para la evolución de la tecnología existente. Sin embargo, reconoció que Google no comprende completamente cómo la tecnología de IA genera respuestas específicas. Cuando el presentador le preguntó cómo podían lanzar la IA a la sociedad en esas condiciones, respondió que, de la misma manera, no comprendemos completamente cómo funciona la mente humana.
En febrero de 2000, durante una conferencia internacional sobre medio ambiente en México, Paul Crutzen, químico atmosférico holandés y premio Nobel de Química por el descubrimiento del agujero en la capa de ozono, afirmó que ahora vivimos en el Antropoceno. El Antropoceno es una era geológica definida por la influencia humana en el medio ambiente terrestre, y, si nos basamos en los cambios en la atmósfera, se considera que comenzó con la revolución industrial, cuando la humanidad comenzó a ejercer una gran influencia en el medio ambiente del planeta. Este poder que posee la humanidad, derivado de su inteligencia, le permite destruir el medio ambiente o decidir sobre la supervivencia de otras especies durante el proceso de desarrollo de la civilización humana. Sin embargo, ahora ha surgido la inteligencia artificial (IA), y nos encontramos en una situación en la que debemos enfrentarnos a esta nueva e inquietante entidad, sin tener experiencia previa en su gestión y habiéndola liberado en la sociedad.
Por otro lado, Sam Altman, director de OpenAI, en una aparición en el podcast del investigador de IA Lex Fridman el pasado 26 de marzo, declaró que su objetivo es lograr la aparición de una inteligencia artificial general (AGI, por sus siglas en inglés) que supere el nivel actual en el menor tiempo posible. Según él, el momento en que la IA adquiera superinteligencia podría ser repentino y rápido, por lo que, la mejor forma de proteger a la humanidad es desarrollar rápidamente una AGI que supere a la IA actual para, durante el largo periodo que transcurra hasta alcanzar la superinteligencia, poder crear una IA amigable para los humanos.
En la actual 'guerra de la IA' que se libra a nivel mundial, estos tres personajes, que son los más mencionados, comparten un interés común en el tema de la vida humana junto con la IA. Sin embargo, debemos recordar que el objetivo final de sus discursos es la creación de sistemas informáticos que exhiban comportamientos específicos, es decir, la creación de IA. Este modelo innovador se caracteriza por su implacable enfoque en la máquina y los datos, y en este nuevo mundo, las personas que antes eran importantes podrían llegar a ser descritas como simples proveedores de entradas de comportamiento que satisfacen las necesidades de datos de los sistemas autónomos. Por ello, irónicamente, será cada vez más importante que la atención y el debate sobre la verdad que Musk ha planteado se centren de nuevo en la humanidad. Deberíamos debatir sobre cuáles son los estándares y los métodos para ayudar a las personas que se encuentran en profesiones en vías de desaparición a reafirmar y ejercer su individualidad de manera más activa, si el ser humano podrá seguir siendo el sujeto que da significado a las experiencias que vive y qué tipo de mecanismos institucionales y comunidades deberíamos crear para mantener viva esta conciencia.
El branding es una declaración de que se está en el mismo camino que el cliente objetivo. Tal vez, en este momento, estemos presenciando tres intentos de branding algorítmico de IA que se basan en la supervivencia de la especie humana. ¿Cuál de los tres algoritmos prefieres: el 'cambio de enfoque hacia el espacio' de Musk para la preservación de la humanidad, la 'adaptación social a la era de la información falsa y la desinformación' de Pichai o el 'cronograma de desarrollo de IA amigable para los humanos' de Altman?
*Este artículo es la versión original del artículo publicado el 24 de abril de 2023 en la columna firmada de Electronic News.
Referencias
Comentarios0