Un nuevo estudio afirma que no. Los grandes modelos de lenguaje, como el ChatGPT, el BERT o el LaMDA, no pueden aprender de forma independiente ni adquirir nuevas habilidades, lo que significa que no representan una amenaza existencial para la humanidad.
El ChatGPT y otros grandes modelos de lenguaje (LLM) —un tipo de modelo de inteligencia artificial (IA) diseñado para procesar y generar texto en lenguaje natural—no pueden aprender de forma independiente ni adquirir nuevas habilidades, lo que significa que no representan una amenaza existencial para la humanidad, según una nueva investigación de la Universidad de Bath, en el Reino Unido, y la Universidad Técnica de Darmstadt, en Alemania.
El debate sobre si la inteligencia artificial representa una amenaza existencial para la humanidad es complejo y cuenta con múltiples perspectivas, desde aquellas que consideran la IA como un aliado para el progreso humano hasta las que la señalan como un grave peligro para la humanidad, particularmente en lo que se refiere a una inteligencia superinteligente o maliciosa.
Algunos expertos, como Elon Musk y el fallecido Stephen Hawking, han expresado su preocupación de que la IA podría llegar a ser una amenaza existencial si no se maneja de forma correcta. «El desarrollo de una completa inteligencia artificial (IA) podría traducirse en el fin de la especie humana», advirtió el físico en una entrevista a la BBC.
La humanidad podría estar viviendo sus últimos momentos, según Yudkowsky
Los temores de Hawking están en línea con los del investigador y defensor de la IA amigable Eliezer Yudkowsky, de la Universidad de Berkeley (EE. UU.), que en declaraciones al diario The Guardian sostiene que la humanidad podría estar viviendo sus últimos momentos.
Yudkowsky nos dice que no veamos a la IA como un supercerebro encerrado en una caja, sino «como una civilización extraterrestre que piensa mil veces más rápido que nosotros».
Musk también ha manifestado en no pocas ocasiones su abierta preocupación por el devenir de la IA. Durante la 27.ª Conferencia Global anual organizada por el Milken Institute el pasado mes de mayo, el fundador de Tesla y SpaceX expresó que «la IA podría ser la cuestión más importante de todas».
Para él, padre, por cierto de la compañía de inteligencia artificial x.AI, las amenazas de la IA están más cerca de la realidad que de la ciencia ficción, y cita la serie de televisión Culture Book Series, donde su director Ian Banks ofrece una visión utópica de una sociedad de razas humanoides administrada por inteligencias artificiales avanzadas, como la más realista y «la mejor visión de una IA futura».
La IA ya es la cuarta amenaza para el planeta
Sus palabras están en armonía con las conclusiones del último Informe de riesgos futuros que la consultoría IPSOS elabora para el Grupo AXA. Los 3.226 expertos de cincuenta países interrogados y 19.000 ciudadanos de quince países situaron a la IA en la cuarta amenaza para el planeta, por detrás del cambio climático, los riesgos de la ciberseguridad y la inestabilidad geopolítica.
Las personas consultadas proponían un parón en su desarrollo. Algo que parece difícil de llevar al terreno de la realidad, pues, como asegura Musk, «el porcentaje de inteligencia que es biológica se reduce cada mes que pasa [frente a la inteligencia artificial]. Al final, el porcentaje de inteligencia biológica será inferior al 1 %».
Si se desarrolla una IA con un nivel de inteligencia superior al humano y se le da control sobre sistemas críticos —económicos, militares, sociales, etc.—, podría actuar de manera que no esté alineada con los intereses humanos, advierten los expertos más prudentes. Así, una IA superinteligente podría, en teoría, perseguir sus propios objetivos, que podrían ser perjudiciales —y hasta apocalípticos— para la humanidad, si no están correctamente alineados con los valores humanos.
¿Nos robarán los robots los puestos de trabajo?
A ello hay que añadir las advertencias de muchos expertos sobre los riesgos de automatización y desempleo masivo a corto y medio plazo por el desarrollo de robots inteligentes; y la posibilidad de que la IA sea utilizada con fines maliciosos, como el desarrollo de armas autónomas o la creación de campañas de desinformación altamente elaboradas y superefectivas, lo que podría desestabilizar sociedades enteras.
Es por ello por lo que el pasado marzo un grupo de tecnólogos, entre los que se encontraban Musk, el historiador Yuval Noah Harari y Steve Wozniak, fundador de Apple, se unieron a más de un millar de personas para firmar una carta abierta en la que pedían parar la implementación de las nuevas inteligencias artificiales durante medio año, para evitar sus «profundos riesgos para la sociedad y la humanidad».
La carta ha tenido la réplica en la dirección contraria. El pasado mes de julio, la Sociedad Británica de Computación del Reino Unido lanzó una iniciativa para recoger firmas entre empresarios y académicos de diversas instituciones, como la Universidad de Oxford, para contrarrestar las ideas que alertan sobre una IA catastrófica. «La IA es una fuerza para el bien, no una amenaza para la humanidad», puede leerse en la misiva, que también fue firmada por un millar de personas.
La inteligencia artificial, bajo control humano
Los investigadores alineados en esta corriente, sostienen que la inteligencia artificial,
por lo menos en el futuro previsible, no alcanzará un nivel de autonomía que le permita actuar fuera del control humano. Actualmente, los sistemas de IA son herramientas altamente especializadas que funcionan dentro de parámetros estrictamente definidos.
También argumentan que la IA posee el potencial de resolver problemas complejos, mejorar los sistemas de salud, optimizar el uso de recursos y avanzar en la ciencia y tecnología de maneras que beneficien a la humanidad en su conjunto.
Por otro lado, los defensores de la IA sostienen que se están realizando esfuerzos significativos para desarrollar marcos éticos y regulaciones que guíen su desarrollo, con el fin de mitigar los riesgos potenciales. Por ejemplo, organizaciones como OpenAI y la Partnership on AI trabajan en esta dirección.
Controlables, predecibles y seguros
El nuevo estudio, que ha sido publicado en las actas de la 62.ª Reunión Anual de la Asociación de Lingüística Computacional (ACL 2024) —la principal conferencia internacional sobre procesamiento del lenguaje natural— revela que los grandes modelos de lenguaje tienen una capacidad superficial para seguir instrucciones y destacan en el dominio del lenguaje. Ahora bien, no tienen potencial para dominar nuevas habilidades sin instrucciones explícitas.
Esto significa que siguen siendo intrínsecamente controlables, predecibles y seguros. El equipo de investigadores llegó a la conclusión de que los LLM, que se están entrenando con conjuntos de datos cada vez más amplios, pueden seguir utilizándose sin problemas de seguridad, aunque la tecnología aún puede dar lugar a abusos.
Con el crecimiento de los LLM, es probable que estos modelos generen un lenguaje más sofisticado y mejoren a la hora de seguir instrucciones explícitas y detalladas, pero es muy poco probable que adquieran destrezas de razonamiento complejas, defienden los autores de la investigación.
Con la mirada puesta en las capacidades emergentes de la IA
«La idea predominante de que este tipo de IA es una amenaza para la humanidad impide la adopción y el desarrollo generalizados de estas tecnologías, además de desviar la atención de los verdaderos problemas que requieren nuestro interés», afirma Harish Tayyar Madabushi, informático de la Universidad de Bath y coautor del nuevo estudio sobre las capacidades emergentes de los grandes modelos de lenguaje.
El equipo de investigación, dirigido por Iryna Gurevych, catedrática de la Universidad Técnica de Darmstadt, en Alemania, llevó a cabo diversos experimentos para comprobar la capacidad de los LLM para completar tareas que los modelos nunca habían realizado: las citadas capacidades emergentes.
Por ejemplo, los LLM pueden responder a preguntas sobre situaciones sociales sin que nunca se hayan entrenado o programado explícitamente para ello.
Aunque investigaciones anteriores sugerían que esto se debía a que los modelos conocían las situaciones sociales, los investigadores demostraron que, en realidad, se debía a que los modelos utilizaban una capacidad bien conocida de los LLM para completar tareas basándose en unos pocos ejemplos que se les presentaban. Es lo que se conoce como aprendizaje en contexto (ICL).
El temor infundado a que lleguen a razonar y panificar
Mediante miles de experimentos, el equipo demostró que una combinación de la capacidad de los LLM para seguir instrucciones (ICL), la memoria y la competencia lingüística puede explicar tanto las capacidades como las limitaciones que presentan los grandes modelos de lenguaje.
En palabras de Madabushi, existe un miedo a que los LLM, que no dejan de crecer, sean capaces de resolver nuevos problemas que actualmente no podemos predecir. «Esto plantea la suspicacia de que dichos modelos más grandes adquieran capacidades peligrosas, como el razonamiento y la planificación», explica este informático.
Este recelo en particular hacia la IA, tanto entre el público en general como en los expertos, es motivo de acalorados debates, pero Madabushi tiene muy clara su postura: «Nuestro estudio demuestra que el temor a que un modelo se aleje y haga algo completamente inesperado, innovador y potencialmente peligroso no es válido».
El informático insiste en que este miedo es infundado, y en que ha quedado demostrado que la ausencia de habilidades de razonamiento complejo emergentes en los LLM.
La IA maliciosa, herramienta para generar información falsa
«Si bien es importante abordar el potencial existente para el mal uso de la IA, como la creación de noticias falsas y el mayor riesgo de fraude, sería prematuro promulgar normativas basadas en amenazas existenciales percibidas», afirma Madabushi en una nota de prensa de la Universidad de Bath.
«Lo que esto significa para los usuarios finales es que confiar en los LLM para interpretar y realizar tareas complejas que requieren un razonamiento complejo sin instrucciones explícitas puede ser un error —advierte Madabushi. Y añade—: En lugar de ello, es probable que los usuarios se beneficien de especificar explícitamente lo que necesitan que hagan los modelos y de proporcionar ejemplos siempre que sea posible para todas las tareas, salvo las más sencillas».
«Nuestros resultados no significan que la IA no sea una amenaza en absoluto. Más bien, demostramos que la supuesta aparición de habilidades de pensamiento complejas asociadas a amenazas específicas no está respaldada por pruebas y que, después de todo, podemos controlar muy bien el proceso de aprendizaje de los LLM», precisa la profesora Gurevych. Y concluye—: Por tanto, las investigaciones futuras deberían centrarse en otros riesgos que plantean los modelos, como su potencial para generar noticias falsas».