La nueva piedra filosofal
Zuckerberg presume de la mejoras, pero más que una superinteligencia, es una IA general (IAG), que básicamente podemos definir como aquella capaz de un desempeño comparable al nuestro, o incluso superior, en la resolución de problemas de todo tipo, no solo los basados en el cálculo matemático o el razonamiento formal, donde claramente ya nos superan las máquinas
Durante siglos muchas personas buscaron infructuosamente la piedra filosofal. Era el objetivo central de la alquimia, que fue algo así como la antesala de la ciencia, combinando saberes de la química, la física, la astrología y la medicina, entre otras disciplinas. Esta piedra mágica podría convertir metales de escaso valor, como el vil plomo, en otros preciosos, como el oro o la plata, lo que haría inmensamente rico a quien la descubriese o inventase, según el enfoque seguido para obtenerla. También había quien creía que a partir de ella se podría obtener un elixir de la vida, que conferiría la inmortalidad a quien lo tomase.
Recientemente, un equipo de físicos del Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) encontraron una forma de transformar plomo en oro, aunque por un pequeñísimo instante de tiempo y en cantidades ínfimas (picogramos). Además, el coste en tecnología y energía necesarios para hacerlo resultó enorme. No han hecho magia. El oro cuenta con 79 protones en su núcleo, mientras que el plomo posee 82. Con la tecnología actual se pueden eliminar (o expulsar) esos 3 protones sobrantes, algo que estos investigadores hicieron sometiendo a los átomos de plomo a choques a velocidades cercanas a la de la luz.
Los alquimistas tardíos del siglo XVIII jamás podrían haber imaginado algo como el LHC, así que es muy probable que los científicos de la computación de hoy ni siquiera nos asomemos a imaginar lo que está por venir, no ya en siglos sino en décadas. Lástima que soy demasiado mayor para verlo.
Hace unos días Mark Zuckerberg mostraba su alegría por las mejoras de los sistemas de IA de Meta. «La mejora es lenta por ahora, pero innegable. El desarrollo de la superinteligencia está a la vista», afirmó. Desde luego, a su compañía le están yendo bien las cosas, al menos si atendemos a los resultados financieros.
Zuckerberg no dijo qué entiende él ni su compañía por superinteligencia. Aunque superinteligencia, inteligencia artificial general e inteligencia artificial a nivel humano se usan comúnmente como sinónimos, no lo son -otro día entraremos en disquisiciones. De hecho, Zuckerberg parecía referirse más que a superinteligencia a una IA general (IAG), que básicamente podemos definir como aquella capaz de un desempeño comparable al nuestro, o incluso superior, en la resolución de problemas de todo tipo, no solo los basados en el cálculo matemático o el razonamiento formal, donde claramente ya nos superan las máquinas. Pensemos, por ejemplo, en el diagnóstico médico, el poder atender una situación de emergencia en la calle o gestionar una cuadrilla de personas en la extinción de un incendio. No hablo de una IA específica para cada tipo de problema, sino de una capaz de abordarlos todos, aunque fuese a través de la coordinación de agentes, estos sí especializados.
No habiendo una definición canónica de IAG o ampliamente asumida, al menos, lo cierto es que mucha gente especula sobre cuándo llegará esta. Por ejemplo, Demis Hassabis, CEO de DeepMind, piensa que la IAG se logrará en el horizonte de un lustro a una década. Poco tiempo, salvo que lo comparemos con la estimación de algunos de sus pares, cuyo optimismo es todavía más preocupante. Por ejemplo, Sam Altman, CEO de OpenAI, aventura que llegará durante el actual mandado de Trump -claro que este es capaz de prolongarse sine die como presidente de EE. UU. si alguien no lo remedia-. Por su parte el CEO de Anthropic, Dario Amodei, afirma que podría llegar ya en 2026.
Estas diferencias sobre ese momento singular en el que llegará la IAG se explican en buena medida por las distintas formas de entenderla. La definición de Altman se basa en una visión netamente empresarial: será una tecnología que podrá realizar las tareas de mayor valor económico mejor que los humanos. Hassabis tiene un criterio bien diferente, centrado en la capacidad de descubrimiento científico. Él cree que la IAG será una tecnología que no solo podrá resolver los problemas existentes, sino también ofrecer explicaciones completamente nuevas sobre el universo. Una prueba de su existencia podría ser la capacidad de la IA para formular la relatividad general con solo la información a la que tenía acceso Einstein cuando este la propuso.
No es la primera vez que se hacen predicciones exageradas sobre el futuro de la IA. En 1970 Marvin Minsky, uno de los padres del campo, comentaba en una entrevista publicada en la revista Life que en un período de 3 a 8 años las máquinas tendrían la inteligencia típica del ser humano. Pensaba en una máquina capaz de leer a Shakespeare, engrasar un coche, hacer tareas de oficina, contar chistes o incluso pelearse. Al margen de este potencial comportamiento pendenciero de la IA, lo cierto es que buena parte de los ejemplos que puso Minsky están hoy al alcance de las máquinas, pero estas siguen estando lejos, muy lejos, de la inteligencia de las personas. Además, Minsky pensaba que, llegado ese momento las máquinas aprenderían por sí mismas a una velocidad fabulosa, de modo que en unos pocos meses alcanzarían el nivel de un genio humano y, en unos pocos más, alcanzarían poderes inimaginables. Está claro que, fuese por la razón que fuese, Minsky se vino arriba.
La IAG, al margen de lo que cada quién entienda por tal, se ha convertido en la nueva piedra filosofal. En todo caso, conviene tener presente varias cosas. En primer lugar, que un modelo grande de lenguaje, o LLM, no es una IA general. Un LLM es un modelo multifunción, como una navaja suiza, que puede hacer muchas cosas para las que en general ha sido específicamente entrenado, aunque ciertas capacidades pueden emerger del modelo sin que hayan sido específicamente fijadas durante la instrucción del mismo.
Por otra parte, aunque hay investigadores que piensan que el agrandar y mejorar la capacidad de aprendizaje de los actuales modelos de IA podrá llevarnos a una IAG, yo no lo creo. Nuestra capacidad de aprendizaje, de utilización de lo aprendido, de pensamiento abstracto, de integración de información multimodal, de improvisación… y un largo etcétera de cosas que hacemos las personas, la mayor parte de forma inconsciente, está lejos del alcance de las arquitecturas de computación neuronal con las que trabajamos, incluso si mejoramos sensiblemente sus capacidades y las agigantamos aún más.
Lo cierto es que todos especulamos sobre el futuro de la IA. También los que afirman que vamos en el camino cierto para alcanzar la IAG y no se resisten a la tentación de lanzar predicciones al aire. A veces hacerlo es muy productivo, si con ello mueven voluntades o capitales.