
La inteligencia artificial cada vez es más potente. Si hace apenas cinco años contábamos únicamente con sistemas capaces de leer o balbucear textos de forma rudimentaria, a día de hoy disponemos de inteligencias artificiales capaces de resolver problemas de olimpiadas matemáticas, de posicionarse en los primeros puestos de los rankings mundiales de competiciones de programación, o de crear instantáneamente piezas audiovisuales indistinguibles de la realidad. Todos lo estamos sintiendo, ese vértigo, esa sensación de que lo único que podemos tener claro sobre el futuro es que va a ser muy diferente al presente que estamos viviendo ahora. Las predicciones de que la inteligencia artificial lo iba a cambiar todo se están volviendo realidad, y en 2025 gran parte del debate en este campo se va a centrar justamente en un concepto que lleva décadas en el imaginario colectivo pero que ahora cobra una relevancia sin precedentes: la Inteligencia Artificial General, conocida por sus siglas AGI. Pero, exactamente, ¿qué es la AGI? ¿Cómo se define con precisión? ¿Y qué tan cerca estamos realmente de conseguirla? Este artículo se propone analizar por primera vez en profundidad estas cuestiones, sirviendo como testimonio de los tiempos extraordinarios que estamos viviendo.
Definiendo la Inteligencia General: Más Allá de las Máquinas Especializadas
El ser humano tiene una tendencia innata a verse como el centro del universo, y cuando hablamos de inteligencia no podía ser menos. Si viajamos atrás en el tiempo, hasta 1956, a la histórica conferencia de Dartmouth donde se forjó el concepto mismo de inteligencia artificial, la propuesta inicial ya indicaba que se trataría de un intento de averiguar cómo lograr que las máquinas usaran el lenguaje, formaran abstracciones y conceptos, y resolvieran tipos de problemas que hasta ese momento estaban reservados exclusivamente para los humanos. Una propuesta increíblemente ambiciosa, sobre todo si tenemos en cuenta que para lograr esto se pusieron un plazo de apenas dos meses. Este texto fundacional, que dio origen a todo un campo de estudio, fue extraordinariamente premonitorio al establecer un objetivo claro: máquinas capaces de ser tan inteligentes como nosotros. Pero este objetivo no es tan sencillo de acotar como podría parecer. Una calculadora, por ejemplo, es una máquina que puede realizar cálculos matemáticos a un nivel similar o incluso superior al nuestro, con mayor velocidad y precisión. ¿Significa eso que una calculadora es una AGI? La respuesta es un rotundo no, y la clave está en la letra ‘G’ de AGI, que nos habla de inteligencia general. Ya en 2017, al definir qué era la inteligencia artificial, se señalaba que, si bien los humanos no destacamos tanto como una máquina en tareas concretas y específicas, somos extraordinariamente buenos en un rango amplio y variado de tareas, siendo incluso capaces de aprender nuevas habilidades para adaptarnos a circunstancias cambiantes. Es precisamente esta generalidad, esta capacidad de aprender y ejecutar una gran diversidad de tareas, lo que se persigue cuando hablamos de inteligencia artificial general: inteligencias artificiales que sean tan capaces en un rango de tareas tan amplio como lo somos los humanos.
Las Dos Dimensiones del Progreso: Desempeño y Generalidad
Para empezar a organizar las ideas, podemos establecer que una inteligencia artificial será más general que otra si es más capaz a la hora de resolver una tarea y, además, si esa tarea cubre un rango más amplio de habilidades. Visto así, en estas dos dimensiones, podemos decir que GPT-4 es más general que GPT-2 no solo por su superior capacidad para generar texto, sino porque, al hacerlo, cubre un rango mucho mayor de habilidades: traducir, programar, escribir poemas, responder preguntas complejas. Siguiendo este esquema como guía, podemos visualizar que el día en que la inteligencia artificial alcance más o menos nuestro nivel de desempeño en un rango de capacidades tan amplio como todo lo que nosotros podemos hacer, ese día estaremos hablando de una AGI. Y la pregunta del millón es: ¿qué tan cerca está la inteligencia artificial de lograr esto? Analicemos la evolución en cada una de estas dos dimensiones. Por el lado del desempeño, desde el boom del deep learning y las redes neuronales en 2012, la inteligencia artificial no ha parado de mejorar. Hace menos de diez años, evaluábamos a la inteligencia artificial por su capacidad de leer, reconocer imágenes o resolver problemas sencillos de matemáticas. Tareas para las que, poco a poco, alcanzó nuestro nivel. Entonces le pusimos tareas más difíciles: pruebas de conocimiento general, lectura en múltiples idiomas, competiciones de matemáticas. Y de nuevo, a un ritmo incluso más rápido que antes, volvió a alcanzar y en muchos casos a superar nuestras capacidades. A día de hoy, modelos como GPT-4o, Claude o Gemini se evalúan no con tareas diseñadas para inteligencias artificiales, sino directamente con tareas académicas y profesionales pensadas para humanos, logrando nuevamente un desempeño sobresaliente. En cuestión de quince años, la inteligencia artificial ha pasado de aprender a hablar y escribir a sacarse múltiples carreras universitarias a la vez. En la dimensión del desempeño, nos movemos cada vez más rápido hacia la meta.
La Explosión de la Generalidad: De Modelos Únicos a Sistemas Omnicomprensivos
En cuanto a la generalidad, el panorama es igualmente fascinante. No hace tanto tiempo, los modelos de inteligencia artificial eran sistemas de redes neuronales que se entrenaban para hacer muy bien una única tarea. La hacían muy bien, ciertamente, pero era una sola tarea. Una inteligencia artificial entrenada para hacer resúmenes de texto no era capaz de escribir un poema. Pero luego llegó la idea revolucionaria de los modelos fundacionales, como la familia GPT, donde un mismo modelo puede hacer un resumen, traducir, responder preguntas, programar. Un único modelo resolviendo múltiples tareas, inteligencias artificiales más generales. Pero la evolución no se detuvo ahí. A esto le sumamos la multimodalidad, la capacidad de que la inteligencia artificial pueda procesar fuentes de información de diferente naturaleza: texto, imágenes, audio, incluso acciones de robots. Esto ha hecho a los modelos más versátiles y capaces de resolver tareas en múltiples dominios, modelos aún más generales. Y la última tendencia que debemos incorporar es el actual paradigma del test-time compute, donde los modelos pueden dedicar tiempo de computación a «pensar» más en la solución de un problema, planteando opciones y estrategias alternativas, y diseñando durante la inferencia soluciones creativas a problemas nunca antes vistos. Esta capacidad demuestra una creatividad nunca vista y nos permite utilizar estos modelos ya entrenados para resolver problemas que antes la inteligencia artificial no podía abordar. En cuestión de una década, hemos pasado a modelos más capaces y más generales, y casi parecería que pocos avances más se tienen que dar para poder llegar a ese esquivo objetivo de la AGI. De hecho, Sam Altman, en una de sus últimas declaraciones, afirmaba que están confiados en que saben cómo construir una AGI, que aunque aún queda una enorme cantidad de trabajo por delante y existen incógnitas conocidas, básicamente creen saber lo que hay que hacer.
El Juego de los Incentivos y la Necesidad de una Definición Precisa
Si todo esto está resuelto, uno podría pensar que lo más difícil ya queda atrás. Pero realmente, lo más difícil viene ahora y es saber diferenciar cuánto hay de realidad y cuánto hay de marketing en todas estas declaraciones. Los incentivos para que las empresas privadas declaren que saben cómo construir una AGI son enormes. De existir una tecnología de tal calibre, sería de un altísimo valor económico para la empresa que la posea. Y siendo así, ¿quién no invertiría en una empresa que dice saber cómo implementarla? Existen incluso casos más curiosos que ilustran esta batalla comercial por la inteligencia artificial general. En el acuerdo de alianza entre OpenAI y Microsoft, donde uno ofrece al otro acceso a grandes cantidades de recursos computacionales mientras que el otro le da acceso a sus investigaciones y tecnologías más avanzadas, hay una cláusula reveladora: el acuerdo quedará invalidado si esa tecnología es una AGI. No todas las tecnologías desarrolladas por OpenAI van a ser dadas a Microsoft. Y siendo esto así, existen muchos incentivos por parte de muchas empresas por declararse conquistadores de la AGI, lo cual nos obliga a definirlo con un poco más de exactitud. Aquí aparece una de las empresas que fue pionera a la hora de ponerse como objetivo construir una AGI en tiempos en los que decir esto en alto era motivo de burla en la academia: hablamos, por supuesto, del laboratorio DeepMind. En uno de sus papers del año 2024, definían una tabla con diferentes niveles de sistemas inteligentes para clasificar una AGI. Para ello, se basaban en las dos dimensiones que hemos comentado: la capacidad de la inteligencia artificial a la hora de resolver una tarea, medida por el percentil que ocuparía frente al resto de la humanidad, y su grado de generalidad, clasificado entre inteligencias artificiales específicas e inteligencias artificiales generales. Visto así, en el nivel uno nos encontramos con aquellas inteligencias artificiales que tienen capacidades iguales o ligeramente superiores a las de un humano no especializado. Es decir, inteligencias artificiales cuyo nivel de desempeño fuera el tuyo o el mío para aquellas tareas de las cuales no somos especialistas. Lo interesante es que en este nivel es donde aparecían sistemas como ChatGPT o Gemini, catalogadas como inteligencias artificiales generales emergentes, capaces de hacer un amplio rango de tareas al igual que un humano no especializado. Pero esto continúa con más niveles: competente, si supera a la mitad de la población adulta; experto, si supera al 90%; virtuoso, en el 99%; y finalmente, superhumano. Para cada uno de estos niveles tenemos ejemplos de inteligencias artificiales estrechas, cuyo desempeño se enfoca solo en tareas concretas, como sistemas que juegan al ajedrez mejor que los humanos o que son capaces de predecir la forma de las proteínas. Sin embargo, lo interesante se encuentra en la columna de la inteligencia artificial generalista, que según esta tabla de hace un año, no se había conseguido en ninguno de esos niveles. Pero, ¿y si tuviéramos que actualizarla a día de hoy? ¿Acaso sistemas como ChatGPT no son capaces ahora de hacer tareas que ya lograban hace un año, pero a un nivel superior al de la mitad de la población, o incluso mejor que el 90% de la población a nivel experto? Hemos visto que modelos como o3, en competiciones de programación, consiguen estar en el percentil 99,8, y en muchas otras tareas su desempeño es igualmente espectacular. Un único modelo. Bajo los estándares de DeepMind, ¿en qué nivel de AGI podríamos catalogar a esta inteligencia artificial? Podríamos preguntarle a los padres de la criatura, a OpenAI, que en esto tienen un enfoque mucho más simplista, ya que ellos definen la AGI como un sistema altamente autónomo que superará a los humanos en la mayoría de trabajos económicamente valiosos. Sustituir trabajos económicamente valiosos. ¿Qué tan cerca estamos de esto? Hemos visto que los avances en deep learning han aumentado notablemente en los últimos años, pero seamos realistas: todavía a día de hoy, un chat de texto no te va a poner un empaste, ni va a cuidar tu jardín, ni va a hacerte la declaración de la renta. Y aquí entra en juego una diferencia clave cuando hablamos de inteligencia artificial, y es si una inteligencia artificial es potencialmente capaz de hacer todas estas tareas, frente a una inteligencia artificial que realmente pueda hacerlas. No es lo mismo. Un taxista, por ejemplo, potencialmente sabe cómo conducir y sabe desempeñar un trabajo económicamente viable, pero si no le damos un coche que conducir, no podrá hacer esa tarea. Pues con la inteligencia artificial pasa exactamente igual.
El Puente Hacia la AGI: Agentes Autónomos y Robótica
En esta línea de trabajo, de dotar de infraestructura y capacidad a los modelos para poder extraer todo ese potencial y ejecutar tareas económicamente viables, sabemos que en 2025 hay dos líneas de trabajo fundamentalmente importantes: los agentes autónomos y la robótica. A comienzos de 2025, empezamos a ver a los grandes laboratorios presentar agentes autónomos como Operator o Deep Research, que ya no se limitan a actuar dentro de un chat cuando nosotros le hacemos una petición, sino que empiezan a interactuar con el mundo digital. Ya sea para resolver tareas relativamente sencillas utilizando las interfaces que nosotros utilizamos, como ratón, teclado y pantalla, o para navegar durante un largo tiempo buscando aquellas fuentes de información necesarias para redactar un informe de calidad profesional. A los modelos de lenguaje ya podemos proponerles una tarea, dejar que interactúen independientemente durante un rato, y que al volver, con suerte, esa tarea ya esté hecha. Más capacidad y más generalidad. Y el equivalente a los agentes autónomos en el mundo físico real pasa por la robótica, un problema más complejo que depende de mejoras en hardware, baterías y en los algoritmos de aprendizaje automático para que el robot pueda aprender a moverse, adaptarse y ejecutar con independencia aquellas tareas que le pidamos. De nuevo, un campo donde cada vez más rápido se están logrando hitos que hasta hace no tanto tiempo se veían mucho más lejanos, y donde ciertamente cada vez vemos más ejemplos que parecen sacados de películas de ciencia ficción. Con los agentes autónomos, lo que buscamos es darle a la inteligencia artificial las herramientas necesarias, la infraestructura, para que pueda desplegar su capacidad de hacer, de ejecutar tareas en el mundo digital. Y de forma equivalente, buscamos lo mismo con la robótica, pero aplicado al mundo físico real. Esto lleva a pensar que la llegada de la AGI podría ocurrir en dos tiempos. Primero, y esto es algo que se percibe como muy cercano, asistiremos a la llegada de la inteligencia artificial general en el mundo digital, con los agentes autónomos que se encargarán de realizar a través de internet la mayoría de trabajos digitales económicamente valiosos. Algo que probablemente ocurra en el corto o medio plazo y cuya progresión va a ser muy rápida. Luego, en el medio y largo plazo, la llegada de la AGI al mundo físico probablemente ocurra de forma más lenta y paulatina, dados los límites que impone el mundo real. La gran incógnita sigue siendo cuándo va a ocurrir todo esto. Intentar dar una respuesta correcta es muy difícil, porque hay mucha incertidumbre en juego, pero muchos expertos coinciden, sin dar una fecha concreta, en que esto es algo que con seguridad vamos a experimentar en esta próxima década.
La Dinámica Exponencial: Gradualmente y Luego de Repente
Hacer estimaciones con este tipo de tecnologías exponenciales es algo que a los humanos no se nos da muy bien. Hay una frase de Ernest Hemingway que se repite mucho en los círculos de la inteligencia artificial y que captura exactamente esta idea: «gradualmente y luego de repente». Un patrón que en el mundo de la inteligencia artificial vemos ocurrir todo el rato: primero gradualmente y luego de repente. Detrás de esa frase que describe algo que primero crece lento y luego se dispara, se esconden los efectos de una curva exponencial. La historia de la inteligencia artificial está repleta de estas curvas, donde primero no parece que pase nada y, de repente, cuando te das cuenta, todo ha cambiado. En el debate de la inteligencia artificial general, estas curvas exponenciales entran en juego cuando discutimos cuánto vamos a tardar en llegar a ese futuro, contraponiendo posturas que hablan de un despegue lento, donde la llegada a la AGI sea más paulatina y pausada, frente a la apuesta más radical y vertiginosa que sería la del despegue rápido, donde la llegada a la AGI se viva como un futuro que está ahí, al que nos movemos de forma gradual y luego, de repente. Esta curva exponencial de progreso que describiría el despegue rápido se podría explicar por un proceso de automejora, donde la misma tecnología que estamos desarrollando acaba generando efectos que nos permiten llegar más rápido a una versión más potente de esa tecnología, de la que de nuevo podemos aprovecharnos para continuar mejorando. Son estos efectos de automejora con retroalimentación positiva los que podrían explicar este despegue rápido. La sensación es que el punto en el que nos encontramos ahora, en estos últimos meses con todos los cambios que estamos viviendo, es justo este punto donde el avión empieza a elevar el vuelo. Desde 2023, con los grandes modelos de lenguaje, el uso de la inteligencia artificial en programación ha ido en aumento, ya que estas herramientas ofrecen una reducción en el coste de producir software, multiplicando la productividad de todos los programadores del planeta mes tras mes. Algo que tiene un efecto directo en nuestra economía. Pero es que, además, aquí entra este concepto de automejora. Delegar cada vez más la programación a la inteligencia artificial nos va a permitir desarrollar de forma más ágil y más rápida mejores inteligencias artificiales. Tener un sistema capaz de plantear ideas novedosas, implementarlas, optimizarlas e iterar sobre ellas es, obviamente, el siguiente paso. Las inteligencias artificiales de programación evolucionarán para automatizar todos estos procesos, algo que ocurrirá pronto cuando los agentes autónomos vayan adquiriendo más y más capacidades. Automatizaremos las fases del proceso de diseño y experimentación de la inteligencia artificial. Sobre esto, Mark Zuckerberg o Sam Altman ya han declarado su intención de diseñar AI engineers, ingenieros de inteligencia artificial. Ya contamos actualmente con benchmarks como ML-Bench que buscan medir exactamente esto: ¿puede una inteligencia artificial hacer las labores de un ingeniero de inteligencia artificial? Y tener inteligencias artificiales que abaraten el desarrollo de la inteligencia artificial va a permitir que podamos desarrollar más y mejores modelos para nichos específicos. Nichos que a lo mejor a día de hoy, por falta de talento humano, no son rentables, pero que si tienes una inteligencia artificial que pueda trabajar en dar solución a ese problema, lo serán. Así podremos enfocar a la inteligencia artificial y todos nuestros recursos computacionales a que se dedique en cuerpo y alma a la búsqueda de nuevos materiales, a la formulación y demostración de teoremas matemáticos, o al diseño de nuevos semiconductores. El resultado de esto podrían ser chips más rápidos y eficientes, u optimizaciones matemáticas que aceleren aún más el desarrollo de la inteligencia artificial, nuevos materiales que podríamos aplicar para mejorar todo nuestro stack tecnológico, como baterías que impulsen la transición energética, y como resultado, energía en abundancia que podríamos canjear por más computación de forma sostenible. Mejoras que nos acercan a otras mejoras, que nos acercan a otras mejoras, en un ciclo que se repite cada vez más rápido. Este camino que acabamos de dibujar es uno de los muchos que se están empezando a recorrer ahora mismo, donde los efectos compuestos de toda la mejora que hemos desarrollado en inteligencia artificial en los últimos años empiezan a cobrar sentido. Nunca antes habíamos tenido en el horizonte el potencial de desbloquear tantas ramas del árbol tecnológico como tenemos ahora en este presente. Y si bien en la naturaleza no existen realmente curvas exponenciales que crezcan hasta el infinito, sino sigmoides que acaban saturando cuando nos encontramos con recursos limitados, aquí tenemos el reto y el desafío de hacerlo bien y de no agotar nuestros recursos por el camino. Ahí entran tanto los recursos naturales, que sabemos que este tipo de tecnologías consumen en abundancia, como recursos más intangibles, como la estabilidad de una sociedad que se va a tener que enfrentar en los próximos años a transformaciones muy radicales.
Tras todo lo que hemos visto, es evidente que nos estamos moviendo cada vez más rápido hacia un futuro donde la inteligencia artificial general será una realidad. Pero al igual que Copérnico demostró que nosotros no éramos el centro del universo, es importante resaltar lo limitado que es colocar en una gráfica «el nosotros». Hablamos de la inteligencia artificial general como una especie de reflejo de nuestras capacidades, olvidando en muchos casos que estas dos dimensiones pueden seguir creciendo bastante, mucho más lejos de donde nos encontramos. Este sería el territorio de la superinteligencia artificial, la ASI, un lugar destinado para aquellos sistemas de inteligencia artificial que puedan resolver un rango de tareas mayores a las que nosotros podemos resolver y, crucialmente, con un nivel de desempeño superior al del cien por cien de los humanos. Inteligencias artificiales superhumanas, un tema que merece un análisis profundo por sí mismo, pero que parte de la base que hemos establecido aquí: el viaje hacia la AGI no es solo una carrera tecnológica, sino una redefinición de nuestro lugar en el universo de la inteligencia.
