
Cada semana sale un titular diciendo que estamos "más cerca que nunca de la AGI". OpenAI dice que es su misión. Google DeepMind lo tiene como objetivo. Anthropic se creó explícitamente para hacer una AGI segura.
Pero ¿qué es exactamente la AGI? ¿En qué se diferencia de la IA que ya usamos? ¿Y deberíamos preocuparnos o emocionarnos?
La respuesta honesta: depende de a quién preguntes. Y eso ya te dice mucho sobre dónde estamos.
Qué es la AGI (definición clara)
AGI son las siglas de Artificial General Intelligence (Inteligencia Artificial General). Es una IA que podría realizar cualquier tarea intelectual que puede hacer un ser humano.
No una tarea. Cualquier tarea.
La IA actual (ChatGPT, Claude, Gemini) es IA estrecha: hace cosas concretas muy bien, pero no puede salir de su dominio. ChatGPT escribe textos brillantes pero no puede conducir un coche, diagnosticar una enfermedad mirándote a la cara ni aprender a tocar el piano.
Una AGI podría hacer todo eso. Y además:
- Aprender tareas nuevas sin ser re-entrenada específicamente
- Transferir conocimiento entre dominios diferentes
- Razonar sobre problemas que nunca ha visto antes
- Entender contexto, emociones y matices como un humano
La IA actual es un especialista brillante. La AGI sería un generalista brillante: buena en todo, no solo en una cosa.

Por qué no tenemos AGI todavía
ChatGPT puede escribir poesía, código, ensayos legales y recetas de cocina. ¿No es eso "general"?
No. Y la diferencia es sutil pero fundamental.
ChatGPT es un modelo de lenguaje extremadamente bueno prediciendo la siguiente palabra. Todo lo que hace, por impresionante que sea, es predicción de texto. No comprende lo que dice. No tiene experiencias. No puede actuar en el mundo físico.
Lo que le falta a la IA actual para ser AGI:
Razonamiento genuino. Los LLMs simulan razonamiento mediante patrones, pero fallan en problemas de lógica que un niño de 10 años resolvería. Pueden resolver ecuaciones complejas que han visto en los datos de entrenamiento, pero tropiezan con variaciones nuevas.
Aprendizaje continuo. Un humano aprende algo nuevo cada día y lo integra con todo lo que sabe. Un LLM necesita ser re-entrenado completamente para incorporar conocimiento nuevo (o usar soluciones parciales como RAG).
Embodiment. Los humanos entendemos el mundo porque vivimos en él. Sabemos que el agua moja, que el fuego quema y que las cosas caen hacia abajo, porque lo hemos experimentado. Un LLM solo ha leído sobre esas cosas.
Sentido común. "Si pongo un vaso al borde de la mesa y lo empujo, ¿qué pasa?" Un humano lo sabe porque tiene un modelo interno del mundo físico. La IA puede responder correctamente (lo ha leído), pero no lo "sabe" de verdad.

Quién está intentando construir AGI
OpenAI
Su misión literal es "asegurar que la AGI beneficie a toda la humanidad". Son los creadores de GPT-4 y los modelos o3 de razonamiento. Sam Altman ha dicho públicamente que cree que la AGI llegará "antes de lo que la gente espera".
Su estrategia: escalar modelos de lenguaje cada vez más grandes y añadir capacidades de razonamiento (serie o1/o3).
Google DeepMind
Fusión de Google Brain y DeepMind, el laboratorio que creó AlphaGo (la IA que venció al campeón mundial de Go). Demis Hassabis, su líder, lleva décadas trabajando hacia la AGI.
Su estrategia: combinar modelos de lenguaje (Gemini) con aprendizaje por refuerzo y razonamiento simbólico.
Anthropic
Fundada por ex-empleados de OpenAI preocupados por la seguridad. Creadores de Claude. Su enfoque es "construir AGI de forma segura", priorizando la alineación (que la IA haga lo que queremos) sobre la velocidad.
Su estrategia: investigación en interpretabilidad (entender qué pasa dentro de los modelos) y Constitutional AI.
Meta AI
Yann LeCun, jefe de IA de Meta, es famoso por ser escéptico. Cree que los LLMs actuales nunca alcanzarán la AGI y que necesitamos arquitecturas completamente nuevas.
Su estrategia: modelos open source (Llama) y investigación en "world models" (modelos que entienden el mundo físico).
Nota Importante
Presta atención a este detalle.
Los niveles de AGI según Google DeepMind
En 2023, Google DeepMind publicó un framework para medir el progreso hacia la AGI con 5 niveles:
| Nivel | Nombre | Descripción | ¿Dónde estamos? |
|---|---|---|---|
| 1 | Emergente | Igual o peor que un humano no experto | ChatGPT-3.5, Gemini 1.0 |
| 2 | Competente | Al menos percentil 50 humano | GPT-4, Claude 3.5, Gemini 2 |
| 3 | Experto | Percentil 90 humano | Algunos modelos en tareas específicas |
| 4 | Virtuoso | Percentil 99 humano | No alcanzado de forma general |
| 5 | Sobrehumano | Supera a todos los humanos | Solo en juegos (ajedrez, Go) |
La IA actual está entre el nivel 2 y 3, dependiendo de la tarea. En escritura creativa y código, roza el nivel 3. En razonamiento matemático complejo, está más cerca del 2.
Importante: estos niveles se miden por tarea. No hay ningún sistema que sea nivel 3 en TODAS las tareas. Eso sería AGI.
¿Cuándo llegará la AGI?
Las predicciones varían salvajemente:
Los optimistas (2-5 años):
- Sam Altman (OpenAI): ha insinuado que podría estar cerca
- Ray Kurzweil: predice 2029 desde hace años
- Demis Hassabis (DeepMind): "posiblemente en esta década"
Los moderados (10-20 años):
- La mayoría de investigadores de IA en encuestas académicas
- Sitúan una probabilidad del 50% para 2040-2050
Los escépticos (nunca con la arquitectura actual):
- Yann LeCun (Meta): cree que los LLMs son un callejón sin salida para AGI
- Gary Marcus: neurocientífico y crítico vocal del hype de la IA
- Argumentan que necesitamos avances fundamentales en la comprensión de la inteligencia
Mi opinión: nadie lo sabe. Y cualquiera que te dé una fecha exacta está especulando. Lo que sí es cierto es que el progreso en los últimos 3 años ha sido más rápido de lo que la mayoría esperaba.

Inteligencia Artificial aplicada a negocio
Sin humo. Solo experimentos reales, prompts que funcionan y estrategias de escalabilidad.
Los riesgos de la AGI
El riesgo existencial
Esta es la preocupación más seria. Si creamos una inteligencia que nos supera en todos los aspectos, ¿cómo nos aseguramos de que sus objetivos estén alineados con los nuestros?
No es ciencia ficción: es el campo de investigación llamado "AI Alignment" (alineación de IA). Anthropic, OpenAI y DeepMind invierten millones en investigar cómo asegurar que una IA superinteligente sea beneficiosa.
El problema del alineamiento es que no sabemos cómo especificar con precisión lo que queremos. Decirle a una AGI "maximiza la felicidad humana" podría tener interpretaciones inesperadas y potencialmente catastróficas.
El riesgo económico
Una AGI podría automatizar virtualmente cualquier trabajo intelectual. Esto crearía una riqueza enorme pero también una disrupción laboral sin precedentes. ¿Cómo se distribuye esa riqueza? ¿Quién controla la AGI?
El riesgo geopolítico
La carrera por la AGI es también una carrera geopolítica. El país (o empresa) que la consiga primero tendrá una ventaja estratégica enorme. Esto crea incentivos para ir rápido en vez de ir seguro.
El riesgo de concentración de poder
Si la AGI es desarrollada por una sola empresa, esa empresa tendría un poder sin precedentes en la historia humana. La gobernanza de la AGI es uno de los debates más importantes de nuestra era.
Lo que sí es real hoy
Mientras debatimos sobre la AGI, la IA estrecha sigue avanzando a velocidad brutal:
- Modelos de razonamiento (o3 de OpenAI) que resuelven problemas cada vez más complejos
- Agentes de IA que ejecutan tareas de forma autónoma
- Modelos multimodales que entienden texto, imagen, audio y vídeo
- Computer use: IA que puede usar el ordenador como un humano
Cada uno de estos avances es un paso incremental. Si la AGI llegará será porque muchos de estos pasos se acumulan, no porque alguien tenga un momento "eureka".

¿Te preocupa el futuro con la IA?
Descubre cómo la inteligencia artificial ha liquidado las viejas reglas del juego y qué puedes hacer tú al respecto.
Leer más sobre el libroLo que deberías pensar sobre la AGI
No necesitas ser investigador para tener una opinión informada:
-
No te creas el hype ni el doom. La verdad está entre "la AGI llega mañana" y "la AGI es imposible". Ambos extremos son ruido.
-
Céntrate en la IA actual. La IA estrecha ya está transformando industrias. No esperes a la AGI para beneficiarte de la IA que ya existe.
-
Presta atención al debate sobre seguridad. Cómo desarrollamos la IA importa tanto como qué desarrollamos. La alineación, la gobernanza y la distribución de beneficios son temas que nos afectan a todos.
-
Mantente informado. El campo avanza tan rápido que las predicciones de hace 2 años ya están obsoletas. Sigue aprendiendo, porque el futuro se decide ahora.
Inteligencia Artificial aplicada a negocio
Sin humo. Solo experimentos reales, prompts que funcionan y estrategias de escalabilidad.