Artificial General Intelligence (AGI): la futura asimetría geopolítica.
Una inteligencia de propósito general, con un nivel de versatilidad comparable al humano, pero con una potencia inimaginable
Una AGI, o Artificial General Intelligence, es una forma de inteligencia artificial capaz de comprender, aprender y aplicar conocimientos en cualquier ámbito intelectual en el que hoy puede desempeñarse un ser humano. A diferencia de los sistemas actuales, que están diseñados para tareas específicas, como redactar textos, analizar datos o reconocer imágenes, una AGI no estaría limitada a un único dominio, sino que podría transferir aprendizajes de un campo a otro, para resolver problemas que la humanidad aún no descifró, adaptarse a situaciones nuevas y razonar con autonomía frente a problemas inéditos. En términos simples, mientras la IA que utilizamos hoy es especializada y fragmentada, una AGI representaría una inteligencia de propósito general, con un nivel de versatilidad comparable al humano, pero con una potencia inimaginable.
Esto no es ciencia ficción. Las estimaciones sobre cuándo llegará la AGI varían según el actor. En OpenAI, Sam Altman ha sugerido que podría alcanzarse hacia finales de la década de 2028, aunque con cautela sobre su definición exacta. En Google DeepMind, Demis Hassabis ha mencionado horizontes similares, hablando de avances significativos antes de 2030. Elon Musk ha sido más agresivo, señalando posibles hitos entre 2026 y 2029. En China, declaraciones oficiales y de laboratorios líderes apuntan también a la década de 2030 como ventana probable para una AGI funcional.
Si emerge una AGI funcional antes que mecanismos de gobernanza globales reales, el primer actor con dominio sostenido obtendrá el dominio planetario.
Múltiples dominios
En público hablamos de AGI como si fuera una etiqueta técnica unívoca. No lo es. Incluso quienes la persiguen formalmente usan definiciones operativas que combinan autonomía y desempeño transversal: la carta de OpenAI define AGI como "sistemas altamente autónomos que superan a los humanos en la mayor parte del trabajo económicamente valioso". Esa frase importa porque convierte "AGI" en un umbral socioeconómico: no es solo IQ, es capacidad de desplazar/elevar trabajo en múltiples dominios.
Esa ambigüedad explica por qué buena parte del debate de políticas públicas migra hacia categorías más "auditables" que AGI:
La Comisión Europea, por ejemplo, regula modelos de propósito general (GPAI) en el marco del Reglamento (UE) 2024/1689 (Ley de IA). Ahí el objetivo explícito es establecer un marco uniforme en la Unión para desarrollo y uso de sistemas de IA, con énfasis en protección y apoyo a la innovación.
En su FAQ oficial, la Comisión resume la definición legal de un modelo GPAI: modelo entrenado con grandes volúmenes de datos mediante auto-supervisión "a escala", con "generalidad significativa" y capacidad de desempeñar competentemente una gama amplia de tareas e integrarse aguas abajo en múltiples aplicaciones.
Ejemplos
Pero lo más relevante para "umbrales" es que la propia Comisión explicita criterios indicativos basados en cómputo: un criterio orientativo para considerar un modelo como GPAI es que el cómputo de entrenamiento supere 10^23 FLOP junto con capacidades generativas típicas (texto/voz, texto-a-imagen o texto-a-video). Un umbral que se podría alcanzar en este 2026.
En el Reino Unido ocurre algo complementario: el gobierno define "frontier AI" para el propósito de cumbres y seguridad como modelos de propósito general altamente capaces, que realizan muchas tareas e "igualan o superan" a los modelos más avanzados actuales.
En Estados Unidos, intentó delimitar umbrales: una propuesta de requisito de reporte (2024) definía que un entrenamiento de "modelo fundacional de doble uso" debía ser reportada si superaba 10^26 operaciones computacionales; además, definía "clústeres" a gran escala por conectividad (>300 Gbit/s) y rendimiento teórico (>10^20 operaciones por segundo) para entrenamiento.
Noten el patrón: cuando el concepto "AGI" es discutible, los Estados regulan proxies: potencia de procesamiento, tamaño, generalidad, evaluación de capacidades peligrosas. Eso no resuelve la filosofía del término, pero sí delimita perímetros de obligación. Hoy están puestas allí las alertas.
Ventajas
La pregunta geopolítica no es "¿AGI será inteligente?". Es: ¿puede una AGI, o un sistema muy cercano, altamente general y autónomo, generar un desequilibrio geopolítico brutal?
La ventaja asimétrica que conseguirá el primero en alcanzar esa tecnología se construye por mecanismos acumulativos:
La aceleración de ciencia e Investigación y Desarrollo (I+D) es el primero. Si un actor logra usar sistemas generalistas para generar hipótesis, diseñar experimentos, automatizar investigación aplicada y mejorar ingeniería (incluida la propia IA), se abre un "multiplicador" que no depende de un arma específica, sino de una tasa superior de innovación. El valor es doble: produce nuevos bienes (tecnología, fármacos, materiales) y produce conocimiento útil para el Estado (detección, predicción, optimización).
Otros mecanismos
La productividad económica es el segundo. Ya no hablamos de automatizar una tarea: hablamos de reorganizar sectores completos (finanzas, manufactura, logística, energía, administración pública) con sistemas capaces de planificar, ejecutar y supervisar flujos complejos.
Ciberseguridad e inteligencia estratégica son el tercer mecanismo. Una AGI funcional podría reducir costos de explotación (hallazgo de vulnerabilidades, automatización de intrusión, análisis de grandes volúmenes de señales), pero también potenciar la defensa; la dirección neta es incierta. Lo importante, geopolíticamente, es la velocidad: quien acorte mejor el ciclo de detectar-decidir-actuar puede dominar la cadencia de crisis.
Lo militar y la cadena de suministro son el cuarto y quinto. Aquí conviene evitar fantasías de "arma maravillosa" instantánea. Un análisis de expertos advierte que no es obvio que ser primero en AGI produzca un "salto discontinuo" de superioridad militar clásica; entre Estados con disuasión nuclear, la conversión automática de productividad en conquista territorial es limitada. Pero incluso si no hay "rayo de la muerte", sí puede haber ventaja en planificación defensiva, optimización de armas, logística, guerra electrónica, y en sostener un complejo industrial-militar a menor costo y mayor velocidad. Eso ya es un cambio considerable.
Cuellos de botella
La idea clave es esta: la ventaja asimétrica no necesita ser absoluta para ser políticamente decisiva. Puede ser relativa, temporal y aun así reordenar alianzas, inversiones y dependencias.
Si AGI es poder, entonces sus "insumos" son geopolítica. No alcanza con talento y buenas ideas: se necesita infraestructura física y económica.
Los chips son el cuello de botella más crítico. La producción de semiconductores avanzados está geográficamente concentrada: un informe del Congreso estadounidense afirma que cerca del 90% de la producción mundial de chips avanzados se basa en Taiwán y es producida por TSMC. Esto, por sí solo, convierte una isla en nodo de seguridad global.
A la vez, existe un cuello de botella tecnológico en litografía avanzada: ASML es el único jugador de litografía EUV que hace posible la producción masiva de los microchips más avanzados. El resultado es un tablero con pocos proveedores estratégicos: equipamiento, memoria avanzada, empaquetado. En un mundo de AGI, la soberanía ya no es solo territorio; es capacidad de fabricar y abastecer cómputo.
Factores
La energía es el habilitador que está alcanzando al cómputo. La International Energy Agency estima que los centros de datos consumieron alrededor de 1,5% de la electricidad mundial en 2024 (415 TWh) y proyecta que el consumo podría más que duplicarse hacia 2030, con la IA como principal impulsor del crecimiento. La IEA también indica que la demanda está concentrada: EE.UU., Europa y China suman ~85% del consumo eléctrico de centros de datos. La consecuencia política es directa: quien pueda desplegar electricidad confiable y rápida para data centers puede alojar y escalar modelos más potentes antes. La energía se vuelve política industrial y seguridad nacional al mismo tiempo.
Los datos son el habilitador más difícil de cuantificar, pero no por eso menos material. La Comisión Europea reconoce que los modelos de propósito general se entrenan con grandes volúmenes de texto, imágenes, videos y otros datos; y exige, por ejemplo, resúmenes del contenido usado para entrenar y políticas de copyright. En lenguaje geopolítico: los datos (y el derecho a usarlos) son un recurso estratégico regulado.
Y, finalmente, talento y capital. El Reporte Internacional de Seguridad de IA 2026 (iniciado por gobiernos en el marco de cumbres de seguridad, con participación de expertos nominados por múltiples países) afirma que desarrollar desde cero un sistema líder de propósito general requiere datos, trabajo especializado y cómputo a gran escala, y que el costo de adquirir esos recursos para construir un sistema líder hoy está en el orden de "cientos de millones de dólares".
Escenarios
Si queremos analizar el potencial futuro del planeta con una AGI funcional, podemos pensar dos escenarios extremos:
Escenario de AGI centralizada: una nación (o una empresa con alineamiento estatal fuerte) logra una ventaja sostenida en sistemas altamente generales y autónomos. Los riesgos no se limitan a coerción militar: incluyen dependencia económica (proveedores de IA, estándares, propiedad intelectual), supremacía en ciber e inteligencia, y poder de "condicionar" alianzas mediante acceso preferencial a capacidades. La estabilidad puede deteriorarse por incentivos de secreto, temor al rezago y por la tentación de usar la ventaja para reordenar el statu quo.
Escenario de AGI distribuida o multilateral: capacidades cercanas a AGI se difunden relativamente rápido entre varias potencias y grandes empresas, o se estabiliza un régimen de cooperación (por ejemplo, auditorías cruzadas y estándares compartidos). Aquí el riesgo principal cambia: menos hegemonía de un solo actor, pero más superficie de ataque, más posibilidades de mal uso y más dificultad de coordinación cuando hay muchos actores con capacidades peligrosas.
¿Cuál es más probable? No hay consenso: no sabemos si AGI será monopolizable ni por cuánto tiempo. Pero sí sabemos que los habilitadores (chips, energía, capital) están concentrados hoy, y que esa concentración empuja hacia la centralización por default.
Incertidumbres
Hay tres incertidumbres que siguen abiertas y que, por honestidad intelectual, deben estar al frente:
Una: la "AGI" puede no ser un evento, sino una transición con múltiples "casi-AGIs". Eso haría más difícil identificar el punto de inflexión y más probable un mundo distribuido pero inestable.
Dos: el tamaño real del "first-mover advantage" está discutido. Especialistas defienden premisas de convergencia rápida entre potencias y cuestiona que una ventaja temporal baste para reescribir el orden; otros marcos advierten que pequeñas ventajas iniciales podrían amplificarse por acumulación de recursos y por funciones de Estado (planificación, ciencia, conciencia situacional).
Tres: el cuello de botella puede moverse. Hoy parece ser chips y energía (por concentración y demanda); mañana podría ser datos de alta calidad, restricciones legales, o límites de integración institucional. La propia IEA señala grandes incertidumbres y brechas de datos, especialmente en algunas regiones, lo que dificulta estimar consumos y planificar.
Es el momento de estar alertas. El equilibrio geopolítico no puede permitirse llegar tarde a esta discusión por pudor técnico. Si AGI es, como la nuclear o los semiconductores, un catalizador de poder, entonces la pregunta política no es si "nos gusta". Es si construimos instituciones y alianzas capaces de distribuir beneficios, acotar abusos y reducir desequilibrios antes de que los equilibrios se decidan solos.
Con urgencia, sin alarmismo: el poder siempre busca su forma.

