En lugar de precipitarse hacia una catástrofe, Estados Unidos y China deberían reconocer su interés compartido en evitar una carrera de ASI

Por: Corin Katzke y Gideon Futerman

Durante los cuatro años comprendidos entre 1945 y 1949, Estados Unidos fue el único país que poseía la bomba atómica. El mundo observó con asombro y horror cómo Estados Unidos demostraba, con el bombardeo de Hiroshima y Nagasaki, que había adquirido el poder de arrasar ciudades.

La bomba atómica otorgó a Estados Unidos una influencia internacional sin precedentes. Sin embargo, la carrera armamentista nuclear que le siguió lo acercó más a la destrucción que en ningún otro momento de su historia. Durante la Crisis de los Misiles de Cuba, por ejemplo, el presidente John F. Kennedy estimó una probabilidad de «1 entre 3» de que el estancamiento escalara a una guerra nuclear.

Hoy, Estados Unidos se dispone a impulsar el desarrollo de otra tecnología desestabilizadora: la superinteligencia artificial (ISA), sistemas de IA que superan ampliamente el rendimiento humano en casi todas las tareas cognitivas. En su informe anual de 2024 al Congreso, la principal recomendación de la Comisión de Revisión Económica y de Seguridad entre Estados Unidos y China fue «establecer y financiar un programa similar al Proyecto Manhattan dedicado a acelerar la adquisición de la capacidad de Inteligencia Artificial General (IAG)».

Estados Unidos parece estar avanzando en esa dirección. A finales del año pasado, la Oficina de Industria y Seguridad de EE. UU. (una agencia federal que regula la exportación de tecnologías importantes para la seguridad nacional) publicó nuevos controles de exportación de chips y modelos de IA que buscan privar a otras posibles superpotencias de la IA de hardware y software críticos. Justo antes de dejar el cargo en enero, el presidente Joe Biden firmó una orden ejecutiva que ordena a las agencias federales acelerar el desarrollo de infraestructura de IA en EE. UU. Y al día siguiente de la toma de posesión del presidente Trump, anunció su apoyo al Proyecto Stargate, una iniciativa de financiación privada para nuevos centros de datos y otras infraestructuras de IA. Los inversores de Stargate han prometido entre 100.000 y 500.000 millones de dólares; el Proyecto Manhattan costó alrededor de 30.000 millones de dólares ajustados a la inflación.  

La carrera hacia la ASI no está motivada por la superioridad tecnológica, sino por el potencial que tiene la ASI para alterar drásticamente el equilibrio de poder militar entre países. En palabras de Dario Amodei, director ejecutivo de Anthropic, lograr la ASI traería consigo un «1991 eterno» en el que EE. UU. y sus aliados obtendrían para siempre una ventaja geopolítica similar a la de los años posteriores a la caída de la URSS, cuando EE. UU. era la única potencia mundial.

Sin embargo, esta visión es un espejismo: al igual que la carrera armamentística nuclear, una carrera estadounidense por desarrollar la ASI acabaría socavando su seguridad nacional. A esta amenaza la llamamos la Trampa de Manhattan.

La trampa de Manhattan presenta tres peligros: que la ASI amenace con provocar una escalada de conflicto entre Estados Unidos y otras grandes potencias; que una carrera para desarrollar la ASI aumente el riesgo de perder el control de los sistemas; y que la ASI pueda socavar la democracia liberal que fue desarrollada para defender.

Conflicto entre grandes potencias

Las armas nucleares han permitido a los estados atacar infraestructuras en cualquier parte del mundo. Si la ASI proporciona a quien la posee una ventaja militar decisiva —como argumentan los defensores de las carreras—, China consideraría racionalmente un proyecto estadounidense de ASI como una amenaza existencial para su seguridad. Así como las armas nucleares amenazan con abrumar a las fuerzas convencionales, la ASI podría neutralizar los medios de disuasión nucleares —por ejemplo, mediante ciberataques de gran magnitud—, socavando así la estabilidad estratégica basada en la vulnerabilidad mutua que ha impedido los conflictos entre grandes potencias durante décadas.

Si los estrategas militares chinos creyeran que Estados Unidos estaba en vías de desarrollar la IA, se enfrentarían a una decisión difícil: aceptar la subordinación permanente al poder estadounidense o emprender acciones militares para impedir dicho desarrollo. Dicha acción no implicaría necesariamente una guerra nuclear a gran escala. China podría, en cambio, intentar ataques limitados o ciberataques debilitadores contra la infraestructura estadounidense de IA: centros de datos, plantas de fabricación de chips e instalaciones de investigación.

Los estrategas chinos enfatizan el concepto de «estabilidad estratégica asimétrica», que se basa en mantener la vulnerabilidad mutua entre las potencias. La ASI amenaza con eliminar esta vulnerabilidad por completo.

Dado el deseo de ambas partes de evitar un conflicto nuclear, los líderes chinos podrían calcular que un ataque convencional limitado o un pequeño ataque nuclear táctico podrían interrumpir con éxito el desarrollo de la ASI estadounidense, sin llegar al umbral de una represalia nuclear estratégica a gran escala.

Los intentos de Estados Unidos de proteger su proyecto de IA mediante el secretismo podrían ser inútiles. Un proyecto de IA requeriría cantidades masivas de cómputo, lo que alertaría a los adversarios que monitorean el consumo de energía. Asimismo, otra superpotencia rastrearía los movimientos de destacados investigadores estadounidenses de IA. Incluso el Proyecto Manhattan, a pesar del secretismo en tiempos de guerra, filtró información crítica a potencias extranjeras a través de inteligencia humana. El desafío de proteger el desarrollo de IA contra la inteligencia cibernética y humana sería igual de difícil, o incluso más.

En un mundo donde los misiles balísticos intercontinentales hacen posibles los ataques preventivos, el valor estratégico del ASI —su potencial para lograr una ventaja militar decisiva— también hace que correr para desarrollarlo sea catastróficamente peligroso.

Pérdida del control

El argumento a favor de una carrera de ASI presupone que otorgaría a quien la empuñara una ventaja militar decisiva sobre las superpotencias rivales. Pero a diferencia de las armas nucleares, que requieren operadores humanos, la ASI actuaría de forma autónoma. Esto crea un riesgo sin precedentes: la pérdida de control sobre un sistema más poderoso que los ejércitos nacionales.

El reto de controlar la IA no se limita a prevenir el uso malicioso. Se trata, más bien, de garantizar que un sistema autónomo con capacidades sin precedentes alcance sus objetivos previstos de forma fiable. Incluso objetivos aparentemente benignos podrían tener consecuencias catastróficas si una IA no comprende correctamente lo que buscan sus creadores. A medida que aumentan las capacidades del sistema de IA, pequeñas discrepancias entre sus objetivos y los nuestros podrían agravarse y convertirse en desviaciones importantes. Investigaciones recientes sugieren que, a medida que los sistemas de IA adquieren mayor capacidad, surgen objetivos imprevistos.

El ritmo acelerado de desarrollo que implica una carrera de IA agrava aún más el problema del control. Para que la IA proporcione una ventaja militar decisiva, necesitaría no solo superar las capacidades militares actuales, sino también superar a otros sistemas de IA de vanguardia que se desarrollan simultáneamente. Esto sugiere un ritmo extremadamente rápido de mejora de las capacidades, quizás mediante la investigación automatizada en IA que permita a los sistemas de IA mejorarse recursivamente. Tal ritmo haría casi imposible el desarrollo de métodos de control fiables, ya que las técnicas de seguridad existentes podrían empezar a fallar a medida que los modelos adquieren mayor capacidad, y el plazo para desarrollar nuevos métodos sería peligrosamente corto.

Las presiones competitivas de una carrera de ASI solo exacerbarían estos desafíos. Los gobiernos se verían presionados a recortar gastos en seguridad para desarrollar capacidades más avanzadas. Los requisitos de confidencialidad de un programa militar impedirían la investigación abierta y la amplia colaboración necesarias para resolver problemas técnicos complejos. No necesitamos estar seguros de que controlar la ASI sería difícil para entender por qué las carreras son peligrosas. La misma suposición que motiva una carrera —que la ASI otorgaría una ventaja militar decisiva— implica que perder el control sería catastrófico.

Concentración de poder

Incluso si Estados Unidos, de alguna manera, desarrolla la ASI, evitando tanto el conflicto entre grandes potencias como la pérdida de control, el éxito podría significar un fracaso. El argumento más común para impulsar el desarrollo de la ASI es que permitiría a la democracia liberal estadounidense triunfar sobre el autoritarismo chino. Pero hay una ironía crucial: un proyecto estadounidense de ASI exitoso probablemente destruiría la democracia liberal desde dentro.

Consideremos lo que significa para la ASI proporcionar una ventaja militar decisiva sobre otros estados. Un sistema así sería, por definición, más poderoso que los ejércitos combinados de las superpotencias globales. El pequeño grupo que controle este sistema —ya sea una agencia gubernamental, una empresa privada o algún híbrido— ejercería, por lo tanto, un poder sin precedentes, no solo a nivel internacional, sino también nacional. Quienes controlen la ASI tendrían una ventaja decisiva sobre todas las demás instituciones de la sociedad estadounidense, incluyendo el ejército, las agencias de inteligencia y las fuerzas del orden.

Esta extrema concentración de poder es incompatible con los controles y contrapesos democráticos. Los Fundadores diseñaron el sistema de Estados Unidos para impedir que una sola institución o individuo alcanzara tal dominio. Como argumentó James Madison en Federalist 51 , «la ambición debe contrarrestar la ambición». Pero ¿cómo podría el Congreso supervisar eficazmente una agencia que controla la ASI? ¿Cómo podrían los tribunales hacer cumplir sus fallos? Las restricciones tradicionales al poder ejecutivo quedarían en un mero carácter consultivo.

Una carrera por la ASI agravaría aún más este problema. La presión competitiva y los requisitos de seguridad de un programa de emergencia exigirían que la ASI se desarrollara rápidamente y en secreto, sin participación pública ni supervisión democrática. Para cuando el público conociera todas las implicaciones, sería demasiado tarde: la nueva estructura de poder ya estaría establecida. Incluso si los controladores iniciales de la ASI hubieran sido benévolos, habrían creado un sistema propicio para el abuso. Un solo funcionario corrupto, un golpe de Estado exitoso o incluso un ataque informático sofisticado podrían transformar a Estados Unidos de una democracia a una tecnoautocracia más absoluta que cualquier otra en la historia.

Cómo prevenir una catástrofe de ASI

Los peligros de una carrera ASI revelan una paradoja sorprendente: las mismas suposiciones que favorecen una carrera también la hacen contraproducente.

Si la ASI pudiera proporcionar a un estado una ventaja militar decisiva, y si los estados fueran actores racionales que comprendieran este potencial, entonces una carrera por la ASI crearía tres barreras sucesivas que harían casi imposible ganar. Primero, un estado necesitaría desarrollar la ASI sin provocar ataques militares preventivos de adversarios con armas nucleares. Luego, necesitaría resolver el problema de control bajo la extrema presión temporal de una carrera. Finalmente, necesitaría evitar que la concentración de poder resultante destruyera su propio sistema político.

Este análisis transforma nuestra comprensión de la situación estratégica. En lugar de verse atrapados en una carrera inevitable, Estados Unidos y China se enfrentan a lo que los teóricos de juegos llaman un «dilema de confianza». A diferencia del dilema del prisionero, donde a ambas partes siempre les conviene desertar, en un dilema de confianza ambas partes prefieren la moderación mutua. Solo competirán si creen que otros compiten.

Afortunadamente, el desarrollo de ASI presenta características que hacen prometedora la restricción mutua. A diferencia de los sistemas de IA de propósito general, cuyas aplicaciones militares y civiles son difíciles de distinguir, un proyecto de ASI sería relativamente fácil de monitorear para las agencias de inteligencia. En primer lugar, el desarrollo de ASI requeriría una infraestructura dedicada masiva, claramente diferenciable del desarrollo normal de IA. Los clústeres de cómputo, los requisitos de energía y los desplazamientos de investigadores involucrados serían difíciles de ocultar a las capacidades de inteligencia modernas. Además, dado que ASI aún no se ha integrado en la economía de ninguno de los dos países, las restricciones no afectarían a los sistemas militares o civiles existentes.

Estados Unidos y China podrían combinar múltiples enfoques complementarios para verificar que ninguno de los dos países esté desarrollando ASI. Las agencias nacionales de inteligencia podrían supervisar el consumo de energía y el desarrollo de infraestructura. Auditores externos podrían verificar el uso de los recursos informáticos y las arquitecturas de los modelos. Los mecanismos de gobernanza en chip podrían contribuir a garantizar el cumplimiento normativo. En conjunto, estos métodos dificultarían enormemente el desarrollo secreto de ASI, a la vez que minimizarían la divulgación de otra información sensible.

Los críticos podrían argumentar que la verificación debería ser perfecta para que valga la pena. Pero esto no comprende la situación estratégica. Si ambas partes prefieren firmemente evitar una carrera, solo necesitan la verificación suficiente para mantener la confianza básica en que la otra está cooperando. Los peligros extremos de la carrera, de hecho, fortalecen la cooperación: cuanto peores sean las consecuencias de la carrera, mayor será la tolerancia de los Estados a una verificación imperfecta.

Estados Unidos y China deberían comenzar por establecer un diálogo bilateral sobre el desarrollo de la ASI. Este diálogo debería incluir a funcionarios gubernamentales y expertos técnicos que puedan hablar sobre las implicaciones de la ASI. Ambos países deberían trabajar para establecer un entendimiento común sobre los peligros de la ASI y desarrollar mecanismos de verificación específicos. Esta cooperación bilateral podría sentar las bases para una gobernanza internacional más amplia. Estados Unidos y China podrían liderar el establecimiento de un marco internacional para el control del desarrollo de la ASI, que podría incluir una agencia análoga al Organismo Internacional de Energía Atómica.

El singular estilo de política exterior del presidente Trump podría, de hecho, ser ideal para lograrlo. Para liberarse de la trampa de Manhattan, Estados Unidos debe ser fuerte frente a la competencia china. El primer paso para Trump debe ser obligar a China a sentarse a la mesa de negociaciones, adoptando una postura firme contra cualquier intento de desarrollar la ASI, tanto dentro como fuera del país.

En lugar de precipitarse hacia la catástrofe con la errónea creencia de que la competencia es inevitable, Estados Unidos y China deberían reconocer su interés común en evitar una competencia de ASI. Mediante una diplomacia cuidadosa y mecanismos de verificación, pueden establecer la moderación mutua que ambas partes prefieren. El camino hacia la seguridad no reside en competir para desarrollar ASI, sino en cooperar para prevenirlo.

 

Esta publicación fue adaptada de un informe publicado originalmente por Convergence Analysis .

Fuente: AI Frontiers