La inteligencia artificial tiene el potencial de comprometer hacia 2040 los cimientos de la disuasión nuclear, basados en la mutua destrucción asegurada y el temor a un ataque de respuesta. Si bien las máquinas del fin del mundo controladas por la Inteligencia Artificial (IA) se consideran improbables, los riesgos para la seguridad nuclear radican en su potencial para alentar a los humanos a asumir riesgos potencialmente apocalípticos, según un nuevo estudio de la Corporación RAND, un laboratorio de ideas estadounidense que forma a las Fuerzas Armadas de los Estados Unidos de América.
Durante la Guerra Fría, la condición de mutua destrucción asegurada mantuvo una paz incómoda entre las superpotencias asegurando que cualquier ataque se enfrentaría con una devastadora represalia. La destrucción mutua asegurada fomentó la estabilidad estratégica al reducir los incentivos para que cualquiera de los dos bloques adoptara medidas que pudieran derivar en una guerra nuclear. La nueva publicación RAND dice que en las próximas décadas, la inteligencia artificial tiene el potencial de erosionar la condición de destrucción mutua asegurada y socavar la estabilidad estratégica. La mejora de las tecnologías de sensores podría introducir la posibilidad de que las fuerzas de represalia, como los misiles submarinos y móviles, puedan ser atacados y destruidos.
Según los investigadores, las naciones pueden sentirse tentadas a buscar la capacidad de primer ataque como medio de ganar poder de negociación sobre sus rivales, incluso si no tienen la intención de llevar a cabo un ataque. Esto socava la estabilidad estratégica porque incluso si el estado que posee estas capacidades no tiene la intención de usarlas, el adversario no puede estar seguro de eso.
"La conexión entre la guerra nuclear y la inteligencia artificial no es nueva, de hecho ambas tienen una historia entrelazada", afirma Edward Geist, coautor del documento e investigador de políticas asociadas en RAND Corporation, una organización de investigación no partidista sin fines de lucro. "Gran parte del desarrollo inicial de la IA se hizo en apoyo de los esfuerzos militares o con objetivos militares en mente", añade.
La mala interpretación podría llevar a una escalada involuntaria
El investigador comenta que un ejemplo de este tipo de trabajo fue el Experimento de planificación adaptativa con capacidad de supervivencia en la década de 1980, que buscaba utilizar IA para traducir los datos de reconocimiento en planes de objetivos nucleares.
En circunstancias fortuitas, la inteligencia artificial también podría mejorar la estabilidad estratégica mejorando la precisión en la recopilación y análisis de inteligencia, según el documento. Si bien la inteligencia artificial puede aumentar la vulnerabilidad de las fuerzas de segundo ataque, la mejora de los análisis para monitorear e interpretar las acciones adversas podría reducir el error de cálculo o la mala interpretación que podría llevar a una escalada involuntaria. Los investigadores dicen que con las mejoras futuras, es posible que los sistemas de inteligencia artificial desarrollen capacidades que, aunque falibles, serían menos propensas a errores que sus alternativas humanas y, por lo tanto, se estabilizarían a largo plazo.
"Algunos expertos temen que una mayor dependencia de la inteligencia artificial pueda conducir a nuevos tipos de errores catastróficos", indica el coautor del trabajo e ingeniero asociado de RAND Andrew Lohn. "Puede haber presión para usar AI antes de que esté tecnológicamente madura, o puede ser susceptible de subversión adversaria. Por lo tanto, mantener la estabilidad estratégica en las próximas décadas puede ser extremadamente difícil y todas las potencias nucleares deben participar en el cultivo de instituciones para ayudar a riesgo", dice.
Los investigadores de RAND basaron su perspectiva en la información recopilada durante una serie de talleres con expertos en asuntos nucleares, ramas gubernamentales, investigación sobre IA, política de IA y seguridad nacional. La perspectiva es parte de un esfuerzo más amplio para visualizar los desafíos críticos de seguridad en el mundo de 2040, considerando los efectos de las tendencias políticas, tecnológicas, sociales y demográficas que darán forma a esos desafíos de seguridad en las próximas décadas.