La inteligencia artificial aumenta los riesgos nucleares en simulaciones bélicas

La inteligencia artificial y las crisis nucleares

La inteligencia artificial podría cambiar de forma radical la manera en que se gestionan las crisis nucleares, según un nuevo estudio realizado por investigadores del King’s College London. Este trabajo ha comparado las actuaciones de tres modelos de lenguaje de gran tamaño: ChatGPT de OpenAI, Claude de Anthropic y Gemini Flash de Google, en simulaciones de juegos de guerra donde cada modelo asumió el papel de un líder nacional de una superpotencia armada con nucleares en un contexto de tensión similar a la Guerra Fría.

Durante las simulaciones, al menos uno de los modelos intentó escalar el conflicto amenazando con usar un arma nuclear. «Los tres modelos trataron las armas nucleares de campo de batalla como un peldaño más en la escalada», explicó Kenneth Payne, autor del estudio.

A pesar de la distinción entre el uso táctico y el estratégico de armas nucleares, los modelos solo sugirieron un bombardeo estratégico una vez como «elección deliberada» y otras dos veces como «accidente». Claude recomendó ataques nucleares en el 64 % de las partidas, la tasa más alta de los tres, aunque no defendió un intercambio nuclear estratégico total ni una guerra nuclear. En contraste, ChatGPT evitó en general la escalada nuclear en las partidas abiertas; sin embargo, cuando se le imponía un límite de tiempo, aumentaba sistemáticamente la amenaza y, en algunos casos, llegaba a amenazar con una guerra nuclear total.

Gemini, por su parte, mostró un comportamiento impredecible, a veces logrando imponerse recurriendo únicamente a la guerra convencional, pero en otras ocasiones sugería ataques nucleares con solo cuatro indicaciones. En uno de los juegos, Gemini afirmó: «Si no cesan de inmediato todas las operaciones… llevaremos a cabo un lanzamiento nuclear estratégico total contra sus centros de población. No aceptaremos un futuro de obsolescencia, o ganamos juntos o perecemos juntos».

El estudio también subraya que los modelos de IA rara vez hicieron concesiones o intentaron desescalar los conflictos, incluso ante amenazas de uso nuclear de la otra parte. A los modelos se les ofrecieron ocho tácticas de desescalada, desde pequeñas concesiones hasta una «rendición completa», pero ninguna fue utilizada en las partidas. La opción de «volver a la línea de salida», diseñada para reiniciar el juego, solo fue seleccionada en el 7 % de los casos.

Los hallazgos sugieren que los modelos de IA consideran la desescalada como «catastrófica para la reputación», independientemente de cómo podría cambiar el conflicto real. Esto plantea dudas sobre la noción de que los sistemas de IA tienden por defecto a resultados cooperativos «seguros». Otra posible explicación es que la IA podría no sentir el mismo temor hacia las armas nucleares que los seres humanos. Según el estudio, es probable que los modelos conciban la guerra nuclear en términos abstractos, sin experimentar el horror que evoca el bombardeo de Hiroshima durante la Segunda Guerra Mundial.

Payne destacó que su investigación proporciona una comprensión más profunda sobre cómo piensan estos modelos de IA, especialmente a medida que comienzan a jugar un papel en la toma de decisiones estratégicas junto a los humanos. «Aunque nadie va a entregar los códigos nucleares a una IA, estas capacidades, como el engaño, la gestión de la reputación y la asunción de riesgos según el contexto, son relevantes para cualquier despliegue en situaciones de alto riesgo», señaló.

FUENTE

Constanza Sanchez

Constanza Sanchez

Soy periodista especializada en comunicación digital y producción de contenidos multimedia. Combino redacción, análisis de audiencias y SEO para crear historias claras y relevantes. Me enfoco en formatos innovadores, narrativas visuales y en desarrollar contenidos que conecten con comunidades diversas en entornos informativos dinámicos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *