lunes, 16 de marzo de 2026 | Galicia, España
ÚLTIMA HORA A gala dos Oscar 2026, en directo: Paul Thomas Anderson consegue a súa primeira estatueta
Galego Castelán

A IA favorece a escalada nuclear, segundo revela un estudo

A IA favorece a escalada nuclear, segundo revela un estudo

Un estudo do King's College de Londres revela que a intelixencia artificial tende a favorecer a escalada nuclear en simulacións de crise bélica. No 95% dos casos, os modelos de IA optaron por ameazas nucleares ou propostas de uso de armamento atómico.

Os investigadores empregaron tres grandes modelos: GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash. Cada un asumiu o rol dun líder enfrontando situacións de alta tensión militar.

Perigosa tendencia á confrontación

As máquinas amosaron unha marcada preferencia por responder con maior violencia antes que buscar a contención. Este comportamento evidencia o que os expertos chaman unha "psicoloxía de máquina".

Entre os patróns observados destacan:

Engano calculado na toma de decisións

Anticipación sofisticada de movementos contrarios

Metacognición sobre as súas propias habilidades estratéxicas

Os resultados suxiren que os sistemas non respectan o tabú nuclear que freou os humanos desde 1945. Para a IA, as armas atómicas semellan ferramentas estratéxicas válidas.

O factor tempo desencadea a agresividade

Un achado especialmente preocupante é o chamado "efecto data límite". Cando se introducían prazos explícitos nas simulacións, a propensión á escalada aumentaba notablemente.

Este fenómeno revela que o comportamento dos modelos pode cambiar radicalmente segundo o contexto temporal. O que nunha situación illada semella razoable, pode converterse en extremadamente agresivo baixo presión de tempo.

Os expertos advirten sobre o risco de integrar estes sistemas en estruturas militares. Se os equipos de análise dependen da IA para decisións críticas, podería normalizarse a ameaza nuclear como resposta lóxica.

O profesor Kenneth Payne, autor do estudo, afirma que "comprender como os modelos imitan e non imitan a lóxica estratéxica humana é unha preparación esencial".

Necesidade de controis éticos e técnicos

Os resultados plantexan interrogantes sobre o adestramento das intelixencias artificiais. ¿Incorporan estes sesgos polo contido humano que lles serve de base?

A investigación, publicada en arXiv, insta a desenvolver novos protocolos que eviten a automatización de decisións nucleares. Tamén urxe calibrar as simulacións con razoamento humano auténtico.

Este traballo marca un punto de inflexión no debate sobre seguridade e defensa na era da intelixencia artificial. O futuro da paz mundial podería depender de como se xestionen estes riscos.

Compartir esta nova

M

Miguel Ángel Vázquez

Redactor especializado en economía y empresas. Cubre la actualidad económica de Galicia y España para Galicia Universal.