Claude, a IA de Anthropic, sofre unha caída mundial tras o veto militar de Trump. / EP
Claude, o modelo de intelixencia artificial de Anthropic, sufriu este luns unha caída que afecta ao seu servizo a nivel mundial.
A start-up estadounidense, que compite de ti a ti con OpenAI, a desenvolvedora de ChatGPT, confirmouno nunha notificación publicada na súa páxina web na que advirte de "erros frecuentes".
"Hemos identificado que a API de Claude funciona segundo o previsto. Os problemas que estamos a observar están relacionados con Claude.ai e coas rutas de inicio e peche de sesión", reza a última actualización da súa publicación.
Esa elevada taxa de erros no servizo de IA xerativa está a afectar a cada vez máis usuarios. O portal Downdetector, especializado en rastrexar fallos no funcionamento da rede, recompilaba sobre as 13 horas un total de 1.854 incidentes reportados polos usuarios.
O fallo de Claude chega menos de tres días despois de que o presidente estadounidense Donald Trump vetase o uso de Anthropic na administración pública e no Exército, unha reacción que tomou en represalia pola negativa da compañía a deixar que o Pentágono poida utilizar a súa IA para a vixilancia social masiva e para a creación de armas autónomas.
O presidente dos EUA e o seu secretario de Defensa, Donald Trump e Pete Hegseth respectivamente / Europa Press/Contacto/Yuri Gripas – Pool via CNP
Claude é, por agora, o único modelo de IA que o Exército dos Estados Unidos utiliza para xestionar a súa información clasificada. Tras a oposición de Anthropic, o Departamento de Defensa que encabeza Pete Hegseth pechou acordos con outros provedores menos críticos como OpenAI.
Aínda así, as tropas estadounidenses utilizaron Claude para preparar a operación militar que os EUA e Israel lanzaron o pasado venres contra Irán, un golpe co que lograron decapitar o réxime dos aiatolás ao asasinar ao seu líder supremo, Alí Jamenei. Anteriormente, o Pentágono xa utilizara Claude para o secuestro do presidente de Venezuela, Nicolás Maduro.