← Volver
lanacion.com.ar · hace 7 horas · Gabriel Zurdo

EE.UU., la guerra con Irán y los riesgos de la IA

LA NACION

Estados Unidos habría alcanzado cerca de mil objetivos en las primeras 24 horas de su ofensiva contra Irán gracias al uso de inteligencia artificial. Para ello, combinó Claude, de Anthropic, con Maven, de Palantir Technologies, sistemas capaces de seleccionar y priorizar blancos en tiempo real como soporte a las operaciones militares. Sin embargo, aunque Claude sea una herramienta relativamente reciente, su aplicación en combate no surgió de manera improvisada, sino que el uso eficaz de estos sistemas descansa en una infraestructura robusta, en capital humano altamente calificado y en décadas de inversión sostenida. Esto es, la tecnología ya no es un accesorio, sino que está profundamente integrada en la arquitectura operativa del poder militar estadounidense.

En ese contexto, resultó llamativo que, pocas horas antes del ataque, el presidente Donald Trump anunciara la ruptura de vínculos con la compañía. A través de Truth Social afirmó que no necesitaban de sus servicios y cuestionó duramente a la firma, a la que calificó como ajena a la realidad. La contradicción resulta evidente y que, mientras el discurso político busca marcar distancia, la práctica militar revela enorme dependencia tecnológica.

Pero la tensión no es nueva. Se remonta a enero, cuando Claude habría sido utilizado en un operativo vinculado a la captura de Nicolás Maduro. Anthropic objetó ese uso, dado que sus términos prohíben aplicaciones con fines violentos, desarrollo de armamento o vigilancia. A partir de allí, la relación con el Pentágono comenzó a deteriorarse de forma progresiva.

El conflicto escaló cuando la empresa anunció su modelo más avanzado, Claude Mythos, inicialmente denominado “Capybara”. La propia compañía decidió no lanzarlo al mercado al considerarlo potencialmente riesgoso. Sin embargo, una filtración -presentada como accidental- expuso sus capacidades, lo que generó sospechas en torno a la gestión de información sensible en un sector donde la opacidad suele ser la regla.

Según trascendió, Mythos habría demostrado una capacidad inédita para detectar y explotar vulnerabilidades de “día cero”, es decir, fallas desconocidas incluso para sus desarrolladores. Así, no solo identificó miles de debilidades críticas en sistemas operativos y navegadores, sino que además generó código de explotación funcional sin intervención humana. En términos operativos, esto implica reducir procesos que antes demandaban semanas a apenas unas horas.

Frente a ese escenario, Anthropic optó por restringir su difusión, argumentando que su uso indebido podría facilitar ciberataques de alta complejidad. La preocupación no tardó en trasladarse al ámbito financiero. Autoridades del Tesoro estadounidense y grandes instituciones advirtieron sobre el riesgo de una eventual perturbación sistémica, lo que derivó en reuniones urgentes con la cúpula del sector. Como respuesta, la compañía impulsó una coalición limitada de empresas con acceso controlado para evaluar el sistema.

No obstante, surgieron cuestionamientos. Algunos analistas sostienen que la firma podría estar sobredimensionando las capacidades del modelo, ya sea como estrategia comercial o como intento de reposicionamiento tras la decisión política de marginarla del ecosistema gubernamental. En paralelo, la controversia escaló al plano judicial cuando la jueza federal norteamericana Rita F. Lin ordenó suspender temporalmente la desvinculación estatal, al considerar que podría tratarse de una represalia incompatible con la Primera Enmienda.

A ello se suma una discusión técnica relevante vinculada a que parte de las evaluaciones del sistema fueron realizadas en entornos simulados, conocidos como “sandbox”, los cuales no siempre replican con fidelidad la complejidad de infraestructuras reales. En la práctica, cada organización combina tecnología, procesos, cultura, regulación y capacidades humanas de manera única. Por lo tanto, aun cuando el vector de ataque esté definido, su evolución dependerá del nivel de madurez en ciberseguridad, del presupuesto disponible y de la capacidad de respuesta ante crisis. Dicho de otro modo, no existe seguridad absoluta, pero tampoco soluciones milagrosas.

En este punto, incluso la propia Anthropic reconoce que las mismas capacidades que hacen de Mythos una herramienta potencialmente disruptiva, podrían acelerar la detección y corrección de vulnerabilidades en infraestructuras críticas. La dualidad es inherente, dado que riesgo y defensa están avanzando al mismo ritmo.

Este episodio se inscribe, además, en una competencia creciente. OpenAI trabaja en desarrollos similares orientados a la ciberseguridad, mientras que China se consolida como un actor central, con capacidad tanto para desplegar ciberataques a escala global como para fortalecer sus sistemas defensivos.

La conclusión es menos novedosa que inquietante. La inteligencia artificial ya forma parte del tablero estratégico global, y al igual que la pólvora en su momento o el desarrollo nuclear durante el Proyecto Manhattan, no se percibe en aquélla, posible marcha atrás. En consecuencia, el verdadero desafío no radica en su existencia, sino en su gobernanza. Es decir, en la construcción de marcos éticos, regulatorios y operativos capaces de administrar un nuevo mapa de riesgos que, nos guste o no, ya está en plena configuración.

The Trust Project

© Copyright 2026 SA LA NACION | Todos los derechos reservados. Dirección Nacional del Derecho de Autor DNDA - EXPEDIENTE DNDA (renovación) RL-2023-95334553-APN-DNDA#MJ.Queda prohibida la reproducción total o parcial del presente diario.

App store