Gazette
Oficial
$ 1440,91
0,33%
Blue
$ 1425,00
0,71%
MEP
$ 1430,17
-0,50%
CCL
$ 1473,65
-0,40%
Risk
583
1,39%%

Cuando la IA juega a la guerra

hace 15 horas en clarin.com por Clarin.com - Home

Para disfrutar los contenidos de Clarín es necesario que actives JavaScript en tu navegador.

Cuando la IA juega a la guerra

Un enjambre de drones vuela sobre una ciudad. No hay pilotos que los controlen ni soldados que tomen decisiones en tiempo real. Los movimientos, los objetivos y el momento del ataque los decide un sistema de Inteligencia Artificial.

Hasta hace poco, esa escena pertenecía a la ciencia ficción. Hoy empieza a parecer una posibilidad bastante concreta.

En medio de un nuevo conflicto bélico de gran escala -que algunos ya llaman la primera guerra 4.0-, la IA está empezando a ocupar un lugar cada vez más relevante.

El debate quedó expuesto la semana pasada en una fuerte pelea entre Darío Amodei, CEO de Anthropic -la empresa que desarrolla el modelo de IA Claude- y la administración de Donald Trump.

CEO de Anthropic Dario Amodei. AFP

El Departamento de Defensa de los Estados Unidos viene trabajando hace años con Claude en distintas operaciones. Según informó The Washington Post, el sistema fue usado incluso en la actual ofensiva contra Irán para identificar y atacar 1.000 objetivos en las primeras 24 horas.

Pero con la guerra prolongándose, el gobierno de los Estados Unidos pidió a Anthropic que flexibilice dos restricciones de su sistema: la prohibición de usar la tecnología para la vigilancia masiva y el desarrollo de armas autónomas.

Amodei consideró esos pedidos inaceptables. Trump lo acusó de “izquierdista radical”, y desde el Pentágono amenazaron con cancelar los contratos con la empresa.

Concretamente, dijeron que la van a declarar como una empresa de “riesgo para la cadena de suministro”. Si esto se concreta, ningún organismo del gobierno estadounidense podría utilizar sus modelos de IA, con el perjuicio económico que esto implica para la compañía de Silicon Valley.

Más allá de la anécdota, el episodio revela algo más profundo: la carrera por incorporar IA al aparato militar ya está en marcha. Y eso abre preguntas inquietantes.

Investigadores del King’s College de Londres publicaron hace poco un estudio en el que hicieron enfrentar entre sí a distintos modelos de lenguaje -ChatGPT, Claude y Gemini- en simulaciones de crisis internacionales. Cada sistema asumía el rol de un líder nacional al mando de una potencia con armamento nuclear.

En todas las simulaciones, al menos uno de los modelos optó por escalar el conflicto con armas nucleares. En el 95% de los casos, la crisis derivó en algún tipo de decisión vinculada al uso de armamento nuclear.

Según los investigadores, un factor que explica ese comportamiento es la ausencia de lo que llaman “miedo visceral”. Las IA analizan una guerra nuclear como un problema abstracto. No sienten el horror ni las consecuencias humanas de la decisión.

Durante décadas se temió que líderes humanos tomaran decisiones irracionales en una crisis nuclear. Ahora surge otro riesgo: sistemas capaces de calcular y ejecutar fríamente lo que ningún ser humano haría.

Si la IA es un arma, ¿quién debería controlarla?

Recibí en tu mail todas las noticias, historias y análisis de los periodistas de Clarín

Newsletter Clarín