← Volver
lanacion.com.ar · hace 8 horas · Sebastián Campanario

¿Qué futuro nos espera con la IA? La respuesta llegará en los próximos tres años (y puede ser más incertidumbre todavía)

LA NACION

El 26 de diciembre de 2004, ocurrió un terremoto gigantesco (de magnitud entre 9.1 y 9.3 en la escala de Richter) frente a la costa de Sumatra (Indonesia) en el océano Indico. Al levantarse el piso del fondo oceánico se formó una ola que viajó miles de kilómetros y causó estragos en las costas de varios países: fue por lejos el tsunami más mortífero de la historia, con una estimación de más de 230.000 víctimas por el desastre.

Cuando se ve algún documental sobre esta tragedia puede advertirse una particularidad: la ola gigante no es igual a una ola habitual pero mucho más grande, como las que aparecen en los récords del surf, de 20 o 30 metros. La del índico del 2004 es una especie de pared blanca y gris, que avanza de manera uniforme, algo más baja pero mucho más persistente y letal. Es una ola distinta, y por eso también mató a tanta gente: al principio el mar se replegó cientos de metros y muchos turistas que estaban en las playas de Tailandia e Indonesia lo tomaron como una curiosidad y se quedaron ahí, sin saber que se trataba de una trampa mortal.

Esta idea de una “ola distinta” puede trasladarse a lo que está sucediendo con la IA y la economía del cambio. Como sucede en las tramas de las series fantásticas (piensen en Lost o Stranger Things), por cada respuesta que se da se abren dos nuevas preguntas. Nos adentramos en el territorio de “lo que no se sabe que no se sabe”, la doctrina de Donald Rumsfeld de los “unknown unknowns”.

Días atrás, el divulgador, futurista y ex editor jefe de Wired Kevin Kelly publicó un ensayo corto excelente sobre este tema, con el título del concepto del exsecretario de defensa de los EE.UU. Kelly marca un punto interesante: nadie en la actualidad –ni los más expertos en IA- tiene la menor idea de qué va a ocurrir con esta revolución en términos económicos, de empleo; si va a seguir escalando, si vamos a llegar a la denominada “AGI” (Inteligencia Artificial General, o “súper-inteligencia”). Pero de alguna manera parece haber un consenso general en que estas respuestas van a llegar en los próximos tres años, y que para –digamos, 2029, 2030- los contornos de un mundo con IA en toda la “infraestructura de la realidad” (término del futurólogo Marcelo Rinesi) ya estarán delineados.

Algo similar suele decir el creativo Nicolás Pimentel: en el chip de muchos de los que hoy somos Gen X, Millennials o boomers, está esta idea de que “salimos de un puerto de aguas calmas, estamos atravesando aguas tormentosas, pero en algún momento la cosa va a decantar en una nueva normalidad”. Tal vez esto sucede, como dice el economista Tyer Cowen, porque la actual generación vivió décadas de estabilidad como nunca antes pasó en la historia moderna (sin guerras mundiales ni cambios de orden abrupto).

Volvamos a Kelly: él cree que lo más probable es que estas preguntas básicas sobre el impacto de la IA no estén respondidas en 2030. “Para ese momento, la IA nos seguirá sorprendiendo. Tal vez todavía no sepamos si la AGI es posible, si el empleo será disrumpido a gran escala: no digo que esto suceda porque haya un estancamiento, pero las novedades que aparecen no responden las viejas preguntas, sólo expanden nuestra ignorancia porque son nuevas de una nueva forma”.

Si esto sucede, tendremos por delante un período de 10-15 años de perpetua, continua y severa incertidumbre. “Esto para muchos será una carga enorme porque odiamos más a la incertidumbre que a las malas noticias”, puntualiza Kelly.

Algunas predicciones a partir de este escenario: “Habrá desacuerdos fuertes entre expertos en IA de si ya llegamos a la AGI o no; los más reputados economistas no sabrán decir si hay impacto fuerte o no en la productividad, los niveles de ansiedad global aumentarán; EE.UU y China no se decidirán a ser aliados o enemigos”. En definitiva, Kelly cree que sobrevendrá una “era de la ambigüedad”.

Para empresarios y gente de negocios, este contexto hace que la certidumbre sea peligrosísima. El sesgo más dañino será el del exceso de autoconfianza, el de la seguridad de que tenemos razón. “En definitiva, en esta nueva era uno debe ser bueno en cambiar de mentalidad. El desafío que encaramos en este escenario no es una niebla temporaria, sino un cambio fundamental en la naturaleza del conocimiento”, dice Kelly.

Kelly retoma la clásica taxonomía (lo conocido conocido, lo conocido desconocido, y lo desconocido desconocido), pero la corre de lugar. Su punto es que los unknown unknowns no son una anomalía marginal del sistema: son el sistema. El progreso —científico, tecnológico, incluso personal— ocurre no tanto al resolver preguntas existentes, sino al descubrir que había preguntas que ni siquiera sabíamos formular.

Ahí aparece una idea potente: el conocimiento no crece como un mapa que se completa, sino como una frontera que se expande. Y cuanto más se expande, más perímetro tiene. Es decir: más contacto con lo desconocido. Saber más no reduce la incertidumbre estructural; la reorganiza.

Esta metáfora del conocimiento como una isla y la ignorancia como el mar que la rodea (cuyo límite perimetral se expande a medida que sabemos más) es citada a menudo por el físico, experto en IA y futurista ruso Andrei Vazhnov, que ahora está radicado en Barcelona y dirige la estrategia de IA para la firma de real estate más grande de los Estados Unidos. “La frase original es del físico John Archibald Wheeler: a medida que crece nuestra isla de conocimiento, lo mismo sucede con la orilla de nuestra ignorancia”, cuenta Vazhnov a LA NACION. A Wheeler se lo considera un arquitecto conceptual de la física moderna: trabajó en relatividad general, física nuclear y fundamentos de la mecánica cuántica.

La IA no solo responde preguntas: genera nuevas zonas de ignorancia. Es una máquina de producir “lo que no sabemos que no sabemos”. Esto va en contra del relato dominante de la IA como herramienta de reducción de incertidumbre; en realidad, la desplaza hacia otros lados. Y acá hay una dimensión cultural: las organizaciones (y las personas) están diseñadas para minimizar lo desconocido, no para interactuar con él. Premian la previsibilidad, castigan el error, valoran la claridad. Pero si el motor del progreso está en lo que no sabemos que no sabemos, entonces hay una desalineación profunda entre cómo operamos y de dónde viene el valor.

La clave es no quedarse atascado en una sola opción, y sentirse cómodo sosteniendo varias posibilidades contradictorias al mismo tiempo. En la práctica, Vazhnov se obliga a no tener opiniones fuertes sobre nada, a menos que tenga que tomar una decisión sobre ese tema. Es un músculo que hay que entrenar: mientras no haya costo, sostener la contradicción.

Tal vez quien mejor resumió esto no haya sido un físico ni un experto en IA, sino un novelista. Francis Scott Fitzgerald sostuvo una vez que “la prueba de una inteligencia de primer nivel es la capacidad de sostener dos ideas opuestas en la mente al mismo tiempo y, aun así, conservar la capacidad de funcionar”.

The Trust Project

© Copyright 2026 SA LA NACION | Todos los derechos reservados. Dirección Nacional del Derecho de Autor DNDA - EXPEDIENTE DNDA (renovación) RL-2023-95334553-APN-DNDA#MJ.Queda prohibida la reproducción total o parcial del presente diario.

App store