Para disfrutar los contenidos de Clarín es necesario que actives JavaScript en tu navegador.
“1984”, la icónica novela distópica de George Orwell (seudónimo de Eric Arthur Blair, 1903–1950), publicada en 1949, describe un régimen que controla la vida humana mediante la vigilancia masiva, la obediencia acrítica y la manipulación del lenguaje, de la verdad y de la memoria, hasta destruir la capacidad misma de pensar libremente.
Hoy, con escenarios, protagonistas e infraestructuras técnicas muy diferentes —plataformas digitales y algoritmos— asoma un temor parecido.
No tenemos definiciones claras sobre los límites de la IA, y al mismo tiempo observamos presiones que dificultan que los Estados redefinan su relación con ella y establezcan quién la controla y bajo qué condiciones.
La vigencia de la obra orwelliana y la advertencia del demógrafo Mark McCrindle —tendemos a mirar solo el ahora, cuando los tiempos cambian demasiado rápido— nos invitan a levantar la vista unos años para poder posicionarnos hoy. Ese propósito nos anima.
El futuro no está “allá afuera”, estático, ni es una utopía lejana al estilo de 1984. Lo percibimos lanzado hacia nosotros a una velocidad sin precedentes y desde direcciones que a menudo no advertimos.
Robert Jungk (1913–1994), periodista, escritor e impulsor temprano de los estudios del futuro, lo subrayó desde el título mismo de su obra más conocida: Die Zukunft hat schon begonnen (El futuro ya ha comenzado). Sostenía que el porvenir se halla incubado en los laboratorios, las infraestructuras y las decisiones del presente: un mundo hiperplanificado, tecnificado y controlado que ya está en gestación. De allí deriva su advertencia: una técnica que se autonomiza puede convertirse en un Moloch que amenaza con devorar al individuo.
El cine de ciencia ficción ha traducido estas inquietudes al imaginario colectivo con visiones distópicas de futuros posibles: Metrópolis (1927, Fritz Lang), Brazil (1985, Terry Gilliam), The Matrix (1999, Wachowski) o 2001: A Space Odyssey (1968, Kubrick), que anticipa una reflexión sobre la inteligencia artificial y la relación humana con la máquina. Otras obras, más cercanas a nuestro horizonte temporal, se asoman incluso a escenarios de tecno-cesarismo y mega-corporaciones.
La literatura también ha sido un laboratorio de futuros. Es imposible no recordar a H. G. Wells anticipando un gobierno mundial tecnocrático; a Aldous Huxley, que en Un mundo feliz (1932) imagina una “tecnocracia feliz” con derivas totalitarias; o a Philip K. Dick, que en ¿Sueñan los androides con ovejas eléctricas? (1968) se adentra en un futuro postapocalíptico poblado por androides casi humanos.
Desde esos horizontes se abre un interrogante que no será único: ¿cuál es la dirección del tiempo?
Borges, en “Historia de la eternidad” (1953), se pregunta si el río de las horas fluye del pasado hacia el porvenir —como supone la creencia más común— o en sentido inverso. Considera que ninguna de las dos posiciones es ilógica; las juzga igualmente verosímiles e inverificables. Me inclino a pensar que, para él, la válida era la inversa, ya que evoca los versos de Unamuno según los cuales “…el río de las horas fluye desde su manantial, que es el mañana eterno”.
Por eso el intento de asomarnos a 2071: no para adivinarlo, sino para explorar futuribles e interrogarnos sobre la arquitectura de poder, información y sentido en la que vivirán los habitantes de ese tiempo.
¿Actuará la IA generativa sola, o integrada en una “inteligencia humana organizada” capaz de orientarla y ponerle límites?
Habrá nacido, tal vez, hacia 2040, ya al final de la generación Beta, acostumbrada a convivir con inteligencias artificiales ubicuas y con una arquitectura de poder muy distinta a la nuestra.
Habita en 2071 en los Emiratos Árabes Unidos, un país que en apenas medio siglo pasó de ser una sociedad de pescadores y buscadores de perlas a actor central en la economía del conocimiento.
En 2025 ya figuraba entre los países líderes en inteligencia artificial, detrás de Estados Unidos y China, pero a la cabeza de su región, y en su hoja de ruta UAE Centennial 2071 se fijaba como meta ser uno de los mejores países del mundo y un “hub global” de IA.
La veo regresar del World Economic Forum con una credencial colgando del cuello y sentarse frente a mí con la naturalidad con la que los nietos preguntan lo que a los abuelos les cuesta responder.
— Abuelo —me dice—, en la reunión anual que acaba de concluir escuché a un conferencista decir que, en 2026 —menos de medio siglo atrás—, ustedes tomaban decisiones importantes con algoritmos que casi nadie entendía.
—¿Es cierto que confiaban en bancos, plataformas y aseguradoras que nadie comprendía por dentro, y que ignoraban los algoritmos que gobernaban esas relaciones?
—¿Eran conscientes de que el verdadero poder no estaba en lo que leían en la pantalla, sino en la lógica invisible del sistema, en el código que regía esos contratos?
—¿Sabían quién diseñaba los sistemas que decidían si conseguían o no un crédito, un empleo o un seguro?
La miro sin responder; ella insiste, como obedeciendo a una determinación que presiento ineludible. No es que no pueda responderle; me faltan argumentos para explicarle por qué todo eso nos parecía normal.
Me parece pueril contarle que estábamos fascinados con la IA, sobre todo a partir de que pudo generar imágenes, sonidos y datos nuevos, relacionar palabras, ideas y significados para crear textos coherentes, y hasta aconsejar en la toma de decisiones críticas.
Trato de cerrar el punto y le explico: nos costaba entender que la IA no piensa en realidad, ni comprende —aunque lo parezca— el sentido de los textos que produce, ni tiene conciencia alguna.
—Nos contaron que, en 2026, muchos decían que la IA “solo” ayudaría a los trabajadores, que no los reemplazaría. Mientras, veíamos desaparecer tareas, tanto rutinarias como de ciertos profesionales como abogados, contadores, asesores financieros, etc. que se hallaban amenazados.
El responsable de IA de Microsoft, Mustafa Suleyman, llegó a advertir que la mayoría de las tareas de cuello blanco —todo lo que implica “sentarse ante un ordenador”— podría automatizarse en doce o dieciocho meses. Eso daba una medida del vértigo en el que vivíamos.
Los expertos serios no prometían salvar todos los empleos, sino gestionar la transición, invertir masivamente en formación continua, recolocar personas en tareas complementarias a la IA, reforzar la protección social y limitar el uso de algoritmos en decisiones laborales críticas. Insistían en que los gobiernos debían dejar de ser espectadores e invertir en formación a lo largo de la vida, actualizar la protección social y poner reglas claras sobre qué puede decidir un algoritmo en el trabajo y qué no.
El problema es que, en 2026, la escala de esas políticas todavía estaba lejos de la escala de la automatización que se venía.
—Me llamó mucho la atención saber que en vuestra época experimentaban con implantes de algoritmos —creo que se llamaba Neuralink— que conectaban directamente con el cerebro y permitían mover un cursor, una prótesis o incluso comunicarse solo con el pensamiento. ¿No les preocupaba que esas interfaces llegaran a ser bidireccionales, y no solo leyeran el cerebro, sino que también pudieran influir en él?
—Sí —le respondo—. Nos maravillaban las primeras interfaces cerebro-máquina, sobre todo cuando se usaban como prótesis médicas para personas con parálisis. Pero, al mismo tiempo, empezaban a aparecer temores más difíciles de formular: que esa tecnología se trasladara a otros ámbitos, que atravesara la frontera de lo terapéutico y terminara abriendo la puerta a nuevas formas de control sobre la mente.
—El historiador contó que entonces no tenían aún desarrollada la IA agéntica. ¿Era así?
—No del todo. En 2026 ya existían formas nacientes de IA agéntica, pero estaban muy acotadas y bajo supervisión humana. Para precisar esa respuesta, yo mismo recurro a una IA de 2026 y le explico. En bancos, hospitales, logística e infraestructuras empezaban a desplegarse agentes capaces de encadenar acciones por sí mismos: atender consultas complejas, navegar políticas internas, revisar cientos de miles de contratos o coordinar flujos de trabajo sin que una persona estuviera pendiente de cada paso. Había asistentes capaces de operar el ordenador, enviar correos, reservar servicios, hacer compras y solo pedir confirmación en los pasos sensibles, e incluso agentes generalistas que ofrecían “haz cualquier tarea por mí” a empresas y particulares.
También se usaban agentes sectoriales: en salud, para revisar literatura científica, ayudar en diagnósticos y monitorizar pacientes a distancia; en finanzas, para detectar fraudes, puntuar créditos y analizar riesgos; en servicio al cliente, para conversar con usuarios, consultar sistemas internos y modificar pedidos sin intervención humana; en logística, para gobernar robots y vehículos autónomos en almacenes y rutas. En China de un “Agent Hospital” hace décadas ya se hablaba de un hospital virtual en el que todos los roles —pacientes, médicos, enfermeras— eran agentes autónomos de IA que simulaban miles de casos clínicos, desde el primer síntoma hasta el alta. No era todavía un hospital físico sin humanos, pero mostraba que, al menos en un entorno simulado, la cadena entera de decisiones médicas podía ser recorrida por sistemas artificiales.
Pero con lo que no contábamos ni contamos era una arquitectura clara de regulación y gobernanza para todo eso. Veíamos esos sistemas como una “automatización avanzada”, no como nuevos actores en la arquitectura de poder, y por eso subestimamos lo que significaba dejarles cada vez más decisiones. Desde ya que ninguna decisión existía respecto a qué dejar en manos de humanos y qué entregar a los algoritmos.
—También nos contó el conferencista que a los sistemas de IA no se les requería en aquel tiempo “licencia para operar”, como a un banco o una central nuclear. ¿Es así?
—Sí. Primero venía el producto, después los problemas y recién entonces la regulación. No es que no viéramos el problema; aceptábamos vivir siempre detrás de los hechos. Nos consolábamos con la idea de que, al menos, podíamos usar gratis herramientas poderosas. Nos sentíamos agradecidos de ser usuarios.
—Hoy sabemos —me dice— quién puede apagar un modelo de IA crítico. Pero ustedes, ¿en 2026 sabían quién mandaba de verdad?
—Sabíamos los nombres de los CEO y de algunos políticos, pero no quién decidía qué veías en tu pantalla, qué riesgo eras para un banco o qué noticias se volvían virales.
—O sea que… ¿el poder ya era algorítmico, y ustedes seguían discutiendo como si fuera solo político?
—Así es. Seguíamos mirando al Congreso mientras los centros de decisión se desplazaban a los centros de datos.
En realidad, aceptábamos que nos midieran, nos siguieran, nos puntuaran, todo a cambio de comodidad.
—No había culpables —respondo—, solo “sistemas mal entrenados”. Pero veo en su rostro imaginado que no encuentra satisfactoria mi respuesta. Agrego que nuestros esfuerzos se concentraban en adaptarnos a la transformación digital, acogiendo una IA generativa accesible y cotidiana.
Arguyo que vivíamos profundas crisis, urgencias económicas, problemas energéticos y de costos, e incluso presiones políticas para no reglamentar ni legislar. Todo ello contribuyó a relegar la atención sobre los códigos y los algoritmos que había detrás de los contratos. Nos sentíamos cómodos siendo dependientes. Por eso no pensábamos en el riesgo de postergar reglamentaciones y leyes, ni en la creación de observatorios globales de IA, institutos de seguridad, sistemas de auditoría automática y de alerta temprana. “Llegará más tarde”, insistíamos.
—Ni una ni la otra —le respondo—. Lo dejábamos todo para después, confiando en la ilusión de que el futuro se ocuparía de que “alguien” habría de poner límites…
—Sí, teníamos miedo. Nos fascinaba la automatización de tareas, el ahorro de tiempo y las nuevas capacidades de la IA, pero esa misma potencia nos generaba inquietud.
Temíamos perder el control sobre la información, sobre nuestros datos y sobre nuestro trabajo. Ese temor se disfrazaba a menudo en chistes sobre “robots que nos iban a reemplazar” y titulares exagerados, mientras mirábamos menos los riesgos concretos.
Nos preocupaban la desinformación y la manipulación —deepfakes, contenidos falsos, interferencias en elecciones y debates públicos—, la pérdida de privacidad por sistemas de vigilancia persistente y, quizá más que nada, la destrucción de empleos y profesiones.
Nos angustiaba la idea de una IA todopoderosa capaz de usar nuestros datos sin que supiéramos quién entrenaba los modelos ni qué sesgos escondían.
Confiábamos demasiado en que las empresas se autorregularían y “harían lo correcto”, y eso nos llevó a descuidar el presente: los sesgos en sistemas de scoring, el uso policial y militar de la IA, la concentración de poder en unas pocas plataformas.
Nos inquietaba algo que hoy parece más evidente —le digo—: que el poder de la IA pudiera llegar a ser mayor que el de muchos Estados. El propio Dario Amodei, CEO de Anthropic, advertía que sistemas muy potentes podían facilitar el bioterrorismo, reforzar regímenes autoritarios mediante vigilancia masiva y propaganda personalizada, y, en el peor de los casos, apuntalar una especie de “dictadura totalitaria global” apoyada en IA. No eran solo miedos difusos; algunos tenían ya nombre y apellido. En otros se exageraba, se decía que se pondría en peligro de extinción a nuestra propia especie humana.
A lo que temíamos y tememos es al futuro, lo cual nos distrae de la atención que debemos poner a como se está configurando nuestro presente.
—Y tú, ahora, ¿temes que la IA pueda llegar a convertirse en una super inteligencia?
—No —respondo enseguida—. Mi temor no es a la IA, sino al ser humano cuando empieza a imitarla: a medir y a optimizarlo todo, y a desvalorizar precisamente aquello que no encaja en los criterios de eficiencia.
—Se nos dijo que en los archivos históricos consta que hacia 2025-2026 esta región atravesaba grandes tensiones y conflictos. —¿Cómo pasó de aquellas turbulencias a liderar la economía del conocimiento?
—Es cierto —respondo, y el recuerdo me sobrecoge—. En aquellos días, ataques con misiles sacudían Abu Dabi y otras ciudades del Golfo. Recuerdo las alarmas, los refugios, la incertidumbre de cada noche. Pero precisamente esa vulnerabilidad forjó una determinación: construir un futuro basado no en recursos que se agotan o geografías que dividen, sino en conocimiento que se multiplica. Las crisis, ya lo sabemos, catalizan transformaciones impensables…
Recibí en tu mail todas las noticias, historias y análisis de los periodistas de Clarín