Gazette
Oficial
$ 1311,41
-1,27%
Blue
$ 1320,00
-1,49%
MEP
$ 1308,13
-0,80%
CCL
$ 1310,48
-0,70%
Risk
711
-1,52%%

¿Estados gobernados con Inteligencia Artificial?

hace 22 horas en infobae.com por Eduardo Laens
Infobae

La pregunta, que hasta hace no mucho hubiera sonado a disparate distópico de ciencia ficción, hoy es una realidad incómoda: el debate ya no es por “sí o no”, estamos en la etapa del “cómo, para qué y con qué límites”. La inteligencia artificial en el sector público puede ser un acelerador formidable de valor social o un atajo hacia decisiones mediocres, burocracias automatizadas y confianza pública erosionada. Depende del diseño, de la gobernanza y, sobre todo, del poder que estemos dispuestos a delegar.

Arranco por lo obvio: la política ya está usando IA. Hace pocos días, el primer ministro de Suecia reconoció que consulta ChatGPT y otras herramientas “como segunda opinión”. En un punto es humano: todos buscamos contraste antes de decidir. El problema aparece cuando esa “segunda opinión” entra a la sala sin credenciales, sin trazabilidad y sin responsabilidad jurídica. ¿Qué datos se le dieron? ¿Quedó registro? ¿Hubo revisión humana? Las preguntas no son paranoias; son condiciones básicas para el ejercicio responsable del poder público.

Del lado luminoso, hay beneficios inmediatos y nada triviales. Un Estado está hecho de texto: informes, notas, minutas, borradores, respuestas a oficios. Asistentes de IA ya demostraron que pueden ahorrar tiempo real en ese océano de documentos y pueden ser más eficientes que los asistentes humanos. El Gobierno británico reportó ahorros promedio de 26 minutos por día por funcionario en un ensayo con miles de empleados. No es magia; es menos tiempo formateando, resumiendo y buscando, y más tiempo en trabajo de criterio. Si se multiplica eso por toda una administración, son semanas de productividad recuperada por persona cada año. Bien diseñado, ese tiempo se puede reinvertir en servicio al ciudadano, no en “más papeles”.

Otra ventaja: accesibilidad. Un asistente estatal bien entrenado puede responder 24/7 en lenguaje claro, traducir a lenguas locales, evidenciar transparencia operativa, explicar trámites con ejemplos, detectar incoherencias en expedientes y guiar a adultos mayores o personas con discapacidad en tiempo real. Si el Estado es un laberinto, la IA bien usada te presta una brújula digital.

Ahora, los riesgos. El primero es obvio y a la vez subestimado: confidencialidad y gobernabilidad de la solución. ¿Tiene el gobierno la madurez necesaria para implementar y mantener de forma autónoma la solución, o depende de un proveedor del sector privado para hacerlo? Yendo al caso del primer ministro sueco que salió en las noticias, el cual aseguró que consulta a las IAs públicas, ¿Cuál es el protocolo de la información que esta entregando a los modelos para recibir feedback?

Segundo: sesgo y legitimidad. Los modelos aprenden de datos históricos que reflejan inequidades reales. Si trasladamos esos sesgos a decisiones de alto impacto —asignación de beneficios, inspecciones, controles—, podemos terminar automatizando injusticias con sello de “eficiencia”. Y la eficiencia mal medida es peligrosa: si el KPI es “cerrar expedientes más rápido”, quizá el sistema aprenda a filtrar casos complejos o a responder con generalidades. La IA puede optimizar procesos o puede optimizar excusas. Si los gobernantes utilizan modelos generales, ¿cómo nos aseguramos que no sucumben ante los sesgos, criterios y potenciales manipulaciones de los fabricantes?

Tercero: dependencia y captura. Si cada flujo crítico del Estado corre sobre un stack propietario que no permite auditar, versionar ni portar modelos, quedarán presos de un proveedor y de sus cambios de precio, de política o de servicio. Esto ya pasó con otros software; con IA es peor, porque el “know-how” está en prompts, evaluaciones y datasets afinados que son parte del activo del Estado. Perder eso es perder control operativo. El debate de la soberanía de las IAs se vuelve absolutamente relevante, donde los estados deben destinar presupuestos de innovación y tecnología para poder operar desacoplados de los titanes tecnológicos actuales.

Cuarto: pérdida de calidad gubernamental. Si cada borrador, cada memo y cada análisis lo arranca una IA, existe el riesgo de atrofiar habilidades que el sector público necesita conservar: escritura clara, pensamiento crítico, capacidad de síntesis, memoria institucional.

¿Qué hacemos con todo esto? Algunos marcos ya pusieron la vara. La UE avanzó con el AI Act, en vigor desde el 1 de agosto de 2024, que ordena la casa por niveles de riesgo y marca límites claros (p. ej., prohíbe “social scoring” gubernamental). No resuelve todo, pero establece un piso común para adquisiciones, evaluaciones y transparencia, con un cronograma que escala obligaciones en 2025 y 2026. En EEUU, la Oficina de Presupuesto (OMB) emitió memorandos que exigen inventarios de casos de uso, responsables de IA, gestión de riesgos y reglas de compra específicas para evitar cajas negras y asegurar portabilidad. Otra vez: no es “sí o no a la IA”, es “sí, con guardarails”.

Imaginemos ahora efectos colaterales menos obvios. En economía política, la IA puede favorecer una “burocracia de la verosimilitud”: documentos perfectos, lenguaje impecable, argumentos bien formateados, pero con premisas débiles. La forma tapa la sustancia y la velocidad abruma el escrutinio ciudadano. Otro efecto: delegación de responsabilidad institucional. Si una decisión salió mal, siempre existirá la tentación de culpar al sistema: la herramienta recomendó. La responsabilidad no se delega totalmente, pero se puede diluir. Y ahí perdemos todos.

¿Y los escenarios distópicos? No hace falta ir a ciencia ficción. Uno: un piloto “experimental” de análisis para asignar inspecciones identifica barrios “de riesgo” combinando datos de denuncias, consumo eléctrico y redes sociales. A corto plazo mejora la tasa de hallazgos. A mediano, refuerza sesgos territoriales, parecerá “confirmar” estigmas y encenderá un círculo vicioso de vigilancia selectiva. Dos: un asistente ciudadano ultra realista responde que no corresponde tu reclamo porque “no cumplís criterio X”, pero el criterio X está codificado en un modelo que nadie puede auditar. El algoritmo se vuelve ley de facto. Tres: propaganda sintética hipersegmentada, imposible de detectar a simple vista, diseñada por agentes que prueban miles de variantes por minuto y aprenden de tus respuestas. La conversación cívica, ya frágil, se convierte en un enjambre de susurros invisibles.

También hay escenarios virtuosos que vale la pena perseguir. Un Estado que crea su “Asesor Ciudadano”: conocimiento público (leyes, jurisprudencia, estadísticas, manuales) curado y versionado, listo para que cualquier modelo —propio o de terceros— responda con citas y trazabilidad. Un repositorio de información y evaluaciones abierto, con métricas públicas de calidad, sesgo y robustez. Modelos soberanos o desplegados en nubes con garantías para información sensible, y “cajas de vidrio” (system cards, reglas de uso, logging auditable) accesibles por la ciudadanía. Y un principio simple: derecho a una vía humana para impugnar una decisión asistida por IA.

¿Es positivo o negativo que los gobiernos usen IA? Mal planteada la pregunta. La IA no es buena ni mala: es poder. Y el poder se regula, se equilibra y se rinde. Si la usamos para ensanchar derechos, simplificar la vida cotidiana y abrir la caja negra del Estado, será un avance civilizatorio. Si la usamos para apretar tornillos de control, tercerizar criterio y maquillar decisiones, será otra vuelta de tuerca a lo que ya no funciona.

El autor es CEO de Varegos y docente universitario especializado en IA y autor del libro Humanware

Blockchain: la autopista que podría