Skip to main content

La pregunta del título, que hasta hace no mucho hubiera sonado a disparate distópico de ciencia ficción, hoy es una realidad incómoda: el debate ya no es por “sí o no”, estamos en la etapa del “cómo, para qué y con qué límites”.

La inteligencia artificial en el sector público puede ser un acelerador formidable de valor social o un atajo hacia decisiones mediocres, burocracias automatizadas y confianza pública erosionada. Depende del diseño, de la gobernanza y, sobre todo, del poder que estemos dispuestos a delegar.

Arranco por lo obvio: la política ya está usando inteligencia artificial. El primer ministro de Suecia reconoció que consulta ChatGPT y otras herramientas “como segunda opinión”.

En un punto es humano: todos buscamos contraste antes de decidir. El problema aparece cuando esa “segunda opinión” entra a la sala sin credenciales, sin trazabilidad y sin responsabilidad jurídica.

¿Qué datos se le dieron? ¿Quedó registro? ¿Hubo revisión humana? Las preguntas no son paranoias; son condiciones básicas para el ejercicio responsable del poder público.

Beneficios de la inteligencia artificial en el Estado

Del lado luminoso, hay beneficios inmediatos y nada triviales. Un Estado está hecho de texto: informes, notas, minutas, borradores, respuestas a oficios.

Asistentes de inteligencia artificial ya demostraron que pueden ahorrar tiempo real en ese océano de documentos y pueden ser más eficientes que los asistentes humanos.

El Gobierno británico reportó ahorros promedio de 26 minutos por día por funcionario en un ensayo con miles de empleados. No es magia; es menos tiempo formateando, resumiendo y buscando, y más tiempo en trabajo de criterio.

Si se multiplica eso por toda una administración, son semanas de productividad recuperada por persona cada año. Bien diseñado, ese tiempo se puede reinvertir en servicio al ciudadano, no en “más papeles”.

Otra ventaja: accesibilidad. Un asistente estatal bien entrenado puede responder 24/7 en lenguaje claro, traducir a lenguas locales, evidenciar transparencia operativa, explicar trámites con ejemplos, detectar incoherencias en expedientes y guiar a adultos mayores o personas con discapacidad en tiempo real. Si el Estado es un laberinto, la inteligencia artificial bien usada te presta una brújula digital.

Riesgos de la inteligencia artificial en el Estado

Ahora, los riesgos. El primero es obvio y a la vez subestimado: confidencialidad y gobernabilidad de la solución. ¿Tiene el gobierno la madurez necesaria para implementar y mantener de forma autónoma la solución, o depende de un proveedor del sector privado para hacerlo?

Yendo al caso del primer ministro sueco que salió en las noticias, el cual aseguró que consulta a las IA públicas, ¿Cuál es el protocolo de la información que está entregando a los modelos para recibir «feedback»?

Segundo: sesgo y legitimidad. Los modelos aprenden de datos históricos que reflejan inequidades reales. Si trasladamos esos sesgos a decisiones de alto impacto —asignación de beneficios, inspecciones, controles—, podemos terminar automatizando injusticias con sello de “eficiencia”.

Y la eficiencia mal medida es peligrosa: si el KPI (Nota de R.: métricas de rendimiento o que indica el progreso hacia un objetivo) es “cerrar expedientes más rápido”, quizá el sistema aprenda a filtrar casos complejos o a responder con generalidades.

La inteligencia artificial puede optimizar procesos o puede optimizar excusas. Si los gobernantes utilizan modelos generales, ¿cómo nos aseguramos de que no sucumben ante los sesgos, criterios y potenciales manipulaciones de los fabricantes?

Tercero: dependencia y captura. Si cada flujo crítico del Estado corre sobre un “stack” propietario que no permite auditar, versionar ni portar modelos, quedarán presos de un proveedor y de sus cambios de precio, de política o de servicio.

Esto ya pasó con otros softwares; con inteligencia artificial es peor, porque el “know-how” está en “prompts”, evaluaciones y “datasets” afinados que son parte del activo del Estado.

Perder eso es perder control operativo. El debate de la soberanía de las IA se vuelve absolutamente relevante, donde los estados deben destinar presupuestos de innovación y tecnología para poder operar desacoplados de los titanes tecnológicos actuales.

Cuarto: pérdida de calidad gubernamental. Si cada borrador, cada memo y cada análisis lo arranca una IA, existe el riesgo de atrofiar habilidades que el sector público necesita conservar: escritura clara, pensamiento crítico, capacidad de síntesis, memoria institucional.

¿Qué hacemos con todo esto? Algunos marcos ya pusieron la vara. La Unión Europea (UE) avanzó con el AI Act, en vigor desde el 1 de agosto de 2024, que ordena la casa por niveles de riesgo y marca límites claros (por ejemplo, prohíbe la puntuación social gubernamental).

No resuelve todo, pero establece un piso común para adquisiciones, evaluaciones y transparencia, con un cronograma que escala obligaciones en 2025 y 2026.

En EE. UU., la Oficina de Presupuesto (OMB) emitió memorandos que exigen inventarios de casos de uso, responsables de inteligencia artificial, gestión de riesgos y reglas de compra específicas para evitar cajas negras y asegurar portabilidad. Otra vez: no es “sí o no a la inteligencia artificial”, es “sí, con guardarails”.

Imaginemos ahora efectos colaterales menos obvios. En economía política, la inteligencia artificial puede favorecer una “burocracia de la verosimilitud”: documentos perfectos, lenguaje impecable, argumentos bien formateados, pero con premisas débiles. La forma tapa la sustancia y la velocidad abruma el escrutinio ciudadano.

Otro efecto: delegación de responsabilidad institucional. Si una decisión salió mal, siempre existirá la tentación de culpar al sistema: la herramienta recomendó. La responsabilidad no se delega totalmente, pero se puede diluir. Y ahí perdemos todos.

Escenarios distópicos y virtuosos de la inteligencia artificial en el Estado

No hace falta ir a ciencia ficción.

  • Un piloto “experimental” de análisis para asignar inspecciones identifica barrios “de riesgo” combinando datos de denuncias, consumo eléctrico y redes sociales. A corto plazo mejora la tasa de hallazgos. A mediano, refuerza sesgos territoriales, parecerá “confirmar” estigmas y encenderá un círculo vicioso de vigilancia selectiva.
  • Un asistente ciudadano ultra realista responde que no corresponde tu reclamo porque “no cumplís criterio X”, pero el criterio X está codificado en un modelo que nadie puede auditar. El algoritmo se vuelve ley de facto.
  • Propaganda sintética hipersegmentada, imposible de detectar a simple vista, diseñada por agentes que prueban miles de variantes por minuto y aprenden de tus respuestas. La conversación cívica, ya frágil, se convierte en un enjambre de susurros invisibles.

También hay escenarios virtuosos que vale la pena perseguir. Un Estado que crea su “asesor ciudadano”: conocimiento público (leyes, jurisprudencia, estadísticas, manuales) curado y versionado, listo para que cualquier modelo —propio o de terceros— responda con citas y trazabilidad.

Un repositorio de información y evaluaciones abierto, con métricas públicas de calidad, sesgo y robustez. Modelos soberanos o desplegados en nubes con garantías para información sensible, y “cajas de vidrio” (tarjetas de sistemas, reglas de uso, registro de ingreso auditable) accesibles por la ciudadanía. Y un principio simple: derecho a una vía humana para impugnar una decisión asistida por inteligencia artificial.

Reglas para el uso de la inteligencia artificial en el Estado

Para llegar ahí, propongo cinco reglas prácticas:

  • Propósito claro. Toda inteligencia artificial en gobierno debe responder a un problema público específico y medirse contra resultados reales (tiempos de espera, acceso, calidad de servicio), no contra métricas de vanidad tecnológica.
  • Datos con gobernanza. Sin catálogos, calidad, permisos y trazabilidad de datos, no hay inteligencia artificial responsable. Publicar metadatos y políticas es tan importante como publicar código.
  • Humano al mando. “Human-in-the-loop” con atribuciones de veto y registro de por qué se aceptó o rechazó una salida del modelo. La historia de decisiones es auditable.
  • Obtención (“procurement”) inteligente. Cláusulas de soberanía y portabilidad, puntos de referencia (“benchmarks”) de desempeño, pruebas de robustez y sesgo antes de firmar, derecho a inspección posterior. Nada de encierro (“lock-in”) sin plan de salida.
  • Transparencia radical. Etiquetar interacciones automatizadas con trazabilidad y auditoría” (qué se preguntó, qué respondió el modelo, con qué fuentes), resguardando datos personales. Cuanta más transparencia, menos suspicacia.

¿Es positivo o negativo que los gobiernos usen inteligencia artificial? La pregunta está mal planteada. La inteligencia artificial no es buena ni mala: es poder. Y el poder se regula, se equilibra y se rinde.

Si la usamos para ensanchar derechos, simplificar la vida cotidiana y abrir la caja negra del Estado, será un avance civilizatorio. Si la usamos para apretar tornillos de control, tercerizar criterio y maquillar decisiones, será otra vuelta de tuerca a lo que ya no funciona.

Eduardo Laens

Eduardo Laens

Director general ejecutivo de la empresa Varegos, docente en la Universidad de Palermo a cargo del programa ejecutivo de inteligencia artificial e hiperautomatización, y autor del libro Humanware.


Si te gustó o sirvió algo que publiqué, te ofrezco dos alternativas para agradecer y permitir la continuidad de mi trabajo en Bahía César:


Te invito a suscribirte gratis al boletín semanal de Bahía César para recibirlo en tu correo electrónico. Ingresa tu e-mail aquí.

Bahia Cesar

Bahía César es el sitio web de César Dergarabedian, quien desde marzo de 2012 publica en forma ininterrumpida notas sobre las tecnologías de la información y la comunicación (TIC), y otros temas que van desde la fotografía hasta la salud, pasando por el periodismo, el turismo, la educación, la música y los emprendedores. Este sitio web no tiene relación ni directa ni indirecta con las empresas para las cuales trabaja su fundador y editor.

Deja un comentario