El uso de IA en la administración pública erosiona la democracia

Esto es lo que ha identificado un nuevo papel que analiza una amenaza democrática escondida en la eficiencia de los algoritmos que prometen facilitar las labores de las administraciones públicas.

Una investigación de Andrey J. Peterson revela cómo es que los gobiernos han aumentado el uso de Inteligencia Artificial para tomar decisiones administrativas de forma barata y consistente, pero pagando un alto costo invisible que consiste en la erosión democrática.

El texto analiza los riesgos democráticos de implementar Inteligencia Artificial en la administración pública, centrándose en el fenómeno de la superficie de alineación. Aunque la automatización busca eficiencia y coherencia legal, el autor sostiene que una codificación excesiva crea reglas tan predecibles que futuros gobiernos autoritarios podrían explotarlas estratégicamente. Estas tecnologías permiten realizar una erosión dentro de la forma, donde se manipulan procedimientos legales para debilitar instituciones sin violar formalmente la ley. El estudio advierte que las reformas diseñadas para mejorar la fiscalización pueden, irónicamente, facilitar el aprendizaje de límites por parte de actores malintencionados tras un cambio de mando. Finalmente, se argumenta que estas infraestructuras son difíciles de revertir, lo que genera una vulnerabilidad heredada y duradera para la democracia.

La “superficie de alineación” se trata de la capa de cumplimiento formada por leyes, reglas, criterios de aprobación, registros y procedimientos de revisión, que los gobiernos construyen para que el uso de la IA sea legalmente defendible y consistente. México ha sido uno de los países que, sin producir su propia Inteligencia Artificial, le ha apostado a modelos predictivos especialmente para identificar redes de lavado de dinero, evasión fiscal y discrepancia entre los gastos e ingresos de empresas o personas físicas. La eficiencia es notoria, pues sin necesidad de una reforma fiscal, la administración de Claudia Sheinbaum ha logrado disparar la recaudación tributaria hasta el 7.2% de enero a julio de 2025, que representa el máximo nivel histórico de 18.3% del PIB en 2024 y continúa aumentando. La Inteligencia Artificial predictiva del SAT junto con las determinaciones algorítmicas que son decisiones tomadas automáticamente por el sistema de fiscalización que se coordina con el sistema financiero ha logrado detectar redes y desmantelarlas, tal como uno de los casos más grandes que hoy aparece en la portada del periódico Reforma. Una red pudo lavar más de 10 mil millones de pesos en menos de tres años y fue el SAT el que ha iniciado la persecución de la mano a la Fiscalía General de la República. La efectividad para detectar estas operaciones depende directamente del nivel de tecnologías utilizadas, así como de la capacidad institucional para sostener estas acusaciones, rastrear el dinero y lograr la reparación tributaria.

Sin embargo, también existen casos menos sofisticados en los que las decisiones algorítmicas que automatizan la verificación de cumplimiento ha resultado asfixiante al grado de parecer “terrorismo fiscal”. Especialmente, para emprendedores, personas en la informalidad y prestadores de servicios que se enfrentan a la cancelación de sellos en sus firmas electrónicas o determinación de créditos fiscales por supuesta inexistencia de sus operaciones, o mujeres que organizan tandas para poder cubrir gastos y rebasan los 15 mil pesos en depósitos en efectivo activando alertas en la banca. Pero el análisis sobre el impacto democrático es mucho más profundo, abstracto y no necesariamente ligado a estos casos.

Los mecanismos específicos identificados con los que se erosiona la democracia comienzan por la legibilidad y aprendibilidad (Learnability) pues para que la IA sea utilizable en la administración pública, sus resultados probabilísticos deben traducirse en criterios estables y registros revisables. Esta misma estabilidad permite que un sucesor político con intenciones antidemocráticas estudie y sondee estratégicamente los límites de lo que el sistema aprueba o rechaza (el umbral de “pasa o se marca”) sin activar alarmas de ilegalidad manifiesta. Es decir, que la tecnología es un poco manipulable por quien la programa, pues aun dentro de los márgenes de la ley, existe un amplio rango de posibilidades casuísticas.

El segundo mecanismo del que se habla es la erosión “dentro de la forma” (Within-form erosion) pues la IA permite que el retroceso democrático ocurra a través de canales formalmente legales. Un ejecutivo sucesor puede utilizar herramientas de IA para repetir y refinar acciones, justificaciones o políticas hasta que satisfagan los criterios de revisión heredados, permitiendo una consolidación de poder que mantiene la apariencia de legalidad administrativa mientras debilita las restricciones efectivas.

El tercer criterio es el de escalabilidad y obediencia, pues a diferencia de la burocracia tradicional, que depende del juicio humano disperso (lo que introduce fricción y riesgo de filtraciones o hasta de corrupción), un proceso mediado por IA actúa como un “agente de cumplimiento obediente y legible”. Esto permite a una nueva administración procesar grandes volúmenes de casos y generar justificaciones plausibles a una escala que sería imposible con funcionarios humanos que podrían resistirse o denunciar abusos.

Finalmente, el texto plantea la paradoja de la codificación, con la que se advierte que las reformas diseñadas para mejorar la rendición de cuentas y detectar violaciones (auditabilidad) pueden volverse contraproducentes tras un cambio de mando. Una vez que se disuaden las violaciones flagrantes, una mayor estandarización puede aumentar la vulnerabilidad del sistema al hacerlo más fácil de aprender y explotar para actores internos de mala fe. A esto se suma la dificultad de reversión. Una vez que estos sistemas de IA se instalan para ganar eficiencia, se vuelven difíciles de desmantelar. Los gobiernos democráticos posteriores pueden heredar flujos de trabajo que son complicados de “desenredar” lo suficiente como para volver a un estado de menor riesgo, lo que deja una vulnerabilidad duradera incluso después de que pase una administración autoritaria. En resumen, la IA por sí misma no erosiona la democracia necesariamente rompiendo las reglas, pero es el ambiente tecnológico que proporciona una infraestructura altamente eficiente y predecible que los nuevos gobernantes pueden navegar estratégicamente para debilitar las instituciones desde adentro.

Además, vale la pena pensar en el uso de tecnologías basadas en IA que utilizan países como el nuestro mediante contrataciones con empresas desarrolladoras que tienen acceso a la data. Aquí hablamos de un agente privado proveedor de una tecnología desarrollada frente a un gobierno que la contrata y requiere de ella para operar, brindando toda su información pero también exponiéndose a que quien siempre las semillas autoritarias no sea otro poder ejecutivo sino intereses de otros países, especialmente de los que son originarias tales empresas desarrolladoras, más cuando aquellas guardan una agenda política propia. Sin duda, un tema de soberanía digital por el que atravesamos en la era en que la IA promete administrar mejor lo público que los propios humanos.

Leave a Reply

Your email address will not be published. Required fields are marked *