Skip to main content

Inteligencia artificial y fiscalización: ¿riesgo u oportunidad para la inclusión?

“La tecnología no es neutral: refleja los valores de quienes la diseñan y la utilizan.”
— Kate Crawford*

La incorporación de la inteligencia artificial en la administración pública ya no es una discusión futura, sino una realidad en curso. Sistemas de análisis de datos, algoritmos de detección de riesgos y plataformas automatizadas forman parte creciente de los procesos de fiscalización y control gubernamental. Frente a este escenario, surge una pregunta central: ¿la inteligencia artificial representa un riesgo para la inclusión o una oportunidad para fortalecerla?
La respuesta no es automática ni neutral. La inteligencia artificial no es inclusiva por sí misma; reproduce —y en ocasiones amplifica— las lógicas con las que fue diseñada. Cuando los datos de origen están sesgados, los criterios de evaluación ignoran la diversidad social o los sistemas se desarrollan sin enfoque de derechos humanos, la tecnología puede convertirse en un nuevo mecanismo de exclusión, más sofisticado y menos visible.
En México, este debate adquiere una relevancia particular. De acuerdo con la Encuesta Nacional de la Dinámica Demográfica (ENADID), más de 8.8 millones de personas viven con alguna discapacidad y menos de la mitad participa activamente en el mercado laboral. Al mismo tiempo, diversas dependencias públicas ya incorporan herramientas de inteligencia artificial en procesos administrativos y de control, lo que obliga a reflexionar sobre sus impactos reales en términos de equidad y acceso a derechos.
En este escenario, la Auditoría Superior de la Federación (ASF) adquiere un papel estratégico. Como órgano técnico de fiscalización superior, su experiencia resulta clave para impulsar el uso responsable de la inteligencia artificial, asegurando que la innovación tecnológica se traduzca en mayor inclusión y no en nuevas formas de exclusión.
La fiscalización del futuro no será solo más tecnológica; deberá ser, ante todo, más humana.

En un país como México, donde la transformación digital del Estado avanza de manera acelerada, el verdadero desafío no es incorporar tecnología, sino definir con claridad para qué y para quién se utiliza. La inteligencia artificial aplicada a la fiscalización puede convertirse en un instrumento de exclusión silenciosa o en una palanca para fortalecer la equidad y la confianza pública. La diferencia no está en el algoritmo, sino en las decisiones institucionales que lo gobiernan.

Dra. Verónica Yvette Hernández López de Lara
Doctora en Administración Pública
Directora General en la UT de la ASF y enlace institucional en políticas de inclusión de la CGID–OLACEFS

* Kate Crawford es investigadora especializada en los impactos sociales y éticos de la inteligencia artificial, cofundadora del AI Now Institute y autora de obras fundamentales sobre sesgos algorítmicos y poder tecnológico.