La inteligencia artificial (IA) ya no es una promesa futura dentro de la administración pública mexicana: es una realidad operativa. Sin embargo, su adopción avanza sin una ley específica, sin lineamientos homogéneos de gobernanza algorítmica y sin mecanismos claros de auditoría o transparencia. El resultado es una brecha preocupante entre la capacidad tecnológica del Estado y su marco de control legal.
Una revisión de 45 solicitudes de información realizadas vía Transparencia a dependencias y organismos federales revela que, hasta noviembre de 2025, al menos 14 instituciones utilizaban IA o desarrollaban proyectos internos basados en esta tecnología. El uso abarca áreas sensibles como fiscalización, seguridad, atención ciudadana y gestión administrativa.
IA en el SAT: fiscalización y detección de irregularidades
En materia tributaria, el Servicio de Administración Tributaria (SAT) emplea modelos de aprendizaje estadístico para detectar empresas “factureras” y comportamientos irregulares en compañías importadoras. El objetivo es fortalecer la vigilancia y el cumplimiento de obligaciones fiscales mediante análisis automatizado de grandes volúmenes de datos.
El problema no es la adopción tecnológica en sí, sino la ausencia de documentación pública sobre los criterios, parámetros y auditorías de estos modelos. Aunque el SAT reconoce el uso de herramientas estadísticas avanzadas, no identifica lineamientos específicos sobre el uso ético y responsable de IA.
Gestión administrativa: automatización y pruebas con IA generativa
En el ámbito administrativo, varias dependencias emplean IA para optimizar procesos internos. La Secretaría de Cultura utiliza cuatro herramientas internas dentro del Sistema de Información Cultural, incluyendo clasificadores de imágenes y sistemas de vinculación de registros.
Por su parte, la Secretaría Anticorrupción y Buen Gobierno (SABG) realiza pruebas con Gemini, el modelo de Google, para normalizar textos en constancias de capacitación mediante reconocimiento óptico de caracteres (OCR). No obstante, la dependencia admite no contar con manuales ni políticas internas específicas sobre el uso ético de estas herramientas.
Una excepción es el Banco de México, que informó tener una “Guía para el uso seguro de herramientas públicas de inteligencia artificial generativa”. El banco central utiliza siete sistemas desarrollados internamente o por terceros, con un gasto de 8.3 millones de pesos, lo que lo convierte en uno de los pocos casos con lineamientos formales.
Chatbots y atención ciudadana: el caso del pasaporte
En la atención al público, el uso más visible de IA se encuentra en los chatbots. La Secretaría de Relaciones Exteriores (SRE) implementó el Chatbot PTAT, desarrollado con la UNAM, para orientar sobre trámites consulares y de pasaporte.
Aunque la SRE sostiene que el chatbot no almacena datos personales y solo emite información estándar, pruebas realizadas a través de WhatsApp muestran que solicita información como CURP y número de pasaporte para gestionar citas. Esto abre interrogantes sobre el tratamiento de datos personales y la transparencia en el uso de la IA.
IA en seguridad: datos sensibles y opacidad
En el ámbito de seguridad, el Instituto de Seguridad y Servicios Sociales de los Trabajadores del Estado (ISSSTE) y sus organismos como FOVISSSTE y PENSIONISSSTE emplean herramientas de aprendizaje automático para la gestión de eventos de seguridad y protección de infraestructura crítica.
La Guardia Nacional reconoce integrar IA, aunque no detalla su propósito. Más reservadas son la Unidad de Inteligencia Financiera (UIF) y la Fiscalía General de la República (FGR), que clasificaron la información relacionada con el uso de estas tecnologías. La UIF argumenta que revelar detalles comprometería la seguridad nacional, mientras que la FGR advierte que podría facilitar ataques para manipular modelos.
Este escenario confirma que la IA ya procesa información personal, sensible e incluso clasificada dentro del Estado mexicano, pero sin estándares públicos de gobernanza algorítmica.
Riesgos del uso informal de IA generativa
Más allá del uso institucional formal, preocupa el uso informal de herramientas como OpenAI y Google por parte de funcionarios públicos a través de plataformas de IA generativa. Investigadores del Centro de Investigaciones sobre América del Norte (CISAN) de la UNAM advierten que subir documentos oficiales a modelos de lenguaje puede implicar riesgos de filtración indirecta o exposición de contenido sensible.
El investigador Juan Manuel Aguilar señala que algunos elementos de fuerzas armadas han utilizado IA para procesar información sensible con mayor rapidez. El problema radica en que los modelos de lenguaje procesan y almacenan información en entornos que pueden no estar diseñados para manejar datos clasificados.
Jorge Ordelin, investigador del Centro de Investigación y Docencia Económicas (CIDE), subraya que el uso informal no puede sistematizarse ni auditarse. Esto impide conocer con qué frecuencia se emplea la IA, en qué procesos y si se introducen datos personales sin protocolos claros.
Vacío normativo y regulación pendiente
Los intentos legislativos para regular la IA en México no han prosperado en el Congreso. Propuestas como la “Ley de Regulación Ética de la Inteligencia Artificial y la Robótica”, presentada en 2023, no avanzaron.
El esfuerzo más reciente es la declaración de los ‘Principios Chapultepec’, impulsada por la Agencia de Transformación Digital y Telecomunicaciones y la Secretaría de Ciencia, Humanidades, Tecnología e Innovación en enero de 2026. Sin embargo, al tratarse de una declaración de principios, carece de carácter vinculante.
Especialistas coinciden en que la solución no pasa por una regulación excesivamente general, sino por marcos específicos, protocolos internos, profesionalización del personal y mecanismos de auditoría técnica que incluyan apertura de códigos y parámetros cuando sea posible.
Una brecha estructural en la era digital
La IA ya es parte del engranaje institucional del gobierno mexicano. Procesa impuestos, apoya trámites, clasifica imágenes, analiza riesgos y participa en tareas de seguridad. Sin embargo, el marco regulatorio va rezagado frente a la velocidad de adopción tecnológica.
Esta asimetría entre sofisticación digital y debilidad normativa no es solo un detalle administrativo: constituye un riesgo estructural para la protección de datos, la ética pública y los derechos ciudadanos en la era de la inteligencia artificial.
Leer más
- Cuál es la mejor inteligencia artificial en 2026: así compiten OpenAI, Anthropic y Perplexity
- NOVA es la inteligencia artificial que transforma los pagos fallidos en oportunidades de crecimiento
- El boom de la inteligencia artificial en México dispara el consumo de energía fósil y agrava el impacto ambiental