CIENCIA Y TECNOLOGÍA

Al gobierno de México le encanta la IA, pero las reglas van a la zaga en la práctica

México está adoptando rápidamente la IA en la recaudación de impuestos, la seguridad y los servicios a la ciudadanía. Sin embargo, una revisión de 45 solicitudes de transparencia revela que la implementación avanza más rápido que las normas. Los datos sensibles se protegen de manera inconsistente y los nuevos principios de Chapultepec tienen poco poder real dentro del gobierno.

Un bot de WhatsApp te pide tu CURP

Al principio, el chat parece normal, como cualquier trámite burocrático trasladado al teléfono. Recibes un saludo, un menú y opciones que se van acotando. Luego, las cosas cambian de manera sutil. Probado en WhatsApp, el chatbot PTAT de la Secretaría de Relaciones Exteriores de México solicita datos personales para agendar una cita de renovación de pasaporte, incluyendo tu CURP y número de pasaporte.

La gente suele cumplir con este tipo de solicitudes porque la alternativa implica más espera, más papeleo y pérdida de tiempo. Un detalle pequeño pero revelador es el resplandor de la pantalla en tu mano, la breve pausa antes de escribir y ese pensamiento fugaz sobre qué estás compartiendo y con quién.

El gobierno de México dice que está usando inteligencia artificial para hacer más eficientes a las instituciones. El problema es que este impulso por la eficiencia ocurre sin leyes claras. Los documentos muestran una aprobación silenciosa pero clara de la IA en todo el gobierno federal, pero sin leyes específicas ni reglas consistentes sobre cómo debe gobernarse, auditarse o transparentarse la IA.

Esa descoordinación importa porque los sistemas no se usan para trivialidades. Documentos obtenidos vía solicitudes de transparencia muestran IA en áreas sensibles por naturaleza: supervisión y detección de irregularidades, seguridad y vigilancia, servicios y trámites ciudadanos, y gestión administrativa. Estos son los espacios donde el Estado toca vidas y ejerce poder. La apuesta aquí es que procesos más rápidos significarán mejor gobierno. El riesgo es que procesos más rápidos también pueden significar errores más rápidos, filtraciones más rápidas y una erosión más veloz de la confianza pública cuando nadie puede explicar claramente qué hace un sistema.

Para noviembre de 2025, al menos 14 dependencias federales usaban IA o trabajaban en proyectos internos de IA, según una revisión de 45 solicitudes de transparencia. Aunque 14 no cubren todo el gobierno, muestran un patrón claro: la IA ya no es solo un experimento. Está en uso activo.

EFE/ Universidad de Granada

La IA se extiende por oficinas sensibles sin un solo reglamento

En la recaudación de impuestos, el Servicio de Administración Tributaria utiliza modelos de aprendizaje estadístico para identificar factureras y sus usuarios, y para detectar comportamientos irregulares entre empresas importadoras. El objetivo declarado es monitorear y asegurar el cumplimiento de las obligaciones fiscales. Es una promesa poderosa, y también un recordatorio de que la IA en el gobierno suele comenzar donde el Estado ya tiene los expedientes más profundos.

Los usos administrativos parecen inofensivos hasta que se piensa en lo que realmente almacenan los gobiernos. Los documentos muestran que la IA ayuda en tareas internas, manejo de grandes volúmenes de datos, traducción de textos y apoyo a la investigación. La Secretaría de Cultura utiliza cuatro herramientas en su Sistema de Información Cultural, como un clasificador de imágenes y un enlazador de registros. La Secretaría Anticorrupción y Buen Gobierno ha probado Gemini de Google para estandarizar texto en constancias de capacitación usando reconocimiento óptico de caracteres.

Los servicios a la ciudadanía son la parte más visible, a menudo ofrecidos mediante chatbots y asistentes virtuales que responden preguntas, agilizan trámites y ofrecen más servicios. PTAT, el chatbot de la cancillería desarrollado con la Universidad Nacional Autónoma de México, brinda orientación general sobre trámites mediante un menú de opciones. Pero la prueba en WhatsApp que aparece en los documentos desafía la afirmación de la cancillería de que PTAT no recopila, almacena ni procesa datos personales y solo comparte información estándar. Cuando un chatbot pide tu CURP para agendar una cita, la gente no lo ve solo como orientación: lo percibe como una recolección de sus datos.

La seguridad es donde los riesgos son mayores. Los documentos señalan que la IA ayuda en vigilancia y gestión de eventos, incluso en el Instituto de Seguridad y Servicios Sociales de los Trabajadores del Estado. FOVISSSTE utiliza IA para recopilar y gestionar eventos de seguridad. PENSIONISSSTE aplica aprendizaje automático en varios roles de seguridad. Esto muestra que la IA no solo automatiza tareas: está profundamente involucrada en la protección de infraestructura crítica y datos personales de los trabajadores.

Otras dependencias son más reservadas. La Guardia Nacional acepta la integración de IA pero no especifica su propósito; la Unidad de Inteligencia Financiera y la Fiscalía General de la República clasificaron la información sobre su uso. La Unidad de Inteligencia Financiera argumenta que divulgarlo pondría en riesgo la seguridad nacional y las actividades para prevenir delitos y financiamiento al terrorismo. La Fiscalía General de la República dice que hacer pública su información podría exponerla a ataques dirigidos a manipular modelos de IA.

Estas preocupaciones son comprensibles. Pero también resaltan un problema clave. Si el gobierno usa más la IA en tareas policiales, de inteligencia y procuración de justicia pero mantiene los detalles en secreto, se le pide al público confiar en decisiones automatizadas sin pruebas. La confianza por sí sola no basta para un buen gobierno.

Los documentos también apuntan a otro riesgo menos obvio: empleados públicos usando IA generativa como ChatGPT o Gemini por su cuenta. Aunque esto puede mejorar la productividad, también puede poner en riesgo información confidencial cuando las personas no están conscientes o no tienen reglas claras sobre qué datos son públicos, confidenciales o restringidos antes de ingresarlos en herramientas de IA.

“Conozco a algunos miembros de las fuerzas armadas que han usado IA para procesar información más rápido, y muchas veces esa información es sensible”, dijo a Wired Juan Manuel Aguilar Antonio, investigador del Centro de Investigaciones sobre América del Norte de la UNAM.

La advertencia de Aguilar no es solo sobre la intención. Es sobre cómo los grandes modelos de lenguaje operan como sistemas que procesan cualquier cosa que se les suba. En ese contexto, las notas describen la posibilidad de que contenido sensible se vuelva viral si alguien sube documentos oficiales y luego otro usuario pide información similar. Medir y sistematizar el uso informal es difícil. Esa dificultad se convierte en otra forma de vulnerabilidad.

Jorge Ordelin, investigador del Centro de Investigación y Docencia Económicas, sostiene que el uso informal no puede sistematizarse, lo que hace imposible saber con qué frecuencia ocurre, qué procesos afecta y cuándo se introducen datos personales. Ordelin no está en contra de la IA en el gobierno, dicen las notas. Su argumento es más específico y exigente: la transparencia no es suficiente; se necesita transparencia algorítmica para entender cómo funcionan los sistemas y cómo se garantiza la protección de datos.

Principios, guías y la brecha que sigue creciendo

EFE/EPA/Jens Schlueter

La brecha regulatoria de México no es un secreto dentro del gobierno. Simplemente no se ha resuelto. Aguilar dice que la solución debe ir más allá de la concientización general sobre ciberseguridad. Aboga por una mayor profesionalización del personal gubernamental y por legislación, normas, manuales y protocolos específicos para la IA.

“No veo una ley o un marco legal sobre cómo deben usarse estos sistemas de IA, y creo que también debe haber reglas internas, probablemente gestionadas por órganos de control dentro de las instituciones”, dijo Aguilar a Wired.

Ordelin, quien co-creó el Reporte de Algoritmos 2024 junto con César Rentería, critica las regulaciones vagas. “Mientras más general sea la regulación de IA, peor es”, dijo a Wired. Señala que las reglas amplias dificultan que las personas comprendan requisitos específicos, como la necesidad de código abierto, parámetros y modelos.

Los intentos de legislar no han avanzado mucho. Las notas citan una propuesta presentada en mayo de 2023 para expedir una Ley de Regulación Ética para la Inteligencia Artificial y la Robótica que no prosperó en el Congreso. Hay guías parciales, pero son desiguales. Solo el Banco de México reportó tener una guía para el uso seguro de herramientas públicas de IA generativa. El banco central utiliza siete sistemas de IA desarrollados internamente o por proveedores externos, y reportó un gasto de 8.3 millones de pesos, según las notas. Destaca precisamente porque los demás no lo hacen.

En contraste, la Secretaría Anticorrupción y Buen Gobierno, aunque prueba Gemini, dice no contar con lineamientos, manuales, guías ni políticas internas sobre el uso ético y responsable de la IA. El SAT dice no identificar documentación, a pesar de desplegar modelos de aprendizaje estadístico. La cancillería argumenta que, como su chatbot no almacena datos, no es necesario generar documentación sobre uso ético, aunque la interacción en WhatsApp descrita en las notas solicita datos personales para citas.

El intento más reciente de un marco compartido son los Principios de Chapultepec, presentados el 29 de enero de 2026 por la Agencia Digital de Innovación Pública y la Secretaría de Ciencia, Humanidades, Tecnología e Innovación. Plantean diez principios éticos para guiar el desarrollo y uso de la IA. Pero las notas enfatizan la limitación: como declaración, no es una ley vinculante, dejando la implementación y auditoría reales en un estado ambiguo.

Esta incertidumbre está en el centro de la historia. La IA es ahora una herramienta cotidiana en el gobierno de México, manejando información personal, sensible o clasificada. Pero los sistemas de supervisión se están quedando atrás, no solo de manera temporal, sino de fondo. En un país donde la confianza pública es frágil, el riesgo no es solo un fallo técnico. Es un fallo de la democracia. Cuando el gobierno se vuelve más avanzado que las reglas que lo limitan, la gente queda frente a una caja negra que sigue pidiendo más datos.

Lea También: Latinoamérica escucha el llamado al silencio del Papa mientras los celulares alimentan la adicción y roban el sueño

Related Articles

Botón volver arriba
LatinAmerican Post