Lectura 6:00 min
¿México está regulando la inteligencia artificial?
México acumula más de 50 iniciativas legislativas relacionadas con la inteligencia artificial (IA) desde 2020, pero aún no tiene una ley vigente ni local ni federal.

Seguridad de ChatGPT.
México se encuentra en una etapa incipiente de regulación de la inteligencia artificial. Si bien el país ha comenzado a explorar marcos normativos, las iniciativas hasta ahora muestran un avance fragmentado, con una falta de coordinación entre los distintos niveles de gobierno, legisladores y órganos autónomos.
Aunque existe conciencia sobre los riesgos éticos, sociales y económicos de la IA, todavía no hay una legislación federal integral que regule su desarrollo, aplicación o fiscalización. En contraste, la Unión Europea ya cuenta con un marco robusto (el AI Act) y Estados Unidos ha optado por estrategias diferenciadas, como la reciente moratoria de leyes estatales. México, por su parte, debate entre la urgencia de actuar y la cautela institucional.
Aunque el término se ha popularizado, la inteligencia artificial no tiene una definición única en el ámbito jurídico o técnico. En términos generales, se refiere a sistemas informáticos que son capaces de realizar tareas que normalmente requieren inteligencia humana, como el reconocimiento de voz e imágenes, la toma de decisiones, la traducción de idiomas o la predicción de patrones a partir de datos masivos.
Estos sistemas pueden aprender y adaptarse mediante algoritmos complejos, lo que los convierte en herramientas poderosas pero también difíciles de auditar o controlar. La falta de claridad sobre qué se entiende exactamente por IA es uno de los principales desafíos para su regulación efectiva.
Muchas iniciativas, ninguna ley
De acuerdo con el académico Iván Vladimir García del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM, entre 2020 y 2024 se han presentado 58 iniciativas legislativas en el Congreso de la Unión que incluyen el término “inteligencia artificial”. Sin embargo, ninguna ha llegado a promulgarse como ley.
“Las propuestas son diversas y abarcan temas como ética algorítmica, ciberseguridad, protección de datos, gobernanza digital y soberanía tecnológica. Pero hasta ahora, los esfuerzos han sido desarticulados y carentes de fuerza vinculante”, explica García en su ensayo “El camino hacia una regulación de la inteligencia artificial en México”.
Una de las iniciativas más ambiciosas fue presentada en abril de 2023 en la Cámara de Diputados y buscaba expedir una “Ley para la regulación ética de la inteligencia artificial y la robótica”. Inspirada en las recomendaciones de la UNESCO, proponía un enfoque basado en el nivel de riesgo de cada sistema, además de la creación de un Centro Nacional de Inteligencia Artificial. Sin embargo, el proyecto no ha sido dictaminado ni retomado desde entonces.
CDMX, pionera local
A nivel local, la Ciudad de México ha dado un paso adelante. En marzo de 2025, el INFO CDMX presentó una iniciativa de ley ante el Congreso capitalino para regular el uso de la IA en la administración pública. El documento busca establecer principios rectores como transparencia, protección de datos, inclusión, rendición de cuentas y no discriminación algorítmica.
“La propuesta parte de la necesidad de proteger los derechos digitales de las personas ante el uso creciente de tecnologías que automatizan decisiones administrativas”, explicó la diputada Guadalupe Morales Rubio, vicepresidenta de la Mesa Directiva del Congreso de la CDMX, durante la presentación de la iniciativa.
El proyecto contempla, además, la creación de un Centro de Inteligencia Artificial de la Ciudad de México, que tendría entre sus funciones coordinar la implementación de esta ley, emitir lineamientos y promover buenas prácticas. No obstante, su alcance se limita a la administración pública local y no establece una hoja de ruta para el sector privado ni para otros órdenes de gobierno.
Uso de IA en gobierno
Mientras el marco regulatorio avanza lentamente, la IA ya está presente en múltiples aplicaciones del sector público mexicano. Al menos 119 aplicaciones tecnológicas basadas en IA están siendo utilizadas por dependencias gubernamentales en tareas como vigilancia, administración de justicia, salud y seguridad pública, de acuerdo con un estudio del CIDE.
Sin embargo, el análisis detectó una falta crítica de transparencia: no hay claridad sobre cómo operan los algoritmos, qué criterios emplean, si fueron auditados por terceros o si respetan principios de legalidad y no discriminación. En muchos casos, ni siquiera hay constancia pública de su existencia.
Otra dimensión del problema regulatorio está en la protección de datos personales. La ley federal vigente en materia de datos personales en posesión de particulares —promulgada apenas en marzo de 2025— contempla específicamente el tratamiento automatizado ni el perfilamiento algorítmico.
Comparativa global
Mientras México discute sus primeras propuestas, otros países avanzan con mayor claridad. En noviembre de 2023, Gobiernos como los de la Unión Europea, Estados Unidos, China, Canadá y Brasil están implementando marcos regulatorios específicos para la IA.
El caso europeo es el más avanzado, con una legislación que clasifica los sistemas de IA según su nivel de riesgo y establece prohibiciones para aquellos considerados inaceptables. Por su parte, Estados Unidos adoptó una ruta distinta: en 2025, la Cámara de Representantes aprobó una moratoria de diez años que impide a los estados promulgar leyes propias de IA, buscando evitar un “caos regulatorio” y fomentar la innovación.
La moratoria fue incluida como un anexo dentro de un paquete presupuestal propuesto por el presidente Trump e impulsado por legisladores republicanos como parte de su conocida Big Beautiful Bill Act. La medida ha sido criticada por académicos y activistas, quienes argumentan que limita la capacidad de los gobiernos locales para responder a los riesgos sociales y éticos de la automatización.
Sin un marco legal claro, de la misma forma que ha ocurrido con otras tecnologías, México corre el riesgo de convertirse en consumidor pasivo de tecnologías desarrolladas en el extranjero, sin capacidad real de regularlas o exigir su alineación con los derechos constitucionales.