All articles
inteligencia artificialregulaciónSenadotecnologíapolítica tech

México avanza en su primera Ley de Inteligencia Artificial

El Senado impulsa la primera Ley de IA de México: nueva autoridad reguladora, sanciones penales por mal uso y el principio de que lo inexplicable no puede automatizarse.

·4 min read
México avanza en su primera Ley de Inteligencia Artificial

El Senado de la República mexicana avanza a paso firme hacia la aprobación de la primera Ley de Inteligencia Artificial del país. La iniciativa, impulsada desde una comisión legislativa y presentada formalmente a finales de abril de 2026, busca establecer un marco legal integral que regule el desarrollo, despliegue y uso de sistemas de IA en territorio nacional.

La propuesta llega en un momento crítico: México se convirtió en uno de los países con mayor crecimiento en adopción de IA empresarial a nivel global, mientras que el vacío normativo ha generado preocupaciones sobre privacidad, discriminación algorítmica y uso indebido de tecnologías generativas.

Qué propone la ley

El eje central de la iniciativa es la creación de una Autoridad Nacional de Inteligencia Artificial, un organismo supervisor independiente que coordinaría políticas públicas, emitiría lineamientos técnicos y clasificaría los sistemas de IA según su nivel de riesgo. Esta autoridad también atendería denuncias ciudadanas y supervisaría el cumplimiento de la normativa en todo el sector público y privado.

Adicionalmente, la ley contempla dos instrumentos de política pública:

  • Fondo Nacional para el Desarrollo de la IA: recursos públicos destinados a impulsar la innovación nacional en inteligencia artificial.
  • Sistema Nacional de Certificación de la IA: un mecanismo para validar que los sistemas cumplan estándares mínimos de seguridad, transparencia y equidad.

El principio que lo define todo

Uno de los puntos más discutidos de la propuesta es el principio de explicabilidad: «Si una decisión no puede explicarse, no debe automatizarse». Este criterio obliga a empresas e instituciones a justificar las decisiones que sus sistemas tomen sobre personas, desde créditos bancarios hasta diagnósticos médicos o contrataciones laborales.

El precepto choca directamente con la naturaleza técnica de los grandes modelos de lenguaje (LLM), que operan frecuentemente como «cajas negras». Esto implicaría que muchas aplicaciones actuales de IA generativa tendrían que ser rediseñadas o restringidas para cumplir con la norma.

La ley también exige que los sistemas de IA incluyan mecanismos de interrupción —conocidos coloquialmente como «botones de pánico»— que permitan detener un sistema de manera inmediata si comienza a operar fuera de sus parámetros autorizados.

Sanciones: desde multas hasta cárcel

La iniciativa establece un régimen de infracciones en tres niveles:

  • Leves: uso indebido de datos o falta de transparencia en sistemas de bajo riesgo.
  • Graves: vulneraciones a derechos fundamentales o incumplimiento de las obligaciones de registro y certificación.
  • Gravísimas: casos que impliquen daño severo a personas, especialmente mujeres, niñas y grupos vulnerables. Estas infracciones podrían derivar en sanciones penales y penas de prisión.

El enfoque en la protección de grupos vulnerables refleja una preocupación real: herramientas de IA han sido utilizadas en México para generar deepfakes con fines de acoso y para replicar patrones discriminatorios en sistemas de contratación y crédito.

Las dudas sobre su viabilidad

Pese al avance legislativo, analistas y especialistas en tecnología han señalado obstáculos estructurales significativos. México enfrenta rezagos en infraestructura digital, escasez de talento especializado en IA y organismos reguladores con capacidad técnica limitada.

La creación de una autoridad nacional especializada requeriría presupuesto, personal técnico de alto nivel y coordinación interinstitucional —recursos que históricamente han resultado difíciles de articular en el sistema regulatorio mexicano.

A esto se suma el debate sobre la velocidad del proceso legislativo frente al ritmo de evolución de la tecnología. Mientras el Congreso discute el marco regulatorio, los modelos de IA avanzan en capacidades, aplicaciones y riesgos a una velocidad sin precedente.

El contexto regional e internacional

México no actúa en el vacío. La Unión Europea ya promulgó el EU AI Act, el primer marco regulatorio de IA a nivel mundial, que clasifica los sistemas por riesgo y establece obligaciones progresivas. Estados Unidos avanza en regulaciones sectoriales, y Brasil ya cuenta con una Ley de IA aprobada.

Para México, legislar ahora tiene implicaciones económicas directas: las empresas que operen en el país y exporten servicios tecnológicos a Europa deberán cumplir con ambas normativas, lo que eleva el estándar de cumplimiento para el sector.

¿Qué sigue?

La iniciativa aún debe ser dictaminada en comisiones y sometida a votación en el pleno del Senado. Posteriormente tendría que pasar a la Cámara de Diputados. Los tiempos legislativos hacen poco probable que la ley entre en vigor en 2026, aunque su avance ya marca un cambio de postura del Estado mexicano frente a la regulación tecnológica.

Para el ecosistema tech del país, la señal es clara: la era de la IA sin reglas en México está llegando a su fin. Las empresas que se anticipen a cumplir con los estándares propuestos —explicabilidad, certificación, protección de grupos vulnerables— estarán mejor posicionadas cuando la ley entre en vigor.

Boletín

Suscríbete a Techmex

Resumen semanal. Las mejores historias. Sin spam.