El Senado mexicano se encuentra en la etapa más avanzada hasta ahora para construir el primer marco legal integral en materia de inteligencia artificial. La iniciativa, que se discute en comisiones, busca colocar al país en la ruta de las economías que ya intentan regular el impacto de estas tecnologías. Sin embargo, crecen las dudas sobre la capacidad real del Estado para implementar una legislación de esta envergadura en un entorno marcado por rezagos estructurales en infraestructura, ciberseguridad y talento especializado.

La propuesta legislativa contempla la creación de una arquitectura institucional robusta: una autoridad nacional para supervisar la IA, un sistema de certificación, un registro obligatorio de sistemas de alto riesgo y una estrategia nacional con financiamiento público. Incluye también un esquema de sanciones que clasifica infracciones en distintos niveles, algunas con consecuencias penales. La iniciativa incorpora prohibiciones relevantes como el uso de deepfakes dañinos, la manipulación política mediante sistemas automatizados y prácticas de perfilamiento que vulneren derechos fundamentales.

El proyecto busca alinearse con estándares internacionales al incorporar principios como protección de datos personales, no discriminación algorítmica y el derecho de los ciudadanos a cuestionar decisiones automatizadas. Reformas recientes en materia laboral y derechos de autor ya han comenzado a regular el uso de voz e imagen generadas por IA, sugiriendo una estrategia legislativa gradual.

No obstante, el avance normativo contrasta con una realidad menos sólida. México ha demostrado que puede producir marcos legales técnicamente avanzados que, en la práctica, enfrentan dificultades serias de implementación. La brecha entre lo que dicta la ley y lo que ocurre en las instituciones suele traducirse en simulación regulatoria: normas que existen pero no se aplican de forma consistente ni efectiva. En el caso de la IA, este riesgo se amplifica por la sofisticación técnica que implica supervisar algoritmos y auditar sistemas automatizados.

Un problema estructural central es la falta de inversión sostenida en tecnología y ciberseguridad. Sin infraestructura adecuada ni personal capacitado, la aplicación de la ley podría depender más de criterios discrecionales que de evaluaciones técnicas rigurosas. La iniciativa incluye conceptos ambiguos como "manipulación de la narrativa" o "riesgos informativos", términos que sin definiciones precisas pueden prestarse a interpretaciones amplias por parte de la autoridad.

Las debilidades de los sistemas de protección de datos en el sector público —evidenciadas por filtraciones recurrentes y falta de auditorías técnicas— plantean un escenario en el que los ciudadanos podrían quedar más expuestos incluso bajo un marco legal más estricto. La posibilidad de ampliar capacidades de vigilancia mediante análisis masivo, sin contrapesos efectivos, refuerza preocupaciones sobre posibles abusos.

El impacto también podría sentirse en el ecosistema tecnológico. Requisitos regulatorios complejos tienden a favorecer a grandes corporaciones con capacidad de cumplimiento, mientras desplazan a startups y desarrolladores independientes. Lejos de impulsar innovación nacional, la ley podría consolidar dependencia tecnológica del exterior.

La regulación enfrenta además límites prácticos en un entorno globalizado. Muchas empresas que desarrollan sistemas de IA operan fuera de la jurisdicción mexicana, lo que dificulta supervisión directa. Sin mecanismos efectivos de cooperación internacional, las disposiciones legales podrían quedar reducidas a obligaciones formales sin capacidad real de ejecución.

El sistema de justicia agrava el panorama. La persecución de delitos tradicionales ya presenta rezagos significativos, por lo que trasladar esa estructura a la investigación de crímenes digitales —más complejos, transnacionales y con altos niveles de anonimato— plantea dudas sobre su efectividad. La escasez de peritos especializados refuerza la percepción de que la impunidad podría prevalecer.

La iniciativa ha despertado también inquietudes en torno a la libertad de expresión. La posibilidad de sancionar contenidos bajo criterios amplios o poco definidos podría generar un efecto inhibidor en medios, creadores y usuarios, especialmente en contextos políticamente sensibles. El riesgo radica en el uso del aparato regulatorio como mecanismo de presión o intimidación.

El debate sobre la ley de inteligencia artificial en México trasciende la dimensión tecnológica. Se trata de una discusión sobre la capacidad del Estado para regular con responsabilidad en un ámbito donde la precisión técnica y la transparencia institucional son indispensables. Sin inversión paralela en capacidades, talento y supervisión independiente, la iniciativa corre el riesgo de convertirse en un instrumento ambicioso en el papel, pero limitado en la práctica.