El derecho y la interdisciplina: aprendizajes desde LegalTec Lab para la regulación de la Inteligencia Artificial
14 de Julio de 2025

Karla Ivonne Martínez Hernández
Este texto presenta una investigación en curso, desarrollada al interior de LegalTec Lab1, un espacio dentro de los Centros de Investigación e Impacto de la Escuela de Gobierno y Transformación Pública del Tecnológico de Monterrey. El proyecto2 se centra en analizar el estado actual y las posibilidades de mejora del marco normativo en torno a la inteligencia artificial (IA) en México, desde un enfoque interdisciplinario que articula el derecho con la ciencia política, la ciencia de datos y la ética tecnológica.
En los últimos años, empujado por la inercia mundial, la IA ha cobrado mayor relevancia en México, no sólo en el ámbito privado sino también en el público. En este último, destaca su uso cada vez más extendido en sectores como la seguridad pública, la administración de justicia y la provisión de servicios públicos. Por ejemplo, en el municipio de Ecatepec, Estado de México, se modernizó el equipo de seguridad mediante la implementación de sistemas de reconocimiento facial para la identificación de personas en espacios públicos (El Financiero, 2025).
Asimismo, desde el ámbito académico, se han impulsado proyectos como el desarrollado por el Centro de Ciencia de Datos (CCD) de la Escuela de Gobierno y Transformación Pública del Tecnológico de Monterrey, en colaboración con la Fiscalía General de Justicia del Estado de Zacatecas, que busca aplicar técnicas de ciencia de datos para priorizar la atención de expedientes judiciales mediante el análisis de información histórica (Escuela de Gobierno y Transformación Pública, 2025).
Estos proyectos muestran el potencial transformador que tiene el uso de la inteligencia artificial en el sector público, al abrir oportunidades para mejorar la eficiencia, la focalización de recursos y la toma de decisiones basadas en datos. Sin embargo, el despliegue de estas herramientas también plantea cuestionamientos importantes que no deben ser subestimados por los analistas de políticas públicas. La ausencia de marcos normativos claros podría traducirse en riesgos para derechos fundamentales, como el debido proceso, la presunción de inocencia y la igualdad ante la ley, especialmente si no se establecen mecanismos robustos de control humano, transparencia y rendición de cuentas (Aguilar, 2024).
En este sentido, de acuerdo con el Observatorio Global de Ética de la IA de la UNESCO, México enfrenta el reto de armonizar los esfuerzos internacionales —como los principios de la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO— con su propio contexto local. Esta Recomendación aboga por una gobernanza de la IA centrada en la protección de los derechos humanos, la promoción de la inclusión social y el fomento de la diversidad cultural, principios que deben ser considerados en cualquier agenda de regulación nacional.
En este contexto, vale destacar que el proyecto del LegalTec Lab parte de que la regulación de la IA no puede ser entendida como un ejercicio puramente técnico, sino como un proceso político y normativo que requiere integrar saberes diversos, un diálogo multiactor y enfoques adaptativos. Por ello, se desarrolla desde una metodología interdisciplinaria y comparada, con el objetivo de aportar insumos conceptuales y normativos que informen tanto la agenda legislativa como la discusión pública sobre el futuro de la regulación de la IA en México.
Regulación de la inteligencia artificial en México
El proyecto de investigación se estructura en torno a tres componentes fundamentales: la sistematización legislativa nacional, la revisión documental internacional y el análisis cruzado entre ambos niveles. Esta metodología busca generar una visión integral y crítica del estado de la regulación de la inteligencia artificial en México, incorporando tanto la dimensión empírica como la conceptual. Entre otros, con el objetivo de conectar las preocupaciones regulatorias del Congreso de la Unión mexicano con los principales debates alrededor del mundo.
En un contexto donde las decisiones algorítmicas comienzan a tener un impacto tangible sobre derechos fundamentales y dinámicas sociales variopintas, el análisis crítico y propositivo de los marcos regulatorios resulta urgente. A través de este proyecto, buscamos no sólo identificar los vacíos y riesgos actuales, sino también delinear principios, estrategias y rutas de acción que permitan construir una regulación de la inteligencia artificial en México más justa, legítima y efectiva. Este texto comparte algunos de los principales hallazgos, reflexiones y aprendizajes que hemos desarrollado en LegalTec Lab, con la convicción de que sólo mediante enfoques verdaderamente interdisciplinarios será posible enfrentar los desafíos que plantea el futuro tecnológico.
Sistematización legislativa nacional
En una primera etapa, se realizó un mapeo de las iniciativas legislativas presentadas en el Congreso mexicano —tanto en la Cámara de Diputados como en el Senado— que abordan, de manera directa o tangencial, aspectos relacionados con la inteligencia artificial. Se analizaron más de 30 iniciativas, clasificadas según criterios como: tipo de iniciativa, nivel de desarrollo normativo y enfoque temático (ciberseguridad, protección de datos personales, violencia de género, etcétera.).
Este ejercicio permitió construir una base de datos sistematizada que evidencia la fragmentación y falta de continuidad en los esfuerzos legislativos sobre IA en México en los últimos años (2018-2024). Si bien algunas iniciativas destacan por su enfoque propositivo e integral, muchas de ellas adolecen de problemas de técnica legislativa, ambigüedad conceptual y desconexión con experiencias internacionales.
Revisión documental internacional y líneas de reflexión normativa
La segunda etapa del proyecto consistió en una revisión documental sobre la regulación de la inteligencia artificial a nivel internacional. Se examinaron marcos regulatorios de referencia, como el Reglamento de Inteligencia Artificial propuesto por la Comisión Europea (AI Act), las directrices de impacto algorítmico del gobierno de Canadá, los enfoques de gobernanza digital de Japón y el Modelo de Marco Ético para la IA de Singapur. Asimismo, se incorporaron los principios y estándares promovidos por organismos multilaterales como la OCDE, la UNESCO y el Consejo de Europa.
Un caso particularmente relevante es el de Estados Unidos, donde en octubre de 2023 el presidente Joe Biden emitió una Orden Ejecutiva sobre el Desarrollo Seguro, Confiable y Ético de la Inteligencia Artificial. Esta directriz, que ya fue eliminada por el ahora presidente Trump, establecía las bases para un modelo de lineamientos, basado tanto en normas jurídicas como en estándares técnicos, cuyos principales objetivos eran supervisar los riesgos de la IA, exigir evaluaciones de seguridad, promover la transparencia en el uso de algoritmos y proteger derechos fundamentales como la privacidad y la no discriminación. Aunado a esto, el National Institute of Standard and Technology (NIST) ha jugado un papel central en la elaboración de marcos técnicos, como el AI Risk Management Framework, que ofrece herramientas para identificar, medir y mitigar riesgos asociados con sistemas de IA a lo largo de su ciclo de vida. Estos esfuerzos reflejan un enfoque que combina principios éticos con guías técnicas operativas, y ofrecen lecciones valiosas para otros Estados que buscan construir marcos regulatorios robustos.
Además, se integraron contribuciones académicas relevantes que analizan los fundamentos normativos de la regulación de la IA desde enfoques basados en derechos humanos, justicia estructural y vigilancia crítica. La literatura especializada subraya que los marcos regulatorios deben enfocarse no sólo en los aspectos técnicos de los sistemas algorítmicos, sino también en sus efectos materiales sobre poblaciones vulnerables, instituciones públicas y dinámicas de exclusión socioeconómica.
La revisión permitió identificar ejes comunes en los debates internacionales: la necesidad de diferenciar los niveles de riesgo de las aplicaciones de IA; el uso de principios rectores como transparencia, explicabilidad y no discriminación; así como la creación de mecanismos institucionales de monitoreo y sanción. También se reconocieron tensiones entre enfoques de regulación estatal y propuestas de autorregulación industrial, y divergencias entre estrategias de soft law y regulación vinculante (o hard law).
Un hallazgo central fue la identificación de distintas lógicas regulatorias: mientras algunas jurisdicciones priorizan la protección de derechos humanos (como Europa), otras promueven la innovación económica (como algunos países asiáticos) o experimentan con modelos de gobernanza adaptativa (como el sandbox regulatorio británico). Esta diversidad demuestra que no existe un único modelo de regulación, sino marcos normativos que responden a contextos políticos, económicos e institucionales específicos. Por ejemplo, en el caso del uso de IA en los sistemas de justicia y seguridad, particularmente en Europa y América Latina, Fair Trials identificaron riesgos significativos:
Debido proceso: afectaciones a la presunción de inocencia, el derecho a la defensa y la imparcialidad judicial debido a la opacidad algorítmica.
Igualdad y no discriminación: reproducción y automatización de sesgos preexistentes en las prácticas de seguridad y justicia penal.
Estos desafíos subrayan la necesidad de prohibiciones específicas (como el uso masivo de reconocimiento facial y predicción de delitos), de mecanismos sólidos de transparencia y rendición de cuentas, así como de buenas prácticas como la realización de pruebas piloto, auditorías externas y el uso controlado de sistemas de IA, siguiendo experiencias positivas como las de Argentina y Colombia (Fair Trials, 2024).
Análisis cruzado
Actualmente, se encuentra en desarrollo un análisis cruzado entre los hallazgos del mapeo legislativo mexicano y las tendencias regulatorias internacionales. Esta etapa busca generar una matriz de correspondencias y vacíos, sin adelantar resultados concluyentes, que serán publicados en una entrega académica posterior.
No obstante, de manera preliminar emergen algunas líneas de reflexión normativa relevantes para México:
La necesidad de contar con una definición legal operativa de IA, acorde a los estándares internacionales y cuya funcionalidad no se restrinja conforme los avances tecnológicos futuros.
La urgencia de establecer un andamiaje de regulación mínima capaz de mitigar los eventuales daños de la IA y, a su vez, permita aprovechar su uso mediante políticas públicas adecuadas.
La conveniencia de adoptar un enfoque gradualista basado en riesgos, diferenciando entre usos experimentales, comerciales y gubernamentales.
La carencia de un enfoque robusto de derechos humanos y de mecanismos de participación pública en las iniciativas legislativas mexicanas.
El déficit institucional en la materia, evidenciado por la ausencia de una autoridad nacional especializada en inteligencia artificial que coordine y supervise las políticas públicas y los marcos regulatorios.
Estos hallazgos preliminares sugieren que México debe avanzar hacia la incorporación de cláusulas de transparencia algorítmica, evaluaciones de impacto ético y mecanismos efectivos de rendición de cuentas, así como considerar la creación de órganos especializados que sirvan de puente entre ciencia, tecnología y regulación democrática.
Siguientes pasos
El proyecto prevé concluir su fase actual durante el trimestre abril-junio de 2025, a través de la consolidación de un artículo académico que exponga los hallazgos de forma sistemática y argumentada, con base en la evidencia recopilada y los marcos conceptuales desarrollados. Asimismo, se producirán materiales de difusión accesibles, como infografías, blogs y presentaciones públicas, con miras a incidir en la conversación pública y en los procesos de diseño normativo y legislativo.
También se contempla la realización de seminarios con actores relevantes —incluyendo legisladores, funcionarios públicos, académicos, activistas y desarrolladores de tecnología— para presentar y discutir los hallazgos del proyecto. Esta dimensión de diálogo multiactor es coherente con el enfoque del LegalTec Lab, que busca articular la investigación aplicada con los procesos reales de toma de decisión y transformación institucional.
Conclusiones
La acelerada expansión de la inteligencia artificial, tanto en el ámbito público como privado, requiere un marco regulatorio sensible a los riesgos que esta tecnología puede implicar para el ejercicio de los derechos y la calidad de las instituciones democráticas. En el contexto mexicano, marcado por brechas digitales, déficits de transparencia y desigualdades estructurales, los efectos de una IA no regulada en aspectos mínimos podrían ser particularmente problemáticos.
El proyecto desarrollado en el LegalTec Lab busca contribuir a una comprensión más profunda de los desafíos normativos que plantea la IA, así como a la generación de propuestas viables, informadas y contextualizadas. Lejos de proponer soluciones apresuradas o universales, se aboga por una aproximación crítica, gradual y basada en principios, que considere tanto los riesgos como las oportunidades de esta tecnología disruptiva.
Desde una perspectiva académica, este trabajo demuestra la importancia de abordar los problemas regulatorios de la IA desde un enfoque interdisciplinario, que combine la experiencia jurídica con conocimientos de ciencia de datos, gobernanza tecnológica y ética pública. Desde una perspectiva institucional, muestra la urgencia de desarrollar capacidades normativas, y de definición de estándares técnicos acorde a los últimos avances tecnológicos, que estén a la altura de los retos del presente.
Este tipo de esfuerzos también pone de relieve el papel que pueden jugar los centros de investigación aplicada en la construcción de políticas públicas basadas en evidencia. La intersección entre investigación, formación académica y vinculación con actores públicos es clave para garantizar que los desarrollos tecnológicos no queden fuera del marco democrático. LegalTec Lab representa, en este sentido, una plataforma invaluable para construir puentes entre la producción de conocimiento y la acción institucional.
1Actualmente, LegalTec es una línea de investigación del Centro de Ciencia de Datos e Inteligencia Artificial de la Escuela de Gobierno y Transformación Pública.
2El proyecto fue coordinado por el investigador Saúl López Noriega.
Nota: Karla Ivonne Martínez Hernández es estudiante de la Maestría en Políticas Públicas de la Escuela de Gobierno y Transformación Pública, y colabora como becaria en el proyecto descrito en este blog.
Aguilar, J. (2024). Desafíos de la inteligencia artificial en el sistema de justicia en México. IMER. https://www.imer.mx/programas/desafios-de-la-inteligencia-artificial-en-el-sistema-de-justicia-en-mexico/
Artificial Intelligence Act. (s/f). AI Act Explorer. European Commission. https://artificialintelligenceact.eu/ai-act-explorer/
Banco Interamericano de Desarrollo. (s/f). Evaluación de impacto algorítmico. https://code.iadb.org/es/herramientas/algorithmic-impact-assessment
De la Peña Mendoza, S., Ibarra Sánchez, E., & Santoyo De Jesús, C. (2024). Panorama de la inteligencia artificial en México: Hacia una estrategia nacional. Embaja Británica en México y AMCID.https://cdnusers3ros.s3.amazonaws.com/public/9e3213120ef1ec5246ed316117908803/47ddfa6a29074e2b1426d394295660281717889675_1717889675.pdf
El Financiero. (2025, marzo 5). El ‘Minority Report’ qué: Ecatepec estrena sistema de vigilancia que reconoce 100 caras por minuto. https://www.elfinanciero.com.mx/edomex/2025/03/05/a-caso-estas-usando-ecatepec-moderniza-equipo-de-seguridad-y-vigilancia-asi-es-como-opera/
Escuela de Gobierno y Transformación Pública, Tecnológico de Monterrey. (2025, marzo 21). Firma Centro de Ciencia de Datos continuidad de colaboración con Fiscalía General del Estado de Zacatecas. https://egobiernoytp.tec.mx/es/noticias/firma-centro-ciencia-datos-colaboracion-fiscalia-zacatecas
Fair Trials. (2024). Inteligencia artificial en la seguridad pública y en el sistema penal en América Latina. https://www.fairtrials.org/app/uploads/2024/08/Inteligencia-artificial-en-la-seguridad-publica-y-en-el-sistema-penal-en-America-Latina.pdf
Filgueiras, F. (2023). Desafíos de gobernanza de inteligencia artificial en América Latina. Infraestructura, descolonización y nueva dependencia. Revista del CLAD Reforma y Democracia, (87), 1–24. https://revista.clad.org/ryd/article/view/desafios-gobernanza-inteligencia-artificial-America-Latina/527
Japan External Trade Organization. (s/f). Government Initiatives | Digital Technology - Industries - Investing in Japan. https://www.jetro.go.jp/en/invest/attractive_sectors/ict/government_initiatives.html
National Institute of Standards and Technology. (s/f). Home. U.S. Department of Commerce. https://www.nist.gov/
OCDE. (2019). OECD AI Principles. https://oecd.ai/en/ai-principles
The White House. (2023, noviembre 1). Safe, secure, and trustworthy development and use of artificial intelligence (Executive Order 14110). Federal Register. https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence
UNESCO. (s.f.). México - Observatorio Global de Ética y Gobernanza de la Inteligencia Artificial. UNESCO. https://www.unesco.org/ethics-ai/es/mexico
UNESCO. (2021, noviembre 23). Recomendación sobre la ética de la inteligencia artificial. https://www.unesco.org/es/artificial-intelligence/recommendation-ethics
Williams, G. (2021). Conceptos de soft law, hard law, better regulation, smart regulation y políticas públicas. Biblioteca del Congreso Nacional de Chile. https://www.bcn.cl/leychile/navegar?idNorma=1121682
Yeong, Z. K. (2020, junio 24). Singapore’s model framework to balance innovation and trust in AI. OECD. https://oecd.ai/en/wonk/singapores-model-framework-to-balance-innovation-and-trust-in-ai