logo 3CT consultoría

Relación de la Inteligencia Artificial con el Derecho en México

1. Introducción

La inteligencia artificial (IA) es una de las tecnologías más influyentes del siglo XXI, capaz de transformar la economía, la educación, la medicina y hasta los sistemas de justicia. En México y en el mundo, la inteligencia artificial ya se utiliza en diagnósticos médicos, sistemas financieros, procesos judiciales y seguridad pública. Sin embargo, esta misma capacidad de decisión y autonomía genera serios cuestionamientos legales y éticos.

El derecho se enfrenta al reto de crear marcos normativos que regulen el uso de la inteligencia artificial, que definan responsabilidades cuando un algoritmo produce daños y que aseguren que su aplicación respete los derechos humanos. Este trabajo desarrolla tres ejes centrales: la regulación legal, la responsabilidad civil y penal, y la dimensión ética de la inteligencia artificial.

2. Regulación legal de la inteligencia artificial

La regulación de la inteligencia artificial es todavía un terreno en construcción. En México, desde 2020 se han presentado más de 50 iniciativas legislativas en el Congreso de la Unión relacionadas con la inteligencia artificial, aunque ninguna se ha traducido en una ley federal vigente. Esta ausencia de un marco jurídico específico genera un vacío legal importante, ya que las normas actuales en materia de tecnología, protección de datos y derechos digitales no son suficientes para cubrir la complejidad de la inteligencia artificial.

Algunas propuestas, como la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica (2023), buscan crear un Consejo Mexicano de Ética, mientras que el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales ha promovido debates sobre privacidad y protección de datos en sistemas de inteligencia artificial. Por su parte, la Asociación Nacional de Inteligencia Artificial, una organización civil, ha elaborado la Agenda Nacional de Inteligencia Artificial 2024–2030, que propone lineamientos para el uso responsable de esta tecnología en México. Sin embargo, hasta ahora el país carece de una legislación uniforme y vinculante, lo que deja a la sociedad expuesta a riesgos derivados del uso no regulado de algoritmos.

Desde una perspectiva legal, la falta de un marco regulatorio claro ha generado incertidumbre en torno a la responsabilidad de los desarrolladores y usuarios de IA. ¿Quién es responsable si un sistema de IA toma una decisión errónea que afecta negativamente a una persona? ¿Cómo se puede garantizar que los algoritmos sean transparentes y auditables? Estas preguntas resaltan la necesidad de normativas específicas que establezcan lineamientos claros para el desarrollo y uso de la IA. México ha comenzado a dar pasos importantes en la regulación de la Inteligencia Artificial, aunque queda un largo camino por recorrer. En los últimos años, el gobierno y diversas instituciones han impulsado iniciativas para establecer un marco normativo que garantice el uso ético y responsable de la IA.

3. Responsabilidad civil y penal frente a decisiones de inteligencia artificial

Uno de los mayores dilemas jurídicos de la inteligencia artificial es definir quién responde cuando esta ocasiona un daño. En un sistema tradicional, la responsabilidad recae en la persona que ejecuta el acto. Sin embargo, cuando un algoritmo toma decisiones autónomas, la pregunta se complica: ¿es responsable el programador, la empresa que lo comercializa, el usuario que lo emplea o el propio sistema?

Un ejemplo concreto se encuentra en los vehículos autónomos. Si un coche operado por inteligencia artificial provoca un accidente, el derecho debe decidir si la culpa corresponde al fabricante por defectos en el software, al dueño del automóvil por falta de supervisión, o a un tercero que interactuó con el sistema. La legislación mexicana aún no responde a estos escenarios, lo que genera vacíos legales.

En materia penal, el problema es aún más complejo. El derecho penal se fundamenta en la voluntad y conciencia del individuo, lo cual no puede aplicarse directamente a una máquina. Por ello, no se reconoce a la inteligencia artificial como sujeto penal. Sin embargo, existe el debate sobre si en el futuro podrían establecerse categorías de “responsabilidad indirecta” que atribuyan a las empresas una carga jurídica mayor cuando utilicen sistemas autónomos de alto riesgo. Actualmente uno de los avances más relevantes es la propuesta de reforma al Código Penal Federal, que busca tipificar y sancionar delitos relacionados con el uso indebido de tecnologías de comunicación e inteligencia artificial. Esta iniciativa representa un primer paso para abordar los riesgos legales y de seguridad asociados con la IA, aunque se enfoca principalmente en la prevención de delitos digitales y no en la regulación integral de la tecnología. En conclusión, la responsabilidad civil y penal frente a la inteligencia artificial en México es un terreno en evolución, que exige reformas legales capaces de adaptarse a la creciente autonomía de los algoritmos.

4. Ética, derechos humanos y privacidad en la inteligencia artificial

Más allá de lo legal, la inteligencia artificial plantea dilemas éticos y de derechos humanos. Los algoritmos pueden reproducir los sesos de sus programadores o discriminar a grupos vulnerables. Por ejemplo, el uso de reconocimiento facial en espacios públicos ha sido cuestionado en México y en el mundo debido a errores de identificación que afectan de manera desproporcionada a mujeres y personas de comunidades racializadas.

Otro aspecto relevante es la privacidad. La inteligencia artificial funciona a partir del análisis de grandes cantidades de datos, lo cual plantea riesgos de vigilancia masiva y filtración de información personal. En este sentido, el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales y la Asociación Nacional de Inteligencia Artificial han advertido sobre la necesidad de que los proyectos de inteligencia artificial respeten los estándares de protección de datos y sean transparentes en su funcionamiento.

Asimismo, la UNESCO (2021) ha recomendado que los países adopten principios éticos para guiar la innovación tecnológica, priorizando el respeto a la dignidad humana. En México, la Agenda 2024–2030 sobre inteligencia artificial propone lineamientos para garantizar que la tecnología se utilice de manera responsable, con especial atención en educación, justicia y salud.

La ética en la inteligencia artificial no es solo un ideal académico, sino una exigencia práctica: sin ella, la inteligencia artificial puede convertirse en un instrumento de desigualdad y vulneración de derechos.

5. Conclusión

La inteligencia artificial representa tanto una oportunidad como un desafío para el derecho en México. Su regulación aún es inexistente a nivel federal, lo cual genera incertidumbre sobre los alcances y límites legales de esta tecnología.

Este vacío legal es, al mismo tiempo, un reto y una oportunidad: un reto porque los ciudadanos carecen de una protección efectiva frente a posibles abusos de la inteligencia artificial, y una oportunidad porque México puede diseñar una legislación que aprenda de los errores y aciertos de otras jurisdicciones.

En todo caso, el derecho debe acompañar el desarrollo tecnológico para evitar abusos y construir un entorno en el que la inteligencia artificial sirva al progreso social sin poner en riesgo las libertades fundamentales.

6. Bibliografía

Autor: Flores Rocha, Claudia (2025)