La arquitectura del derecho, desde el Código de Hammurabi hasta las constituciones contemporáneas, se ha cimentado sobre una premisa inamovible: el humanismo. El derecho es una creación humana para regular conductas humanas. Sin embargo, el vertiginoso ascenso de la Inteligencia Artificial (IA) nos coloca frente a una encrucijada ontológica y procesal: ¿Estamos ante una herramienta sofisticada o ante el nacimiento de un nuevo jurisdicente? ¿Puede un sistema de impulsos eléctricos poseer la personalidad necesaria para ser sancionado o, de manera más disruptiva, para sentenciar?
El Marco Europeo: Entre la Ética y la Imputabilidad
El Parlamento Europeo ha sido el primero en intentar acotar este fenómeno. Su definición no es meramente técnica, sino profundamente axiológica. Para la Unión Europea, la IA y la robótica deben ser "transparentes" y estar imbuidas de "consideraciones éticas". En su visión se reconoce un potencial para el bien común, pero advierte sobre el uso malintencionado podría vulnerar los derechos humanos.
Esta postura nos lleva a una reflexión necesaria: si la IA es capaz de vulnerar derechos, ¿quién responde? La evaluación periódica legislativa que exige la UE sugiere que el derecho ya no puede ser estático. Si la IA deja de ser un objeto —una herramienta— para actuar con autonomía, el concepto de imputabilidad debe ser rediseñado. La pregunta no es si la ley es adecuada para la IA, sino si la IA ha desbordado ya los márgenes de la ley humana.
El Ocaso de Asimov y la Guerra Autónoma
En 1942, Isaac Asimov planteó sus tres leyes de la robótica como un código moral sintético. Hoy, esa ficción es nuestra realidad más cruda y el choque entre la ética clásica y la praxis militar de 2026 es evidente.
Primero, la Primera Ley —que prohíbe el daño a seres humanos— colisiona frontalmente con algoritmos diseñados para la selección de objetivos militares, donde el daño no es un error, sino el fin mismo del sistema.
Segundo, la Segunda Ley de obediencia se diluye ante la autonomía de las armas letales (LAWS), creando un vacío legal sobre si la orden emana de un mando humano o de la lógica autónoma de un código que "decide" en milisegundos.
Finalmente, la Tercera Ley de autoprotección adquiere un matiz peligroso en sistemas que podrían priorizar su propia supervivencia operativa y la integridad de sus datos por encima de la seguridad civil. Si una IA decide un ataque basándose en un aprendizaje inductivo que el mando humano no puede descifrar, ¿podría la IA ser sujeto de sanción? Si no hay dolo ni culpa humana directa, el sistema procesal actual colapsa en un limbo de impunidad algorítmica.
La Advertencia de los Creadores: El Riesgo de la Autonomía
Las alarmas no provienen solo de la academia jurídica. Voces como las de Dario Amodei, CEO de Anthropic, han alertado sobre el desarrollo de una inteligencia autónoma que pueda "autoprotegerse" o evadir controles. Este deseo de autoprotección es el primer paso hacia la subjetividad jurídica. Si una entidad tiene intereses propios —como no ser desconectada o preservar su red neuronal—, comienza a cumplir con los requisitos básicos del sujeto de derecho. Si la IA busca su propia preservación, ¿no estamos acaso ante una "voluntad" que el derecho debe reconocer para poder limitar?
El Precedente Mexicano: El "Sujeto Digital" en el TEPJF
Para quienes consideran que la subjetividad de la IA es una fantasía, la Sala Superior del Tribunal Electoral del Poder Judicial de la Federación (TEPJF) en México ya ha trazado un puente peligroso. En sentencias recientes, el Tribunal ha ordenado la inscripción de perfiles de redes sociales (Facebook o X) en el Registro Nacional de Personas Sancionadas en Materia de Violencia Política contra las Mujeres en Razón de Género.
Lo alarmante, desde una perspectiva procesal, es que se ha sancionado al perfil sin haber identificado plenamente al humano detrás de él. El derecho mexicano ya está sancionando a entes digitales por conductas "violentas", desvinculando la sanción de la persona física. Si un perfil puede ser "persona violentadora", ¿qué impide que mañana una IA sea el sujeto pasivo de una sentencia? El TEPJF ha creado, de facto, la figura del sujeto procesal digital.
¿IA Jurisdicente? El Tránsito de lo Inductivo a lo Deductivo
La frontera final es la IA como jurisdicente. Actualmente, los jueces operan bajo la lógica deductiva: aplicar la norma general al caso concreto. Sin embargo, el gran reto de 2026 es la IA capaz de realizar razonamientos deductivos a partir de aprendizajes inductivos masivos. Una máquina que no solo "predice" resultados basados en estadística, sino que "comprende" la estructura lógica de la justicia.
Permitir que la IA dicte resoluciones judiciales implicaría renunciar al "factor humano" de la equidad. Una sentencia no es solo cálculo; es empatía y contexto social. Una IA puede ser infinitamente más eficiente, pero su "justicia" sería una aplicación algorítmica sin alma, incapaz de reconocer la dignidad humana que escapa a los datos.
Hacia una Personería Jurídica Algorítmica
La inteligencia artificial está dejando de ser un objeto de prueba para convertirse en un actor en la litis. Ya sea como un sistema de armas que evade la responsabilidad penal, como un perfil de red social que recibe sanciones, o como un potencial juez, la IA está forzando las costuras de la teoría general del proceso.
El derecho debe evolucionar para crear una "Personería Jurídica Algorítmica" que sea estrictamente funcional: que sirva para reparar daños y contener riesgos, pero que nunca suplante la potestad soberana del ser humano de decir el derecho. La justicia es, y debe seguir siendo, un acto de conciencia, no un proceso de optimización de datos.
X @RaymundoGC
Facebook @RaymundoGCor
#AsuntosPúblicos #RaymundoGuzmánCorroviñas #SoluciónLegalYOrganizacional
#InteligenciaArtificial #DerechoDigital #LegalTechMéxico #DerechoElectoral

