En 2016, un equipo de investigadores del University College London desarrolló un sistema para predecir con precisión el resultado de casos de derechos humanos en la vida real. Entrenaron un algoritmo de aprendizaje automático en un conjunto de decisiones judiciales en torno a la tortura, la privacidad y el trato degradante, viendo cada documento legal como una “bolsa de palabras” para analizar.
Uno de los casos analizados fue el de Lyudmila Terentyevna Aleksandrova, quien en 1970, perdió su mano derecha en el trabajo, empleada por el estado ruso. Lyudmila luchó por un subsidio por discapacidad y llevó el caso al Tribunal Europeo de Derechos Humanos, que dictaminó en 2007 que se había violado el derecho de Aleksandrova a un juicio justo. El sistema llegó a la misma conclusión que el juez humano sobre la violación los derechos humanos de Aleksandrova.
Aunque todavía es muy pronto como para que estos sistemas reemplacen a los jueces humanos, el trabajo sugiere que, con suficientes datos, las máquinas pueden llegar a las mismas decisiones legales. El uso de estos sistemas es aún controvertido.
En los Estados Unidos, se ha utilizado el Sistema Correccional de Gestión de Perfiles de Delincuentes para Sanciones Alternativas (COMPAS, por sus siglas en inglés), desarrollado por una empresa privada con sede en Michigan llamada Equivant, es ampliamente utilizado para sopesar el riesgo de un acusado de cometer otro delito.Gran parte de la discusión sobre IA y la ley se ha centrado en el alcance de estos sistemas para adoptarse y el riesgo de magnificar los prejuicios en los datos de los que aprenden.
A finales de 2018, la Comisión Europea para la Eficiencia de la Justicia publicó una carta sobre el uso de la IA en los sistemas judiciales, pidiendo principios básicos de no discriminación, transparencia y respeto de los derechos fundamentales, con la esperanza de que estemos en una etapa lo suficientemente temprana para que se reconozcan estos fundamentos.
En el terreno legal, hay un miedo hacia la IA por el riesgo de depender de ésta y obtener sentencias que pueden no ser las correctas, pero quizás la verdadera preocupación provenga de lo que sucedería si se obtienen las correctas. Quizás el miedo es el dejar de ver a la ley como un veredicto emitido por la sociedad, y más como el resultado de una ecuación, algoritmo o proceso de los que no sean posible describir cómo es que se llegó al resultado obtenido.
Referencias
- Thomas McMullan, «A.I. Judges: The Future of Justice Hangs in the Balance,» Medium, web. Published: 2019.02.14;visited: 2020.10.24. URL: https://onezero.medium.com/a-i-judges-the-future-of-justice-hangs-in-the-balance-6dea1540daaa.