Más allá de la elección judicial del 1 de junio, surge una pregunta inquietante: ¿pueden los algoritmos ayudarnos a medir la imparcialidad judicial? ¿O estamos abriendo una caja de Pandora ética?
La ciencia política lleva décadas intentando descifrar los factores que influyen en las decisiones judiciales. Con el poder computacional actual, podemos llevar esto a otro nivel. Los algoritmos pueden procesar bases de datos masivas de sentencias, documentos legales, buscando correlaciones que el ojo humano difícilmente podría detectar. ¿Existe una relación estadística entre el resultado de un caso y factores como la experiencia previa del juez, su historial, el tipo de delito, el perfil socioeconómico de las partes, o incluso variables externas? Algunos estudios sugieren que sí es posible identificar patrones que, si bien no predicen con certeza un fallo individual, sí pueden señalar tendencias o posibles desviaciones del ideal de imparcialidad. La promesa es utilizar esta información no como un oráculo, sino como un espejo: una herramienta para que el propio sistema judicial identifique áreas de mejora.
Aquí es donde la discusión se vuelve crítica. Primero, el riesgo fundamental: "sesgo de entrada, sesgo de salida". Si los datos históricos con los que entrenamos a los algoritmos reflejan sesgos sociales o institucionales pasados, la IA podría no solo replicarlos, sino amplificarlos, dándoles un matiz de objetividad tecnológica. Segundo, la ética de la predicción. ¿Es justo evaluar o anticipar la conducta de un juez basándose en probabilidades estadísticas? ¿Corremos el riesgo de reducir la complejidad del razonamiento legal a una fría puntuación algorítmica?
Quizás la pregunta no es si podemos medir la imparcialidad –un concepto profundamente filosófico, contextual y normativo–, sino si podemos usar la tecnología para detectar indicadores de parcialidad de manera responsable. La imparcialidad, en su esencia, es un ideal, una aspiración ética. Intentar encapsularla en una métrica cuantitativa es como intentar medir la belleza o el valor del arte con una regla. Lo que sí podemos medir son manifestaciones que podrían sugerir una falta de imparcialidad.
Los algoritmos pueden, por ejemplo, comparar la duración de las sentencias para delitos similares entre diferentes jueces, señalar si un juez se desvía consistentemente de la jurisprudencia en ciertos tipos de casos, o correlacionar decisiones con factores extralegales. Esto no "mide" la imparcialidad, pero sí ofrece puntos de vista para una investigación y una reflexión crítica. Se trata de usar la tecnología como un faro para iluminar posibles problemas, no como un martillo para juzgar individuos o crear rankings simplistas.
El análisis predictivo en la justicia no es ciencia ficción, es una realidad llena de potencial y peligros. Su uso exige una cautela extrema, un enfoque multidisciplinario y compromiso con la justicia y los derechos humanos. La tecnología puede iluminar, pero la decisión final sobre su rol y límites debe ser humana, sujeta al escrutinio democrático y al debate público.
Síguenos en nuestras redes sociales:
Instagram: @eluniversaledomex, Facebook: El Universal Edomex y X: @Univ_Edomex