Month: enero 2022

PROBLEMAS EPISTEMOLÓGICOS EN LA VALORACIÓN DEL TESTIMONIO DEL AFIRMADO AGRAVIADO EN EL SISTEMA PROCESAL PENAL PERUANO

En este mundo traidor, nada es verdad ni mentira, todo es según el color del cristal con que se mira

Ramón de Campoamor

 

Resumen

La construcción de inferencias probatorias en estado de incertidumbre es una de las tareas más difíciles y, diríase, hasta dramática para todo juez que debe decidir sobre un caso, cuando están en juego la libertad individual de un ser humano y el deber del Estado de sancionar el delito. La presencia del error judicial en la decisión siempre está latente y no es posible su eliminación total, pero sí su disminución. El juez debe evitar cometer, en la mayor medida posible, errores en la toma de decisión. Sin embargo, no existe fórmula infalible que evite tales riesgos. Tal vez, el único instrumento al que debe apelar el juzgador es la racionalidad. Las expectativas de las partes y la sociedad es que la decisión judicial sea justa. Esta exigencia puede ser reputada como meridianamente cubierta cuando la aserción se apoya o respalda en buenas razones; lo que se garantiza cuando se corresponde con la realidad. Surge, así, un tema crucial, como es el de   la valoración racional de la prueba; en particular, de la prueba testifical que, por definición, es la menos fiable de todas las pruebas. La valoración de esta prueba se torna altamente compleja cuando se trata del denominado “testimonio único”, como es la declaración del afirmado agraviado. Entonces, emana naturalmente la pregunta de ¿cómo justificar la inferencia conclusiva sin que se corra el riesgo de cometer errores? La Corte Suprema de Perú, en el año 2005, decidió establecer, vía el Acuerdo Plenario 02-2005-CJ/116, como criterios para la valoración positiva de esta prueba que, entre agraviado e imputado, no haya existido relaciones de enemistad previas al suceso, que el testimonio sea coherente y preciso, que esté corroborado periféricamente y, además, que la sindicación sea persistente. Si el juez verifica estos presupuestos debe declarar la culpabilidad del imputado. Sucede que la Psicología del Testimonio no respalda estos enunciados normativos establecidos jurisprudencialmente. En el presente trabajo se da cuenta, tanto de la posición jurisprudencial, como también de las investigaciones que ha realizado la Psicología del Testimonio sobre la valoración de la prueba testifical. Luego del análisis, se concluye que los jueces penales de Perú deben abandonar la línea jurisprudencial diseñada por la Corte Suprema, y en su lugar, adoptar los criterios que la Psicología del Testimonio propone para el análisis de la prueba testifical; es decir, el razonamiento probatorio debe girar en torno al análisis de los factores que influyen en el testimonio como son: a) factores del suceso, b) factores del testigo, c) factores del sistema

Palabras claves

Testimonio del afirmado agraviado, Corte Suprema, certeza, probabilidad, verdad como correspondencia, psicología del testimonio, exactitud, fiabilidad.

Abstract

The construction of evidentiary inferences in a state of uncertainty is one of the most difficult and, one might even say, dramatic tasks for any judge who must decide on a case, when the individual freedom of a human being and the duty of the State to punish the crime are at stake. The presence of judicial error in the decision is always latent and it is not possible to eliminate it completely, but it is possible to reduce it. The judge must avoid committing, as much as possible, errors in decision making. However, there is no infallible formula that avoids such risks. Perhaps the only instrument to which the judge should appeal is rationality. The expectations of the parties and society are that the judicial decision should be fair. This requirement can be deemed to be clearly covered when the assertion is supported or backed by good reasons; which is guaranteed when it corresponds to reality. Thus, a crucial issue arises, that of the rational assessment of evidence; in particular, of testimonial evidence, which, by definition, is the least reliable of all evidence. The assessment of this evidence becomes highly complex when it comes to the so-called “sole testimony”, such as the statement of the aggrieved party. The question then naturally arises as to how to justify the conclusive inference without running the risk of committing errors. The Supreme Court of Peru, in 2005, decided to establish, via Plenary Agreement 02-2005-CJ/116, as criteria for the positive evaluation of this evidence that, between the aggrieved and the accused, there were no relations of enmity prior to the event, that the testimony is coherent and precise, that it is peripherally corroborated and, in addition, that the accusation is persistent. If the judge verifies these assumptions, he must declare the guilt of the accused. It happens that the Psychology of Testimony does not support these normative statements established by jurisprudence. This paper reports both the jurisprudential position and the research carried out by the Psychology of Testimony on the assessment of testimonial evidence. After the analysis, it is concluded that Peruvian criminal judges should abandon the jurisprudential line designed by the Supreme Court, and instead, adopt the criteria proposed by the Psychology of Testimony for the analysis of testimonial evidence; that is, the evidential reasoning should revolve around the analysis of the factors that influence the testimony, such as: a) factors of the event, b) factors of the witness, c) factors of the system. (más…)

EL RETO DE LA FILOSOFÍA JURÍDICA FRENTE A LA APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL EN LOS PROCESOS JUDICIALES

Resumen

La inteligencia artificial constituye sin duda un fenómeno que cambiará para siempre la forma de entender la dinámica de la vida, de la interacción de los seres humanos. En el ámbito de la justicia, su aplicación supone el fin de determinadas creencias y la formulación de nuevos paradigmas.

Las decisiones judiciales en el futuro serán el resultado de la intervención de la inteligencia artificial. Así, la valoración de la prueba, la interpretación de una disposición normativa podría recaer no en un ser humano, en un juez, sino en un algoritmo. Entonces, nos encontramos definitivamente frene a un inmenso desafío para el Derecho y la Filosofía del Derecho.

Palabras claves

Juez, inteligencia artificial, algoritmo, justificación, razonamiento probatorio.

Indice.- 1.- Introducción. 2.- ¿Qué es la inteligencia artificial? 3. jueces del futuro ¿humanos o máquinas? 4. Algoritmos jurídicos: El desafío de nuevos paradigmas jurídicos. 5.Concluisiones. Referencias bibliográficas.

_______________________________________________________________

1.- Introducción

Al término de este segundo bloque de estudios del máster, sin duda, los contenidos desarrollados presentan un plus como es el de ser novedosos, llenos de desafíos para el Derecho. La automatización, las teorías de tecnología, la bioética, la inteligencia artificial (IA), de cara a las teorías de la justicia, presuponen toda una tarea nada fácil, no solamente para la teoría del Derecho, para la dogmática jurídica, sino también para la Filosofía del Derecho.

En efecto, estamos viviendo la denominada cuarta revolución industrial (Perasso, 2016), que se caracteriza por la transición hacia nuevos sistemas que están construidos sobre la infraestructura de la revolución digital, que modificará fundamentalmente la forma en que vivimos, trabajamos y nos relacionamos (Schwab, 2016: 14). Uno de los elementos resaltantes de esta cuarta revolución constituye la denominada inteligencia artificial (IA).

En el presente ensayo se intenta convocar al debate jurídico y filosófico sobre los efectos que implica para el Derecho la inteligencia artificial en la toma de decisiones judiciales.

2.- ¿Qué es la inteligencia artificial?

El término “inteligencia artificial” (en adelante: IA) es formulado o enunciado por primera vez en el año de 1956 en una reunión que tuvieron los investigadores J. McCarthy, M. Minsky, N.  Rochester Y C.E Shannon; quienes entendieron que se está ante una inteligencia artificial cuando una máquina actúa de forma autónoma como si se tratase de un comportamiento humano.

Sin embargo, actualmente las posiciones respecto a su conceptualización y definición no son unívocas (Torra, 2011). Así pues, un sector sostiene que estaremos ante un caso de IA cuando las máquinas o los robots actúan como personas humanas. En tanto, otra posición sostiene que la IA razona como las personas; es decir, lo que importa es el “proceso cognitivo”. Una tercera idea afirma que la IA implica razonar racionalmente; es decir, que el razonamiento sigue un procedimiento constructivo lógico. En tanto, que un cuarto sector afirma que se trata de un proceso de actuación racional.

 La IA es entendida como IA débil e IA fuerte. La posición de la IA débil afirma que no es posible construir ordenadores conscientes; que un programa solamente puede alcanzar grados de simulación cognitiva pero nunca será un proceso cognitivo en sí mismo. En cambio, la teoría de la IA fuerte supone que el ordenador puede llegar a tener las mismas características de la inteligencia humana, tener estados mentales, será capaz de razonar y sentir, por ejemplo, tristeza o alegría.

La IA tiene como objetivo resolver problemas de distintos tipos o formas. En este sentido constituye una representación del conocimiento y sistemas basados en el conocimiento; es decir, incorpora conocimiento para poder resolver las cuestiones que le son asignadas como problemas.

La IA constituye un aprendizaje automático; lo que significa que el programa o máquina adquiere nuevo conocimiento a partir de la interacción que mantiene con el mundo exterior.

3.- jueces del futuro:  ¿humanos o máquinas?

 La IA, junto a los demás fenómenos tecnológicos que trae consigo la cuarta revolución industrial, sin duda alguna, está provocando un desafío inmenso para los sistemas de justicia tradicional. Llegado el momento en el cual la IA alcance o supere a la inteligencia humana, cuando los robots u ordenadores sean capaces de actuar de modo totalmente autónomo, cuando sean capaces de analizar contextos complejos que requieren de procesos cognitivos propios del ser humano y, por ende, desarrollar cadenas argumentativas respecto a un problema concreto, se presentará el dilema de elegir entre jueces humanos que actúan frente a un caso, muchas veces, con altas dosis de estereotipos, sesgos cognitivos y prejuicios y  la IA  que posee un alto nivel de autonomía que le permite actuar, razonar, sentir como un ser humano pero, al mismo tiempo, con una mayor capacidad de resolución de problemas.

Será entonces cuando el sistema de justicia tenga que debatirse entre elegir un juez de carne y hueso, con todas sus virtudes y defectos, y la IA que habría alcanzado un nivel de suficiencia cognoscitiva sobrehumana.

Sin embargo, no debemos esperar la llegada de ese momento. Tal vez ya ha llegado y aún no nos percatamos. Entonces si el escenario está abierto para el debate corresponde encararlo definitivamente.

El debate para la elección implica, entre otras preguntas capitales ¿la IA garantiza la concreción o efectividad de los derechos fundamentales de corte procesal? ¿El derecho al juez imparcial deberá ser redefinido como el derecho al juez artificial imparcial? ¿cómo debe ser entendida la inmediación procesal?  ¿cómo se garantiza el derecho a ser oído por un juez independiente, imparcial y predeterminado por la ley? ¿acaso los principios y reglas deben ser reformuladas? ¿el razonamiento probatorio que realice la IA será confiable y, en todo caso, cuáles serán los criterios epistemológicos que garanticen conclusiones justificadas? ¿Los algoritmos deben merecer tratamientos teóricos desde el Derecho? ¿Cómo debe responder la filosofía jurídica a este fenómeno, en la medida que tiene propósitos prescriptivos de cómo debe ser el Derecho?

Sin duda, se trata de una tarea que no debemos dejar pasar. Es el momento de que la teoría del derecho, la teoría del derecho procesal, la filosofía del derecho se centren en la búsqueda de respuestas a las interrogantes que legítimamente ahora formulamos de cara a la cuarta revolución industrial.

 4.- Algoritmos jurídicos: El desafío de nuevos paradigmas jurídicos.

La aplicación de IA en los procesos judiciales, sin duda alguna, tiene profundas repercusiones en los derechos fundamentales del ser humano. Así pues, en primer término, dentro del marco de un debido proceso con todas sus garantías, toda persona tiene el derecho a conocer los códigos de los algoritmos. De allí surgen derechos procesales como el “derecho a conocer el algoritmo”, “derecho a controlar el algoritmo” “derecho a tachar o recusar el algoritmo” cuando por ejemplo contenga algún tipo de sesgo, estereotipo o prejuicio (Vega Iracelay, 2018: 28)

Imaginemos que la valoración de la prueba en un juicio sea asignada a la IA, entonces, las partes tiene el derecho a conocer el algoritmo que realizará el razonamiento probatorio, a conocer los criterios epistemológicos que aplicará, a fin de prever que las inferencias epistémicas, probatorias y jurídicas estén precedidas de procesos interpretativos confiables.

Es necesario que el sistema normativo establezca un mínimo de información epistemológica que la IA debe poseer para identificar el contexto de descubrimiento de las inferencias probatorias que formule; así como también el grado de conocimiento jurídico (epistemología jurídica) que debe poseer para construir inferencias o enunciados de naturaleza jurídica cuando la disposiciones normativas, por lo general, constituyen enunciados imprecisos, vagos o indeterminados que requieren concreción en cada caso concreto.

 5.- Redefiniendo los postulados del Derecho como instrumento de control y desarrollo social.

La IA, en tanto fenómeno global, ha llegado para quedarse y posesionarse del mundo y, en este contexto, el Derecho tiene que ser redefinido. La IA constituye en adelante no solamente un sintagma jurídico, sino toda una institución fenoménica capaz de traerse abajo una serie de paradigmas jurídicos y, al mismo tiempo, dar lugar a la enunciación de nuevas categorías e instituciones normativas.

Así, por ejemplo, surgen categorías como “juez artificial” “algoritmo jurídico” “el derecho a la IA como componente del derecho a la defensa”, “derecho a ser defendido por una inteligencia artificial”.

En definitiva, la redefinición del derecho a la luz de la IA supone el reconocimiento de nuevos derechos y, como correlato, la previsión de garantías procesales de efectividad para tales derechos.  Sin embargo, presupone el afianzamiento del principio de la dignidad humana como fin último y superior.

5.- Conclusiones.

  1. La IA, en tanto fenómeno fruto de la inteligencia humana, debe ser aprovechada y utilizada en los procesos judiciales, en la medida que permiten optimizar la finalidad del sistema de justicia.
  2. La IA, en una dimensión fuerte, supone una equiparación con la inteligencia humana, el sistema de justicia no debería considerarla como sustituto del juez de carne y hueso.
  3. La aplicación de la IA al sistema de justicia implica el reconocimiento de nuevos derechos fundamentales o, si se quiere, una redefinición de los existentes.
  4. Corresponde a la filosofía del Derecho establecer los límites de la aplicación de la IA a las decisiones judiciales.

Referencias Bibliográficas

Perasso, V. (12 de octubre de 2016). BBC NEWS . Obtenido de https://www.bbc.com/mundo/noticias-37631834

Pérez Luño, A. E. (2008). Lecciones de Filosofía del Derecho (Presupeustos para una filosofía de la experiencia jurídica). Lima: Juristas Editores.

Pérez Luño, L. (s.f.).

Schwab, K. (2016). La cuarta revolución industrial. Barcelona, España.: Debate.

Torra, V. (Diciembre de 2011). LEYCHNOS. Cuadernos de la Fundación General CSIC.

Vega Iracelay, J. (2018). Inteligendcia artificial y Derecho: Principios y propuestas. Informática y Derecho, 28.

Sigue este blog

Obtén cada nuevo post en tu correo.