Logo Hurtado Gandini Dávalos

¿ES VÁLIDO QUE LOS JUECES USEN HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL (IA) EN LOS PROCESOS JUDICIALES DE TUTELA?

SENTENCIA T-323/2024

CORTE CONSTITUCIONAL

MP: JUAN CARLOS CORTÉS GONZÁLEZ[1]


[1] Escrito por Jennifer Zemanate, Abogada Junior de Laboral, HGD S.A.S.

La Corte Constitucional estudió el uso de la Inteligencia Artificial (IA) para la toma de decisiones en sede de tutela, a raíz de la presunta vulneración al debido proceso por la decisión que profirió un juez de la República al usar ChatGPT para emitirla. El asunto en cuestión analizó las dudas de los accionantes respecto a si quien emitió el fallo fue el operador jurídico o una IA, así como si había sido debidamente motivada o fue producto de las alucinaciones de esta herramienta.

En la Sentencia, la Corte tejió algunos criterios orientadores para garantizar el respeto por los derechos fundamentales y las garantías constitucionales (y en virtud de los posibles sesgos, alucinaciones y riesgos propios de la IA), basados en instrumentos internacionales como la Carta ética europea sobre el uso de la inteligencia artificial en sistemas judiciales y su entorno137, emitida por la Comisión Europea para la Eficacia de la Justicia (CEPEJ) del Consejo de Europa.

Así las cosas, afirmó que, cuando el juez considere necesario y pertinente recurrir a sistemas de IA, debe hacerlo de forma razonada y ponderada. Esto implica que prime la protección de los derechos fundamentales y considere la aplicación de principios éticos a los mandatos superiores. De esta manera, el funcionario debe respetar el criterio de no sustitución de la racionalidad humana, y las cargas de transparencia, responsabilidad y privacidad.

El criterio de no sustitución de la racionalidad humana obliga a usar la IA siempre y cuando no reemplace labores jurisdiccionales indelegables e irremplazables, como aquellas que exigen razonamiento humano. La carga de transparencia impone al juez el deber de detallar cuál fue el uso, el alcance y la ubicación de los resultados obtenidos por la IA. La carga de responsabilidad somete al juez a que conozca (o esté capacitado) de la idoneidad, necesidad y riesgos de la IA, así como a que verifique la información suministrada por ella. La carga de privacidad, por último, ordena la protección de los datos personales y sensibles que se le proporcionen a la IA.

En estas condiciones, un juez incumple con sus deberes judiciales cuando incurre en alguna de las siguientes prácticas, conforme a la Corte: i) emplea la IA para ejercicios indelegables e irremplazables; ii) no revela que ha usado la IA para sus decisiones; iii) no verifica la fiabilidad de la información dada por la IA; iv) compromete los derechos al habeas data o la intimidad por el empleo de la IA.

Sobre el caso concreto, la Corte estimó que no existió un reemplazo del juez circuito por el uso de la IA. Encontró que, contrario a lo manifestado por los accionantes, el operador jurídico usó la IA luego de haber fundamentado y tomado la decisión, dado que se evidencia que esta solo se utilizó para efectuar preguntas específicas que fueron transcritas por el funcionario en la consulta.

Sin embargo, consideró que, pese a que satisfizo el principio de privacidad al no introducir datos personales de los accionantes, no cumplió a cabalidad los principios de transparencia y responsabilidad exigidos. En este orden, la Corte sostuvo que el derecho fundamental al debido proceso no había sido vulnerado por el funcionario judicial, por lo que no había una causal de invalidez de lo actuado por él. Concluyó que el uso de ChatGPT no usurpó la función de administración de justicia para la situación que analizó.

Compartir Artículo

Otros

Artículos Recientes

¿Tienes dudas o preguntas?

Realiza una consulta sin costo

Si tienes dudas o preguntas, no dudes en escribirnos. Nuestros abogados pueden ayudarte a llevar los casos más complicados y acompañarte en el proceso.

Logo Hurtado Gandini Dávalos

(2) 6410900