Título: El impacto de la tecnología en la prueba judicial: ¿Estamos preparados para la evidencia generada por algoritmos?
Autor: Meyer, Emilio J.
Fecha: 4-ago-2025
Cita: MJ-DOC-18388-AR | MJD18388
Producto: MJ
Sumario: I. Introducción. II. Concepto y clasificación de la prueba algorítmica. III. Admisibilidad y validez de la prueba generada por algoritmos en el proceso judicial. IV. Cuestiones constitucionales vinculadas a la evidencia algorítmica. V. Jurisprudencia relevante y tendencias comparadas. VI. El rol del abogado litigante y de los peritos en el manejo de la prueba tecnológica. VII. Propuestas de modificaciones legislativas. VIII. La formación universitaria de los abogados ante el nuevo paradigma tecnológico. IX. Consideraciones éticas y sociales sobre la evidencia generada por algoritmos. X. Conclusión.
Por Emilio J. Meyer (*)
Apartado Metodológico
El presente trabajo adopta un enfoque metodológico predominantemente doctrinario. La investigación se sustenta en el análisis crítico de la normativa vigente, la doctrina especializada y los pronunciamientos jurisprudenciales relevantes, tanto a nivel nacional como internacional.
Asimismo, se recurre a referencias comparadas provenientes de experiencias regulatorias y legislativas de otras jurisdicciones, con el objeto de identificar buenas prácticas y estándares que puedan resultar aplicables o adaptables al contexto argentino.
El propósito central de este estudio no es únicamente descriptivo, sino que se orienta a formular propuestas concretas de reformas normativas que permitan afrontar de manera adecuada los desafíos que plantea la incorporación de la evidencia generada por algoritmos en los procesos judiciales, garantizando el respeto irrestricto de las garantías constitucionales y los principios del debido proceso.
I. INTRODUCCIÓN
La irrupción de la tecnología, y en particular de la inteligencia artificial, ha comenzado a transformar, silenciosa pero inexorablemente, el mundo jurídico. Si bien su presencia ya es habitual en otros ámbitos como la medicina, las finanzas o el comercio, su impacto en el proceso judicial plantea interrogantes que merecen una profunda reflexión.
Dentro de este fenómeno, la generación de evidencia mediante algoritmos y sistemas automatizados constituye uno de los desafíos más complejos y disruptivos. La producción de información, resultados o conclusiones generadas por procesadores, muchas veces incomprensibles o inaccesibles para los operadores jurídicos, tensiona los principios tradicionales que rigen la valoración de la prueba y el desarrollo del proceso judicial.
Este tema adquiere especial relevancia en el contexto actual del proceso judicial argentino. La normativa vigente, diseñada en un escenario analógico, no prevé mecanismos adecuados para controlar, verificar o impugnar de forma eficaz este tipo de evidencia. Los jueces, abogados y peritos se enfrentan a situaciones en las que la tecnología supera los marcos legales y conceptuales vigentes.
El presente trabajo se propone abordar esta problemática desde una perspectiva crítica y propositiva. El objetivo central es analizar los riesgos, desafíos y oportunidades que implica la incorporación de la evidencia generada por algoritmos en los procesos judiciales, y reflexionar acerca de las reformas normativas, institucionales y académicas necesarias para garantizar que el avance tecnológico no erosione las garantías procesales ni el acceso a una justicia transparente, confiable y equitativa.
Intento generar, desde una mirada crítica, un aporte novedoso al debate, integrando el análisis jurídico con una enfoque práctico y realista sobre las implicancias de la tecnología en los litigios del presente y del futuro cercano.
Vivimos inmersos en una transformación tecnológica sin precedentes, que inevitablemente ha alcanzado el ámbito judicial. La irrupción de la prueba digital y, en particular, de aquella generada por algoritmos, plantea desafíos tan fascinantes como inquietantes para abogados, jueces y litigantes. ¿Estamos preparados para comprender y administrar este tipo de evidencia? ¿O estamos, acaso, aceptando a ciegas resultados que no sabemos de dónde provienen? Este artículo invita a una reflexión crítica sobre el proceso judicial argentino frente a la evidencia algorítmica, analizando sus implicancias jurídicas, constitucionales y prácticas.
II. CONCEPTO Y CLASIFICACIÓN DE LA PRUEBA ALGORÍTMICA
A los fines de este trabajo, se entiende por prueba algorítmica toda aquella evidencia generada total o parcialmente mediante sistemas automatizados, basados o no en técnicas de IA, que sea ofrecida como medio probatorio dentro de un proceso judicial. En términos sencillos, se trata de toda evidencia que no se encuentra en soporte papel, sino que tiene origen o existencia en el mundo digital.
Dentro de esta categoría general, se pueden identificar tres grandes subgrupos:
- Documentos digitales: Incluyen correos electrónicos, mensajes de texto, archivos de texto, imágenes, videos o audios. Son equivalentes funcionales de los documentos en soporte físico, pero existen en formato digital.
- Registros electrónicos: Comprenden logs de actividad, historiales de navegación, registros de geolocalización, metadatos, entre otros. Son huellas que dejan los usuarios al interactuar con dispositivos o plataformas digitales.
- Evidencia generada por algoritmos: Se refiere a resultados, informes o conclusiones producidos por sistemas automatizados o de inteligencia artificial. Incluye, por ejemplo, reportes de sistemas expertos, análisis predictivos, resultados generados por algoritmos de machine learning o deep learning.
Es en este último grupo donde surgen los mayores desafíos jurídicos, dada la opacidad y complejidad que muchas veces caracteriza al funcionamiento de los algoritmos, dificultando su comprensión y control por parte de abogados, jueces y las propias partes del proceso.
A medida que estos sistemas se vuelven más sofisticados y su uso se expande, resulta imprescindible que los operadores jurídicos conozcan sus particularidades, alcances y limitaciones para poder ejercer adecuadamente el control y la valoración crítica de este tipo de prueba.
Es precisamente en esta última categoría donde surgen los mayores interrogantes. Los algoritmos, a menudo complejos y poco transparentes, nos colocan ante un nuevo tipo de evidencia cuyo funcionamiento no siempre es comprensible ni verificable.
Pero ¿qué es exactamente un algoritmo? De forma sencilla, podemos definirlo como un conjunto de instrucciones o reglas lógicas que se siguen para resolver un problema o ejecutar una tarea determinada. En el ámbito de la informática y la inteligencia artificial, los algoritmos permiten que las computadoras procesen grandes volúmenes de datos y generen resultados o predicciones en función de esos datos. Los algoritmos no son, en sí mismos, entes inteligentes; simplemente ejecutan instrucciones que alguien diseñó, aunque en los sistemas más complejos, como los de aprendizaje automático, incluso los propios diseñadores pueden desconocer exactamente cómo se llegó a un resultado específico. Allí radica uno de los grandes desafíos jurídicos.
Existen numerosos tipos de algoritmos, y su clasificación varía según el criterio que se utilice. Por ejemplo:
- Según el sistema de signos o representación:
Algoritmos cualitativos: En los que se utilizan instrucciones verbales o pasos descriptivos para realizar una tarea determinada.
Algoritmos cuantitativos: Basados en operaciones numéricas, comunes en problemas matemáticos o de cálculo.
Algoritmos computacionales: Diseñados para ejecutarse en una computadora, aprovechando su capacidad de procesamiento.
Algoritmos no computacionales: Procedimientos que se pueden llevar a cabo manualmente sin la ayuda de una máquina.
- Según su función:
Algoritmos de búsqueda y ordenamiento: Por ejemplo, los algoritmos que se usan para localizar información o para ordenar listas (como el algoritmo de la burbuja o de búsqueda binaria).
Algoritmos de optimización: Que buscan encontrar la mejor solución dentro de un conjunto de alternativas (por ejemplo, algoritmos voraces, de programación dinámica o metaheurísticos).
Algoritmos de transformación: Que convierten datos de un formato a otro.
- Según el mecanismo operativo:
Algoritmos determinísticos: Que, para una misma entrada, siempre producen el mismo resultado.
Algoritmos probabilísticos o heurísticos: Que incorporan elementos de aleatoriedad o «reglas empíricas» cuando una solución exacta es inviable o poco práctica.
La cantidad específica de tipos no es fija, ya que la clasificación puede ampliarse y adaptarse a medida que surgen nuevos paradigmas, de allí que, en la práctica, se considere que la diversidad de algoritmos es amplia y en constante evolución.
Ahora bien, cabe preguntarse ¿qué función cumple un algoritmo en la inteligencia artificial?
En la inteligencia artificial, un algoritmo cumple la función esencial de transformar datos de entrada en resultados útiles a través de una secuencia de instrucciones predeterminadas. Esto implica que el algoritmo:
- Procesa datos y extrae patrones: Recibe grandes volúmenes de información y, mediante técnicas de análisis, identifica patrones, características o relaciones relevantes. Esto es fundamental en tareas como el reconocimiento de imágenes o el procesamiento del lenguaje natural.
- Aprende de los datos: En aplicaciones de aprendizaje automático, ciertos algoritmos (por ejemplo, las redes neuronales) ajustan automáticamente sus parámetros a partir de datos de entrenamiento. De esta forma, el sistema «aprende» y mejora su rendimiento conforme se le alimenta con más información.
- Genera predicciones o toma decisiones: Una vez procesados y aprendidos los patrones, el algoritmo produce una salida que puede ser una clasificación, una predicción o una acción automatizada. Esto es la base para que los sistemas de IA puedan operar de manera autónoma en entornos cambiantes.
- Se adapta y se optimiza: Muchos algoritmos incorporan mecanismos de retroalimentación que les permiten reajustarse y optimizar su rendimiento, corrigiendo desviaciones y mejorando la precisión en el tiempo.
En resumen, en el contexto de la inteligencia artificial, los algoritmos son el núcleo que permite a los procesadores interpretar datos, aprender de ellos y actuar de manera autónoma para resolver problemas complejos, haciendo posible desde aplicaciones cotidianas como asistentes virtuales hasta sistemas avanzados de análisis predictivo.
A los efectos del trabajo que aquí estamos desarrollando, basta con profundizar en la clasificación de los algoritmos desde la óptica de lo que implica una prueba judicial algorítmica, y en ese contexto nos encontramos con dos grandes subcategorías según su complejidad:
– Algoritmos deterministas: Reglas predecibles. Un algoritmo determinista es un tipo de algoritmo que, al recibir una entrada específica, siempre produce el mismo resultado y sigue exactamente la misma secuencia de pasos de ejecución. Las características de un algoritmo determinista son las siguientes:
- Predecible: Dado un conjunto de datos de entrada, el resultado y el camino de ejecución son siempre idénticos.
- Ausencia de aleatoriedad: No incorpora decisiones basadas en el azar o en valores generados de forma aleatoria.
- Reproducible: Si se ejecuta el algoritmo varias veces con la misma entrada, se obtendrá siempre el mismo resultado.
- Determinación estricta: En cada etapa del algoritmo, el siguiente paso está claramente definido, sin ambigüedad ni variaciones. (Ejemplo: un sistema de facturación).
– Modelos de caja negra: Los algoritmos de caja negra son aquellos cuyo funcionamiento interno no es visible, accesible ni comprensible para los usuarios o incluso para quienes se ven afectados por sus resultados. Es decir, se conoce la entrada que se le proporciona al algoritmo y se observa la salida que produce, pero los procesos, cálculos o reglas internas que utiliza para llegar a ese resultado son opacos o confidenciales. Las características principales de los algoritmos de caja negra son las siguientes:
- Opacidad: El proceso interno es desconocido o ininteligible para los usuarios.
- Acceso restringido: En muchos casos, ni siquiera se tiene acceso al código fuente o a los parámetros utilizados.
- Propiedad intelectual o confidencialidad: A menudo se justifica su opacidad por tratarse de algoritmos protegidos por derechos de autor, secretos comerciales o acuerdos de confidencialidad.
- Dificultad de auditoría: Es complejo verificar cómo el algoritmo toma decisiones o si lo hace de manera justa, transparente o legal.
Algunos ejemplos de algoritmos de caja negra son los siguientes:
- Algoritmos de inteligencia artificial y aprendizaje automático, como redes neuronales profundas, cuyos procesos internos son tan complejos que incluso sus creadores no siempre pueden explicar exactamente cómo llegan a una decisión.
- Sistemas de scoring crediticio utilizados por bancos o fintech, donde se desconoce cómo se ponderan los distintos factores para asignar un puntaje.
- Plataformas de redes sociales o buscadores que aplican algoritmos para mostrar resultados o contenidos, pero no revelan públicamente sus criterios de priorización.
- Algoritmos utilizados por aseguradoras o compañías de selección de personal para decidir aprobaciones, rechazos o clasificaciones de perfiles.
Problemas y debates asociados a los algoritmos de caja negra:
- Falta de transparencia: Los afectados no pueden entender ni cuestionar los resultados.
- Riesgo de discriminación o sesgo: Si el algoritmo contiene sesgos, estos pueden ser difíciles de detectar.
- Dificultad probatoria: En procesos judiciales o administrativos, resulta complejo impugnar decisiones automatizadas si no se conoce su lógica interna.
- Debates éticos y legales: Especialmente en áreas como el derecho, la salud, los seguros o el empleo, donde decisiones basadas en algoritmos opacos pueden tener un impacto significativo en la vida de las personas.
En conclusión, los algoritmos de caja negra representan un desafío en términos de transparencia, control y rendición de cuentas, particularmente cuando se utilizan en contextos sensibles o que afectan derechos fundamentales. Por ello, en muchos países y foros internacionales se está discutiendo la necesidad de regulación, auditoría algorítmica y derecho a la explicación, especialmente en el marco de la inteligencia artificial.
Estos algoritmos de caja negra son los que generan riesgos procesales por el tipo de evidencia que surge como resultado de su aplicación, porque puede haber un sesgo algorítmico, un error de interpretación, estandarizaciones y predicciones erróneas, tal como sucede, en diagnósticos por imágenes en el uso medicinal, o errores en huellas digitales algorítmicas, o fallas en el reconocimiento facial con el uso de cámaras en la vía pública, etc.
Dicho esto, cuando hablamos de prueba judicial originada en algoritmos de inteligencia artificial debemos ser cautos y rigurosos con la admisibilidad y control de dicha prueba, debiendo sujetarse a un marco con estándares específicos basado en cuatro pilares de validación:
- Auditabilidad: Exigir acceso al código fuente y datos de entrenamiento.
- Explicabilidad: Implementar técnicas como LIME (Local Interpretable Model-agnostic Explanations) o SHAP (SHapley Additive Planations) para desglose interpretable.
- Contradictorio técnico: Garantizar peritos independientes con acceso a metadatos.
- Certificación estatal: Crear un organismo de homologación de algoritmos (Por ejemplo, un Instituto Nacional de Tecnología Judicial).
III. ADMISIBILIDAD Y VALIDEZ DE LA PRUEBA GENERADA POR ALGORITMOS
Como lo adelantamos en el capítulo anterior, uno de los aspectos más sensibles en torno a la evidencia generada por algoritmos reside en su admisibilidad y validez dentro del proceso judicial. En otras palabras, si esa información puede ser incorporada como prueba y, de ser así, qué valor probatorio se le asigna. Más relevante es aun cuando tenemos en consideración el principio del «favor probationes» que establece que en casos de dudas o dificultades probatorias deberá siempre estarse a favor de la admisibilidad, conducencia o eficacia de la prueba. Dicho principio, claro está, tiene su base en la regla de la libertad probatoria, que entronca en las reglas constitucionales de inviolabilidad de la defensa en juicio y de igualdad de las partes en el proceso.
En el derecho argentino, para que un medio de prueba sea admisible debe cumplir ciertos requisitos básicos: debe ser pertinente, conducente, lícito y no prohibido por la ley.
En principio, la prueba electrónica no plantea una excepción a esta regla, y si bien nuestro ordenamiento ha avanzado en admitir documentos digitales o correos electrónicos, la situación se complejiza cuando se trata de resultados generados por sistemas algorítmicos, y es ahí cuando aparecen dudas adicionales:
- ¿Es posible identificar de manera precisa el origen y el mecanismo que generó esa prueba?
- ¿Se puede verificar su integridad y confiabilidad?
- ¿Existen mecanismos que permitan auditar el algoritmo utilizado?
- ¿Comprendemos, siquiera en parte, ¿cómo se llegó al resultado que hoy pretende presentarse como prueba?
Si bien la Ley 25.506 sobre Firma Digital y el Código Civil y Comercial de la Nación establecen algunas pautas generales en materia de documentos electrónicos, lo cierto es que el avance de la inteligencia artificial y los algoritmos complejos desborda ampliamente esas previsiones.
El principal desafío radica en la necesidad de verificar:
- La fuente de la información: es decir, quién o qué sistema generó ese dato.
- La integridad de la prueba: que la información no haya sido manipulada o alterada.
- La trazabilidad: conocer el recorrido que ha tenido esa información desde su creación hasta su incorporación al expediente.
- La comprensibilidad: que sea posible para el juez y las partes entender, al menos en términos generales, cómo se generó esa información.
En los casos de algoritmos complejos o de tipo «caja negra», donde ni siquiera los propios programadores pueden explicar con precisión cómo se llegó a determinado resultado, la admisibilidad de la prueba debe ser analizada con sumo rigor. Admitir a ciegas este tipo de evidencia puede vulnerar el debido proceso, especialmente el derecho de defensa y el principio procesal de la bilateralidad.
Por ello, se torna indispensable que los jueces exijan a las partes que ofrecen prueba algorítmica un nivel de detalle y transparencia suficiente para que esa prueba sea comprensible, verificable y sujeta al contradictorio.
Además, es recomendable que la incorporación de este tipo de evidencia sea acompañada por informes técnicos de peritos calificados que puedan explicar al tribunal, en lenguaje accesible, los aspectos esenciales del funcionamiento del algoritmo y las conclusiones alcanzadas.
Solo garantizando estos estándares mínimos es posible admitir válidamente la prueba generada por algoritmos sin comprometer las garantías del proceso y la confianza en el sistema judicial.
En ese sentido, considero que debería aplicarse un Protocolo Mínimo de Admisibilidad de Prueba Digital, cuando se trata de aquella evidencia algorítmica opaca. A modo de ensayo estimo prudente que ese protocolo plantee la exigencia de los siguientes recaudos:
- Principio rector: Toda prueba digital debe respetar las garantías de legalidad, defensa en juicio, debido proceso y contradicción. Su incorporación no puede fundarse exclusivamente en presunciones técnicas o confianza ciega en su origen informático.
- Requisitos de origen lícito y autorización judicial: La obtención debe contar con orden judicial previa, salvo en supuestos de urgencia debidamente justificados. Debe acreditarse el consentimiento informado cuando provenga de comunicaciones privadas o sistemas cerrados.
- Verificabilidad técnica: Se debe exigir la preservación de los metadatos originales y la cadena de custodia digital, mediante sellado de tiempo u otras técnicas forenses. Presentación de hashes criptográficos que permitan verificar integridad y ausencia de alteración. Los hashes criptográficos son funciones matemáticas que transforman un conjunto de datos de cualquier tamaño (por ejemplo, un archivo, un mensaje o una clave) en una secuencia corta y fija de caracteres o bits, conocida como valor hash, digest o huella digital. (Estándar técnico sugerido: Guía de Evidencia Digital del Consejo de Europa (ENISA, 2021).
- Documentación y trazabilidad: La parte oferente deberá acompañar una declaración jurada técnica que incluya:
- Medio de almacenamiento original.
- Herramientas utilizadas para su extracción.
- Condiciones en que fue recolectada la información.
- Derecho al contradictorio y a la réplica: La parte contraria tendrá derecho a analizar los archivos en idénticas condiciones, proponer peritos técnicos independientes, solicitar audiencias de impugnación de fiabilidad, con carga probatoria dinámica sobre quien la introdujo.
- Admisibilidad condicionada a fiabilidad probada: El juez deberá valorar:
- La integridad del soporte y formato.
- La posibilidad de reproducción completa en juicio.
- La explicabilidad técnica de la herramienta utilizada.
- La falta de alguno de estos requisitos podrá dar lugar a la inadmisibilidad de la prueba digital por vulneración al debido proceso.
- Control constitucional reforzado: En casos de evidencia que involucre datos personales, vigilancia, geolocalización o contenido automatizado, el juez deberá aplicar un test de proporcionalidad estricto. Se priorizará el estándar de mínima invasividad y máxima fundamentación judicial. Inspiración normativa: Art. 8 de la Convención Americana de DDHH, Fallos «Halabi» (CSJN, 2009) y doctrina de la Corte IDH.
IV. CUESTIONES CONSTITUCIONALES VINCULADAS A LA EVIDENCIA ALGORÍTMICA
La incorporación de evidencia generada por algoritmos en los procesos judiciales no es solo una cuestión técnica o procesal, sino que impacta de lleno en el plano constitucional. Los derechos y garantías que consagra nuestra Constitución Nacional se ven directamente interpelados por esta nueva realidad.
En primer lugar, el derecho de defensa y el debido proceso son pilares fundamentales que pueden verse seriamente comprometidos si no se establecen límites claros al uso de prueba algorítmica. Si las partes no pueden comprender ni cuestionar el modo en que se generó una determinada evidencia, su posibilidad de ejercer un contradictorio efectivo se ve claramente menoscabada.
En segundo término, la utilización de algoritmos plantea interrogantes vinculados a la privacidad y a la protección de los datos personales. Muchas veces, estos sistemas procesan grandes volúmenes de información, incluso datos sensibles, cuya utilización y exposición en un proceso judicial puede vulnerar la intimidad de las personas.
Por otro lado, la transparencia y la publicidad del proceso también se ven afectadas. La opacidad que caracteriza a muchos algoritmos, especialmente aquellos basados en técnicas de aprendizaje automático, puede generar una zona de oscuridad dentro del proceso, incompatible con los principios de publicidad y control social de la función judicial.
Finalmente, el principio de igualdad ante la ley y la bilateralidad que debe ser garantizada dentro del proceso judicial se encuentran en riesgo. No todas las partes en un litigio cuentan con los mismos recursos tecnológicos o conocimientos técnicos para comprender y rebatir una prueba algorítmica. Si no se establecen mecanismos claros que garanticen un acceso equitativo a la información y la posibilidad de impugnación, se corre el riesgo de generar una justicia desigual y tecnológicamente sesgada.
Frente a estos desafíos, es imprescindible que los operadores jurídicos, y en especial los jueces, adopten una actitud crítica y prudente.
No se puede perder de vista que el control constitucional sobre el proceso judicial no se limita a garantizar su existencia formal, sino que debe extenderse a asegurar la efectividad y la sustancia de los derechos involucrados. El avance de la tecnología, y particularmente de la inteligencia artificial, no puede convertirse en un atajo para vulnerar derechos fundamentales bajo la apariencia de eficiencia o modernización.
Asimismo, debe advertirse que en la actualidad el debate sobre los denominados «algoritmos opacos» trasciende el ámbito jurídico y se proyecta como una cuestión de política pública. Existe un consenso creciente en el sentido de que los sistemas que operan en la toma de decisiones o en la generación de información jurídica deben cumplir con estándares de transparencia, trazabilidad y control social.
En definitiva, el desafío que enfrenta el sistema judicial argentino, y los sistemas judiciales del mundo en general, no es solo técnico o procesal, sino profundamente constitucional. Se trata de garantizar que el proceso siga siendo un ámbito de debate transparente, contradictorio y respetuoso de las garantías, incluso en tiempos de algoritmos y automatización. La incorporación de evidencia algorítmica al proceso debe hacerse siempre en un marco que garantice plenamente los derechos y garantías constitucionales de las partes.
No podemos perder de vista que el uso de esta tecnología en el ámbito judicial debe respetar los derechos y garantías previstos en nuestra Constitución:
- El derecho de defensa y el debido proceso: todo litigante debe tener la posibilidad real de impugnar y comprender la prueba en su contra. Los algoritmos «caja negra» atentan contra esta posibilidad.
- El derecho a la privacidad y la protección de los datos personales, cuando la información procesada por algoritmos involucra datos sensibles.
- La necesidad de transparencia y control por parte de los jueces, que no pueden convertirse en meros receptores pasivos de resultados generados por sistemas cuya lógica desconocen.
Aceptar ciegamente la prueba algorítmica sin mecanismos de control claros y efectivos implicaría, en los hechos, una peligrosa renuncia a las garantías básicas del proceso. Asimismo, corresponde tener en cuenta el principio de igualdad de las partes: no todos los litigantes cuentan con los recursos técnicos para cuestionar o analizar adecuadamente una prueba de esta naturaleza.
V. JURISPRUDENCIA RELEVANTE Y TENDENCIAS COMPARADAS
Si bien la jurisprudencia argentina sobre la admisión y valoración de prueba generada por algoritmos es todavía incipiente, existen antecedentes internacionales y criterios doctrinarios que ofrecen una guía útil para comprender el estado actual y las posibles proyecciones.
En el ámbito internacional, la Unión Europea ha adoptado un enfoque pionero mediante el Reglamento General de Protección de Datos (RGPD) y, más recientemente, la propuesta de Reglamento de Inteligencia Artificial. Estas normativas exigen, entre otras cuestiones, que las decisiones automatizadas que afecten a las personas sean explicables, controlables y, en caso de ser necesario, impugnables. Este enfoque garantiza la transparencia y la rendición de cuentas en los procesos donde intervienen sistemas automatizados.
En Estados Unidos, la Corte Suprema ha establecido en el célebre caso Daubert v. Merrell Dow Pharmaceuticals, Inc. (509 U.S. 579, 1993) un estándar de admisibilidad de la prueba científica y técnica que puede extrapolarse a la prueba algorítmica. Según este criterio, el juez debe funcionar como «gatekeeper», evaluando la confiabilidad y relevancia de la prueba antes de admitirla.
Además, recientemente han comenzado a conocerse fallos donde se sanciona a profesionales del derecho por el uso irresponsable de la inteligencia artificial en la confección de escritos judiciales. Un caso emblemático se produjo en la ciudad de Nueva York, donde un fue multado por presentar un escrito con citas inventadas generadas por Chat GPT. Este precedente resalta no solo los riesgos de utilizar IA sin los debidos recaudos, sino también la necesidad de que los jueces ejerzan un estricto control sobre la calidad y veracidad de los escritos y argumentos que ingresan al proceso.
En Argentina, aunque aún no existen antecedentes judiciales directos sobre prueba generada por algoritmos, comienza a advertirse en la doctrina y en algunas resoluciones judiciales indicios de la necesidad de abordar esta cuestión. Se observa un incipiente consenso en cuanto a la necesidad de aplicar criterios de transparencia, verificabilidad y control para garantizar la validez y eficacia de este tipo de prueba.
Existen antecedentes relevantes de la Corte Suprema de Justicia de la Nación que, aunque referidos a otras manifestaciones tecnológicas, sientan principios aplicables por analogía a esta problemática.
En primer lugar, el emblemático caso Halabi, Ernesto c/ PEN – ley 25.873 – dto. 1563/04 s/ amparo (Fallos: 332:111), resuelto en el año 2009, estableció la doctrina según la cual toda interferencia estatal sobre las comunicaciones privadas o los datos personales requiere de una estricta fundamentación y control judicial previo, en resguardo de los derechos a la privacidad y a la inviolabilidad de las comunicaciones. Este precedente, aunque referido al tráfico de datos telefónicos, proyecta su vigencia sobre cualquier tipo de evidencia tecnológica que pueda vulnerar la intimidad o los derechos fundamentales, incluyendo aquella generada por sistemas algorítmicos.
Este precedente, interpretado a la luz del avance tecnológico actual, constituye un punto de partida ineludible para la futura construcción de una jurisprudencia robusta en materia de prueba algorítmica en el proceso judicial argentino.
Frente a este panorama, resulta indispensable que los tribunales argentinos se nutran de estas experiencias internacionales y avancen en la construcción de una jurisprudencia local que, sin desconocer las particularidades de nuestros sistemas procesales, permita afrontar de manera adecuada los desafíos que plantea la tecnología en la producción y valoración de la prueba.
Cabe destacar, además, que la falta de un marco jurisprudencial sólido sobre prueba algorítmica genera un escenario de incertidumbre para las partes, los abogados y los propios magistrados. La ausencia de precedentes claros puede derivar en decisiones judiciales dispares, en interpretaciones arbitrarias y, en última instancia, en una afectación al principio de seguridad jurídica.
Por ello, resulta esencial que la jurisprudencia nacional comience a sentar criterios uniformes, que establezcan parámetros claros sobre los requisitos de admisibilidad, las exigencias de transparencia, los alcances de los informes periciales y las garantías mínimas de comprensión y control que deben rodear a toda prueba generada por algoritmos.
Solo a través de un desarrollo jurisprudencial coherente y acorde a los desafíos tecnológicos se podrá garantizar que la incorporación de estos nuevos tipos de evidencia no menoscabe los principios esenciales del proceso ni erosione la confianza de la ciudadanía en la administración de justicia.
A nivel internacional, la Unión Europea ha dado pasos importantes con el Reglamento General de Protección de Datos (RGPD) y la reciente propuesta de Reglamento de Inteligencia Artificial, que expresamente buscan garantizar la explicabilidad y control de los sistemas automatizados, incluso en el ámbito judicial.
En los Estados Unidos, los criterios establecidos en el caso Daubert v. Merrell Dow Pharmaceuticals, Inc., 509 U.S. 579 (1993), exigen que toda prueba científica, incluido el uso de algoritmos, sea fiable, relevante y sometida a control judicial, lo que constituye un interesante antecedente a considerar.
VI. EL ROL DEL ABOGADO LITIGANTE Y DE LOS PERITOS EN EL MANEJO DE LA PRUEBA TECNOLÓGICA
Frente a este escenario, el abogado debe asumir un rol activo y comprometido. Ya no alcanza con conocer las normas procesales tradicionales; hoy es imprescindible:
- Familiarizarse con conceptos básicos de informática y sistemas automatizados.
- Utilizar herramientas para preservar y asegurar la integridad de la evidencia digital.
- Exigir peritajes informáticos confiables y con profesionales idóneos.
- Plantear objeciones fundadas cuando la prueba algorítmica carezca de transparencia o verificabilidad.
- Solicitar información detallada sobre el algoritmo involucrado, su funcionamiento y posibles sesgos.
- Participar activamente en la etapa de prueba pericial, formulando preguntas que apunten a esclarecer cómo se obtuvo el resultado y qué parámetros se utilizaron.
Asimismo, resulta cada vez más evidente que los jueces deberán apoyarse, de manera imprescindible, en peritos provenientes de las denominadas «ciencias duras», como actuarios, matemáticos, economistas, especialistas en informática o en inteligencia artificial. Solo a través de su intervención será posible interpretar adecuadamente la prueba ofrecida por las partes cuando esta tenga origen en complejos procesos algorítmicos. Sin ese auxilio técnico, los magistrados corren el riesgo de fallar a ciegas, sin comprender la verdadera naturaleza, alcance y limitaciones de la evidencia tecnológica.
A su vez, las pericias vinculadas a sistemas algorítmicos o a pruebas tecnológicamente complejas deberán, en el futuro, contar con un altísimo grado de control jurisdiccional y de participación activa de la parte contraria.
Esto no solo implica el derecho de las partes a controlar y cuestionar el contenido y los fundamentos de las pericias, sino también la necesidad de que los informes periciales sean redactados en un lenguaje comprensible para abogados y jueces. Se avecina un verdadero desafío terminológico, ya que la complejidad técnica de estos temas obligará a desarrollar un nuevo léxico jurídico que permita traducir y adaptar el lenguaje científico al lenguaje jurídico. Sin este esfuerzo de adaptación, la distancia entre los operadores judiciales y la tecnología se convertirá en un obstáculo insalvable para la adecuada administración de justicia.
Si pensamos en un protocolo de actuación de los operadores jurídicos en el marco de una litigación judicial, podemos ensayar el siguiente esquema al que será necesario recurrir cuando se presenta una prueba algorítmica:
Checklist para litigantes: (Solicitar + Impugnar + Acreditar)
- Solicitar: La descripción técnica del algoritmo, como la versión, los datos de entrenamiento, las métricas de precisión y un informe de impacto ético según estándares IEEE. Los estándares IEEE son normas establecidas por el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) que garantizan la calidad, seguridad, e interoperabilidad de los sistemas electrónicos. La IEEE Standards Association desarrolla normas en diversas industrias, incluyendo energía, biomedicina, tecnología de la información y telecomunicaciones. Estos estándares abarcan aspectos como la seguridad eléctrica y el control de la interferencia electromagnética, y están compuestos principalmente de normas y especificaciones.
- Impugnar: Ante los errores estadísticos, como por ejemplo los falsos positivos en reconocimiento facial o el sesgo discriminatorio, debe validarse con herramientas como AI Fairness 360, que es una herramienta de código abierto desarrollada por IBM Research que ayuda a examinar, informar y mitigar la discriminación y el sesgo en modelos de aprendizaje automático y proporciona métricas y algoritmos para evaluar y mitigar los sesgos en los algoritmos de IA.
- Acreditar: Mediante el informe técnico de un perito en ciencia de datos y un abogado especializado en derecho digital. Estos protocolos deberán estar estandarizados mediante un checklist mínimo para impugnar resultados algorítmicos, acompañados de un formulario técnico-jurídico para fundar la impugnación, a modo de un «habeas data algorítmico», de forma tal que respondan los siguientes interrogantes:
- ¿El sistema fue certificado por un ente oficial?
- ¿Puede explicarse su decisión de forma trazable?
- ¿Existe riesgo de sesgo sobre el grupo afectado?
- ¿Puede replicarse su output con los mismos datos?
El rol de los peritos en la validación y explicación de la evidencia algorítmica:
El rol de los peritos en el contexto de la evidencia algorítmica es clave para garantizar que esta nueva clase de prueba respete los principios del debido proceso. En función de este ensayo me atrevo a afirmar que su intervención debe necesariamente cumplir tres funciones centrales:
- Validadores técnicos independientes: Los peritos deben actuar como auditores externos del algoritmo, y tener la capacidad para verificar la trazabilidad del sistema, es decir, qué datos lo entrenaron y con qué sesgos potenciales. A su vez, deben evaluar la consistencia y la precisión, o sea, medir los márgenes de error existentes, y los falsos positivos o negativos. Finalmente, en mi opinión, deberán estar capacitados para analizar los registros que componen el modelo algorítmico y sus modificaciones.
Podemos afirmar que, sin una peritación externa e independiente, la evidencia algorítmica se asemeja a una fórmula mágica incuestionable, ajena al contradictorio probatorio.
- Traductores epistemológicos: Deben ser capaces de traducir el lenguaje técnico del sistema algorítmico a categorías comprensibles para los jueces, fiscales y abogados litigantes, y en especial, para las partes procesales y la sociedad civil en contextos de impacto público. Esto implica generar informes explicativos accesibles, diagramas de influencia, análisis de variables clave y explicaciones en lenguaje natural.
- Garantizadores del contradictorio técnico: Los peritos también deben replicar los resultados del algoritmo en entornos controlados, interrogar a los desarrolladores, o técnicos que participaron en el sistema, emitir dictámenes en disidencia si encuentran fallas metodológicas o sesgos estructurales.
Para esto, sería altamente conveniente avanzar en la creación de una nueva figura procesal: el Perito Judicial Especializado en Evidencia Algorítmica, certificado por colegios técnicos y jurídicos.
Perfil Profesional del Perito Judicial Especializado en Evidencia Algorítmica
- Definición del rol:
El perito algorítmico debe ser un profesional técnico-jurídico cuya función será analizar, validar y traducir técnicamente los resultados, procedimientos y riesgos asociados al uso de sistemas automatizados o de inteligencia artificial en procesos judiciales.
Deberá actuar como intérprete y garante epistemológico entre el sistema algorítmico y el operador jurídico.
- Requisitos de formación académica:
- Formación básica interdisciplinaria:
- Licenciatura en informática, ingeniería en sistemas, ciencia de datos o afines.
- Conocimientos en derecho procesal, constitucional y probatorio.
- Formación complementaria obligatoria:
- Certificación oficial en «Peritaje Algorítmico Judicial», avalada por universidades públicas o colegios técnicos.
- Cursos en ética de la inteligencia artificial, sesgo algorítmico y gobernanza de inteligencia artificial.
- Competencias técnicas clave
- Lectura y análisis de código fuente en Python, R, Java o equivalente.
- Uso de frameworks de interpretabilidad: LIME, SHAP, DALEX, AI Fairness 360, etc. LIME (Local Interpretable Model-Agnostic Explanations) es una técnica que permite explicar de manera local el comportamiento de un modelo de machine learning, independientemente de su complejidad o tipo. SHAP (SHapley Additive exPlanations) es un enfoque basado en la teoría de los valores de Shapley de la teoría de juegos, que proporciona explicaciones consistentes y matemáticamente sólidas sobre las predicciones de los modelos de machine learning. DALEX (Descriptive mAchine Learning EXplanations) es un conjunto de herramientas para explicar y auditar modelos predictivos.AI Fairness 360 (AIF360), es un toolkit desarrollado por IBM que permite evaluar, entender y mitigar los sesgos algorítmicos en sistemas de inteligencia artificial y machine learning.
- Comprensión de estructuras de aprendizaje automático: modelos supervisados, redes neuronales, random forests, etc.
- Evaluación de sesgos (demográficos, de clase, de entrenamiento, etc).
- Análisis de logs, métricas de precisión, validación cruzada y robustez.
- 4. Habilidades jurídicas complementarias
- Redacción de informes en lenguaje técnico-jurídico comprensible.
- Comparecencia en audiencias públicas y privadas como auxiliar de justicia.
- Conocimiento del principio de contradicción y del rol del perito como tercero neutral.
- Capacidad para identificar violaciones a garantías procesales por opacidad algorítmica.
- 5. Funciones procesales específicas
- Dictamen técnico sobre la prueba algorítmica en cuanto a fiabilidad, explicabilidad y ausencia de sesgos.
- Replicación controlada del resultado algorítmico en bancos de prueba («sandbox judicial»).
- Análisis de trazabilidad: revisión de los datasets, etapas de entrenamiento y versiones del modelo.
- Asesoramiento a jueces y litigantes en decisiones sobre admisibilidad o exclusión probatoria.
- Condiciones éticas y de imparcialidad
- Neutralidad técnica en su dictamen, sin relación contractual previa con los desarrolladores del sistema.
- Compromiso de confidencialidad sobre secretos comerciales, respetando el contradictorio técnico.
- Obligación de declarar cualquier conflicto de interés.
VII. PROPUESTAS DE MODIFICACIONES LEGISLATIVAS
Desde este humilde ensayo, considero que una reforma de los códigos de procedimientos será imprescindible en el corto plazo. En dichas reformas deberán incluirse normas como las siguientes:
- La prueba algorítmica como un medio probatorio autónomo.
- La obligación de acompañar, junto con toda prueba algorítmica, un informe de explicabilidad.
- La inversión de la carga probatoria: quien presenta una prueba originada en algoritmos de IA, debe acreditar su fiabilidad.
- Sanciones procesales si se niega acceso técnico a las partes.
Con estas herramientas, el proceso no sólo se tornaría más transparente, sino también más equilibrado y respetuoso del derecho a defensa. A su vez, en función a que se torna absolutamente justificada la necesidad de legislar sobre la materia sobre la que versa este ensayo, considero que es necesaria la sanción de una ley específica que reglamente el uso de la IA en los procesos judiciales.
En primer lugar, es innegable que la irrupción de los sistemas automatizados y la inteligencia artificial (IA) en el proceso judicial plantean un desafío inédito para los principios rectores del debido proceso, la igualdad de las partes, el control de la prueba y la garantía de defensa en juicio. La opacidad inherente a muchos de estos sistemas-especialmente aquellos basados en machine learning-genera zonas de incertidumbre que amenazan con erosionar la transparencia probatoria y el control jurisdiccional efectivo.
Una iniciativa legislativa en tal sentido encuentra sustento en los artículos 18 y 75 inciso 22 de la Constitución Nacional, que consagran los derechos al debido proceso y a un juicio justo, así como en los artículos 8.1 y 25 de la Convención Americana sobre Derechos Humanos. En este sentido, la Corte IDH ha sostenido que «la posibilidad de ejercer la defensa requiere conocimiento suficiente sobre la evidencia utilizada en contra del imputado» (Caso Barreto Leiva v. Venezuela, 2009).
Por otra parte, como señala Gastón Bielli en su trabajo «Inteligencia artificial en el poder judicial» (Revista del Poder Judicial, 2022), «el uso de algoritmos opacos en sede judicial amenaza con sustituir el razonamiento humano por un cálculo estadístico no verificable». Esta afirmación, compartida por múltiples voces doctrinarias (Fundar, 2023; AIDCA, 2024), pone en evidencia la necesidad urgente de contar con una norma clara que establezca requisitos técnicos, procesales y éticos para la admisión de prueba algorítmica.
Los sistemas de decisión automatizada presentan altos riesgos de sesgo y error. Estudios empíricos como los del MIT Media Lab han demostrado que ciertos algoritmos de reconocimiento facial presentan tasas de falsos positivos superiores al 35% en poblaciones racializadas (Buolamwini & Gebru, 2018).
En el plano comparado, países como Canadá (Algorithmic Impact Assessment Tool, Gobierno de Canadá, 2021), Francia (Ley nº 2016-1321) y la Unión Europea (Reglamento (UE) 2024/1689) han avanzado en la adopción de marcos normativos orientados a la auditabilidad, explicabilidad y certificación previa de sistemas de alto impacto.
Los principios rectores que deberían estar incluidos en una norma de esta naturaleza deben sentarse sobre la base de los siguientes principios:
- Transparencia algorítmica verificable.
- Derecho al contradictorio técnico.
- Certificación previa obligatoria.
- Inversión de la carga de la prueba.
- Sanciones por opacidad deliberada.
- Creación de órganos técnicos independientes.
Tales principios coinciden con los estándares internacionales promovidos por la OCDE (Principios sobre IA, 2019) y con los lineamientos del Centre for Data Ethics and Innovation del Reino Unido (2021).
Ejemplos de Legislación comparada:
Nueva York – Ley de Transparencia Algorítmica (2018). Fue pionera al exigir que las agencias públicas informen sobre los sistemas automatizados que usan para tomar decisiones que afecten a los ciudadanos. Aunque tuvo limitaciones, abrió el camino para debates legislativos más robustos.
Canadá – Evaluación de Impacto Algorítmico (AIA). Todo sistema automatizado usado por el gobierno federal debe pasar por una AIA, que incluye una matriz de riesgos, documentación pública y revisión ética. Es un modelo replicable para Latinoamérica.
Países Bajos – Registro de IA en Ámsterdam y Helsinki. Estas ciudades publican un «catálogo abierto» de algoritmos utilizados por el gobierno, con descripciones, objetivos, datos de entrenamiento y responsables técnicos. Es una forma concreta de rendición de cuentas.
Reino Unido – Estándares de Transparencia Algorítmica (2021). Desarrollados por el Centre for Data Ethics and Innovation, estos estándares guían a las agencias públicas para documentar y explicar sus sistemas de IA. Incluyen plantillas para informes accesibles al público.
Francia – Transparencia en decisiones administrativas. La ley francesa obliga a que cualquier decisión automatizada que afecte derechos individuales sea explicada en lenguaje claro, incluyendo la lógica del algoritmo.
Reglamento de IA de la Unión Europea (2024). Prohíbe el uso de sistemas de «puntuación social» y exige transparencia reforzada para sistemas de alto riesgo, como los usados en justicia penal o migraciones.
En el ámbito nacional, la Asociación Iberoamericana de Derecho Constitucional Algorítmico (AIDCA, 2023) propone una cláusula de reversión probatoria para garantizar que el usuario del algoritmo demuestre su validez epistémica y jurídica.
En opinión del suscripto, un proyecto normativo de esta naturaleza garantiza que la incorporación tecnológica al proceso judicial se someta a los principios del Estado de Derecho. Sin control técnico ni contradicción efectiva, la evidencia algorítmica corre el riesgo de instalar un «automatismo probatorio» incompatible con las bases republicanas del debido proceso y demás garantías constitucionales.
Propuesta a modo de ensayo de un modelo regulatorio de la prueba algorítmica en el marco de un proceso judicial:
«Régimen de Transparencia y Control de la Prueba Algorítmica»
Objeto. Establecer estándares de transparencia, auditabilidad y control judicial aplicables a toda evidencia producida o evaluada mediante sistemas automatizados o algoritmos de inteligencia artificial (IA), cuando sea utilizada como prueba en procesos judiciales.
Definiciones:
- Sistema Algorítmico: Conjunto de instrucciones o modelos computacionales, sean deterministas o basados en IA, utilizados para producir datos, clasificaciones, predicciones o decisiones.
- Explicabilidad: Capacidad del sistema para brindar una justificación comprensible de sus resultados o decisiones.
- Auditabilidad: Posibilidad de verificar de forma independiente el diseño, funcionamiento, datos y salidas del sistema.
Declaración jurada de transparencia. Toda parte que ofrezca prueba generada por sistemas algorítmicos deberá acompañarla de una declaración jurada que contenga: a) Identificación del sistema, versión y propietario. b) Métodos de entrenamiento y fuentes de datos utilizadas. c) Métricas de precisión, márgenes de error y análisis de sesgos. d) Informe de explicabilidad en lenguaje natural.
Inversión de la carga de la prueba. Será carga de la parte que introduce la prueba algorítmica demostrar que: a) El sistema fue previamente validado o certificado por un organismo competente. b) El sistema no presenta sesgos discriminatorios que afecten el derecho a defensa o la igualdad procesal. c) La decisión automatizada es replicable y verificable.
Derecho al contradictorio técnico. Las partes tendrán derecho a: a) Replicar los resultados del sistema mediante bancos de prueba controlados. b) Interrogar peritos técnicos, desarrolladores y proveedores del algoritmo. c) Designar peritos en ciencia de datos y auditoría algorítmica.
Homologación estatal previa. Sería altamente conveniente crear un organismo autónomo encargado de:
- Certificar sistemas algorítmicos antes de su uso en sede judicial.
- Emitir dictámenes técnicos sobre explicabilidad, trazabilidad y riesgo de sesgo.
- Gestionar el Registro Nacional de Algoritmos Judiciales.
Prohibición de uso sin certificación. Ninguna prueba generada mediante sistemas algorítmicos podrá ser valorada en juicio si no ha sido certificada por el organismo autónomo o un ente equivalente, salvo que medie situación de urgencia o medida cautelar debidamente fundada.
Sanciones. El uso deliberado de sistemas no auditables o no certificados dará lugar a: a) Inadmisibilidad de la prueba. b) Multas procesales en proporciones al valor del proceso. c) Eventual responsabilidad penal por falsedad u obstrucción.
Hasta tanto se conforme el organismo que homologue los sistemas algorítmicos, el Ministerio de Justicia podría designar universidades públicas o comisiones técnicas como órganos de validación provisoria.
VIII. LA FORMACIÓN UNIVERSITARIA DE LOS ABOGADOS ANTE EL NUEVO PARADIGMA TECNOLÓGICO
Finalmente, no puede soslayarse que los desafíos que plantea la incorporación de la inteligencia artificial y los algoritmos en el ámbito judicial exigen repensar de manera urgente los contenidos de las carreras de abogacía en nuestras facultades de Derecho. El perfil tradicional del abogado litigante, formado mayormente en humanidades y ciencias sociales, debe complementarse con sólidos conocimientos en nuevas tecnologías, informática, análisis de datos y nociones básicas de estadística y lógica algorítmica.
El futuro, que ya está entre nosotros, impone que los profesionales del Derecho estén preparados para comprender e intervenir en procesos judiciales atravesados por tecnologías complejas.
No se trata de convertir a los abogados en ingenieros o programadores, pero sí de dotarlos de las herramientas conceptuales necesarias para que puedan comprender el funcionamiento básico de los algoritmos, detectar posibles sesgos, cuestionar pericias técnicas y ejercer su rol de defensores de derechos de manera eficaz.
En este contexto, resulta indispensable que las universidades adecuen los planes de estudio de las carreras de abogacía, incorporando de forma transversal contenidos vinculados a derecho digital, inteligencia artificial, ética tecnológica, prueba electrónica y aspectos técnicos básicos que permitan a los futuros abogados desenvolverse en un escenario donde los procesos judiciales ya no pueden comprenderse ni resolverse únicamente desde una perspectiva jurídica clásica.
Sin una revisión profunda de la formación universitaria de los abogados, se corre el riesgo de que quienes egresen de nuestras facultades no estén debidamente preparados para afrontar los nuevos desafíos de la litigación en un mundo crecientemente automatizado y digitalizado.
Cabe señalar que, actualmente, la mayoría de las facultades de Derecho en nuestro país ni siquiera incluyen en sus programas de estudio nociones básicas de contabilidad, lo que provoca que un abogado al momento de egresar no se encuentre en condiciones técnicas de analizar adecuadamente los estados contables de una empresa. Esta carencia formativa, que ya es preocupante en el ámbito comercial y societario, se tornará aún más grave si no se corrige de cara a un futuro en el que la comprensión de datos, estadísticas y estructuras complejas será una habilidad esencial para el ejercicio profesional.
Frente a esta problemática, será necesario aplicar innovaciones en formación jurídica, como cursos obligatorios de algoritmos para juristas, ética computacional y realizar talleres de simulaciones prácticas de impugnación de evidencia IA con plataformas como Mock Algorithmic Trial o cualquier otro que software de IA que puede ensayar juicios simulados con abogados.
Finalmente, en mi opinión, habrá que contar con una certificación profesional que sea otorgada por entidades habilitadas a tal fin y crear la figura del Perito en Evidencia Algorítmica avalado por colegios profesionales. A su vez, se tornará ineludible, tener una capacitación que ponga énfasis en la formación de la alfabetización algorítmica para jueces, fiscales, defensores y litigantes, incluyendo planes de estudio con asignaturas como «Argumentación jurídica frente a la evidencia automatizada».
De esa manera se podrá garantizar que las partes entiendan e impugnen la prueba generada por sistemas automatizados mediante algoritmos de IA ya que estarán dotados de una combinación de herramientas técnicas, por ejemplo, LIME (Local Interpretable Model-agnostic Explanations) como ya hemos mencionado, que es una biblioteca que brinda una explicación interpretable del modelo y permite comprender qué características están influyendo en la predicción de un modelo y explica por qué ciertas muestras pueden ser erróneamente clasificadas. Con esta herramienta se logra obtener una visión detallada de cómo las diferentes características contribuyen a la salida final del modelo, es decir, es una herramienta que permite traducir las decisiones del algoritmo a lenguaje natural. También serán de utilidad las interfaces gráficas simplificadas (gráficos de árbol, mapas de calor, rankings de variables) para ilustrar qué factores influyeron en el resultado e informes obligatorios adjuntos a la prueba que detallen los siguientes elementos:
- Tipo de sistema utilizado.
- Margen de error estadístico y variables críticas.
- Fuentes de datos y fecha de entrenamiento.
IX. CONSIDERACIONES ÉTICAS Y SOCIALES SOBRE LA EVIDENCIA GENERADA POR ALGORITMOS
Más allá de los aspectos jurídicos y técnicos, no puede soslayarse la dimensión ética y social que implica la incorporación de algoritmos y sistemas de inteligencia artificial en los procesos judiciales. El uso de estas tecnologías, si bien promete mayor eficiencia y agilidad, también conlleva riesgos que merecen una reflexión profunda.
En primer lugar, existe el peligro de despersonalizar el proceso judicial, delegando en sistemas automatizados la valoración de prueba o incluso la toma de decisiones que, por su propia naturaleza, deben conservar un componente humano. El juez no puede convertirse en un mero validador de resultados generados por algoritmos cuya lógica le es ajena.
Asimismo, numerosos estudios han demostrado que los algoritmos pueden, consciente o inconscientemente, reproducir y amplificar sesgos existentes en la sociedad. Si los datos utilizados para entrenar un sistema presentan distorsiones o prejuicios, es probable que los resultados también lo hagan, afectando así los derechos de las personas involucradas.
Por otra parte, se corre el riesgo de que la búsqueda de eficiencia y rapidez termine sacrificando la calidad de la justicia y el respeto por las garantías fundamentales. El uso indiscriminado o irreflexivo de tecnología en el ámbito judicial podría erosionar la confianza pública en el sistema y profundizar las desigualdades.
Por todo ello, resulta imperativo que la incorporación de algoritmos al proceso judicial se realice con un enfoque ético riguroso, garantizando siempre:
- La primacía de la decisión humana sobre la automatizada.
- La transparencia y explicabilidad de los sistemas utilizados.
- El control judicial efectivo y la posibilidad de cuestionamiento por las partes.
- La evaluación constante de los impactos sociales de estas tecnologías.
Cabe agregar que, si bien es cierto que en el proceso civil y comercial argentino no se persigue la verdad material absoluta, sino únicamente una verdad formal construida sobre la base de los hechos y pruebas que las partes llevan al proceso, lo cierto es que la irrupción de la prueba basada en algoritmos introduce un factor de complejidad que trasciende ese esquema tradicional.
Más grave es la situación en el seno de un proceso penal, en donde el objeto final es precisamente la búsqueda de la verdad material. Es en este contexto entonces donde el uso indiscriminado y sin control de la IA puede distorsionar el resultado de la investigación y concluir con sentencias arbitrarias, alejadas de la realidad.
Por esas cuestiones es que hacemos hincapié en que la utilización de sistemas algorítmicos en la producción o valoración de prueba judicial abre la puerta, en la práctica, a interpretaciones impensadas y a posibles manipulaciones de los resultados, que pueden distorsionar el objeto mismo de los procesos judiciales y, en definitiva, afectar gravemente el servicio de Justicia.
Ejemplos prácticos:
- En un juicio de alimentos, la parte actora presenta como prueba, un reporte sobre la capacidad económica del deudor alimentario generado por una aplicación de inteligencia artificial gratuita descargada de internet. Este informe, sin intervención humana aparente, concluye que la persona demandada tiene alta capacidad económica para afrontar una cuota alimentaria elevada basándose en datos como su perfil de redes sociales, fotos en lugares turísticos y supuestas publicaciones de consumo de productos de lujo. El problema radica en que no se explica cómo el algoritmo ponderó esos datos, no se conoce qué criterios aplicó para determinar la supuesta capacidad económica, no se garantiza que la información utilizada sea veraz o actualizada, y no se ofrece posibilidad técnica para que el juez o la parte contraria auditen el funcionamiento del sistema. En conclusión, ese informe algorítmico, si bien puede resultar impactante o persuasivo a primera vista, carece de los requisitos mínimos de transparencia, verificabilidad y control, y, por lo tanto, su incorporación en el proceso como prueba debería ser inadmisible o, al menos, estar sujeta a un estricto análisis y control jurisdiccional, con intervención de peritos especializados.
- En un proceso judicial donde se discute la responsabilidad civil emergente de un accidente de tránsito una de las partes ofrece como prueba un informe elaborado por un sistema inteligente, es decir, un software basado en inteligencia artificial que, a partir del análisis de imágenes de cámaras de seguridad, datos de geolocalización de los vehículos y registros de velocidad, determina que la responsabilidad corresponde al conductor demandado.
En este caso el problema surge cuando se advierte que dicho informe no explica de qué manera el sistema ponderó los distintos datos, ni aclara qué criterios aplicó el algoritmo para llegar a la conclusión final, ni detalla si el sistema consideró, por ejemplo, factores climáticos, condiciones del asfalto o el estado de los vehículos, es decir, no permite a las partes ni al juez auditar o comprender mínimamente el funcionamiento interno del algoritmo, y en definitiva se trata de un resultado algorítmico que, si bien puede presentarse como concluyente o técnicamente sofisticado, carece de transparencia, comprensibilidad y posibilidad de control. En tales condiciones, su valor probatorio resulta sumamente cuestionable y su admisión en el proceso debería ser, como mínimo, objeto de un análisis riguroso y de la producción de pericias técnicas que permitan garantizar el respeto de las garantías procesales.
Además, cualquier apartamiento del juez respecto del marco fáctico delineado por las partes podría implicar una vulneración del principio procesal de congruencia. Sin embargo, si los algoritmos comienzan a introducir en el proceso información procesada o interpretada de forma opaca o incomprensible para las partes y el juez, se corre el riesgo de desdibujar los límites de la verdad procesal y generar situaciones que comprometan los principios de igualdad y contradicción.
Frente a este escenario, se torna aún más imprescindible fortalecer los controles, la transparencia y los mecanismos de interpretación accesible de los resultados algorítmicos, para evitar que la sofisticación tecnológica se transforme en un factor de opacidad y de injusticia.
Además, la incorporación de la IA en la elaboración de escritos y argumentos procesales plantea un nuevo riesgo para la integridad del procedimiento.
Los jueces deben ejercer un control estricto para evitar que los abogados formulen presentaciones judiciales generadas por inteligencia artificial sin contar con el conocimiento adecuado para validarlas. La tecnología debe estar al servicio de la verdad y la justicia, no sustituirlas ni desvirtuarlas.
También debe tenerse en cuenta el enorme desafío ético que supone el llamado «sesgo algorítmico». Este fenómeno, ampliamente documentado, implica que los sistemas de inteligencia artificial pueden, sin intención explícita, reproducir o incluso amplificar desigualdades estructurales preexistentes en la sociedad. Si un algoritmo es entrenado con datos sesgados -por ejemplo, en materia de género, clase social o etnia-, los resultados que produzca estarán inevitablemente contaminados por esos mismos prejuicios, con el agravante de que su carácter aparentemente objetivo y automático puede tornarlos más difíciles de detectar y cuestionar.
Por otra parte, el uso acrítico de algoritmos puede erosionar la confianza pública en el Poder Judicial. Si los ciudadanos perciben que las decisiones judiciales se basan en sistemas opacos, incomprensibles y potencialmente sesgados, es esperable que se resienta la legitimidad social de los fallos y se genere un efecto de deshumanización de la justicia.
Todo lo expuesto pone en evidencia que el debate sobre la incorporación de algoritmos al proceso judicial no es meramente técnico o legal, sino que involucra valores fundamentales como la igualdad, la transparencia, la dignidad de las personas y la confianza en las instituciones.
Por ello, las consideraciones éticas deben ocupar un lugar central en la regulación, el diseño y el control de estos sistemas, con un enfoque que privilegie siempre el respeto por los derechos humanos y los principios democráticos. Solo así será posible aprovechar sus beneficios sin comprometer los valores esenciales del Estado de Derecho.
Además, no puede pasarse por alto el debate sobre la responsabilidad por los daños que eventualmente pudieran generar los algoritmos dentro de los procesos judiciales. ¿Quién responde si un sistema automatizado arroja un resultado erróneo que conduce a una decisión judicial injusta? ¿El programador, la empresa proveedora del software, el juez que lo admitió como prueba? Estos interrogantes, aún abiertos, exigen una reflexión urgente, ya que la incorporación acrítica de tecnologías complejas, sin asignación clara de responsabilidades, puede dar lugar a escenarios de total impunidad tecnológica.
Corresponde, por otra parte, destacar que la ética judicial y profesional debe actualizarse a los tiempos tecnológicos. Los códigos de ética, tanto de magistrados como de abogados, deberán incorporar directrices específicas para el uso responsable y transparente de la inteligencia artificial en el ámbito judicial. Solo así se podrá garantizar que estas herramientas, lejos de ser utilizadas como atajos para evadir el esfuerzo argumental o la responsabilidad profesional, se integren al proceso como instrumentos válidos, pero siempre bajo estricto control y subordinadas a los valores rectores del Derecho.
La reflexión ética sobre la utilización de algoritmos y sistemas de inteligencia artificial en el ámbito judicial no puede limitarse a un análisis técnico o funcional. En realidad, se trata de un debate profundamente vinculado a los valores esenciales que sustentan al Estado de Derecho, como la dignidad humana, la igualdad, la transparencia y la confianza social en las instituciones.
Numerosos estudios han advertido que los sistemas automatizados, lejos de ser neutrales u objetivos, tienden a reproducir los sesgos, prejuicios y desigualdades presentes en los datos con los que son entrenados (Buolamwini & Gebru, 2018; Floridi et al., 2018).
Esta circunstancia, en el ámbito judicial, no solo afecta el derecho de defensa y el debido proceso, sino que compromete la legitimidad misma de las decisiones judiciales, en la medida en que se construyen, al menos en parte, sobre resultados generados por procesos opacos e incomprensibles para los afectados.
Además, el riesgo de despersonalización de la justicia es un desafío real y preocupante. Como señala Virginia Dignum (2019), «los sistemas de IA carecen de la capacidad de comprender contextos complejos, valores morales y matices sociales que son inherentes a la deliberación humana».
Si los jueces y operadores jurídicos se limitan a convalidar sin control los productos de estos sistemas, se corre el peligro de sustituir el razonamiento jurídico por un mero cálculo estadístico, despojando al proceso de su dimensión humana y racional.
Por ello, es éticamente imperativo que todo uso de tecnología en el proceso judicial esté sometido a estrictos principios de transparencia, explicabilidad, rendición de cuentas y supervisión humana. La incorporación acrítica o desregulada de algoritmos no solo amenaza las garantías individuales, sino que también socava la confianza social en la Justicia, que es un pilar indispensable de toda democracia.
La justicia moderna debe servirse de la tecnología, pero sin abdicar de su esencia: ser una actividad humana, racional y guiada por principios, no un ejercicio automático subordinado a los dictados de un software.
X. CONCLUSIÓN
El proceso judicial argentino se encuentra en una encrucijada. La tecnología y los algoritmos de la IA ya forman parte de la realidad probatoria, pero el sistema normativo y los operadores jurídicos no siempre están preparados para enfrentarlos adecuadamente.
Este trabajo pretende ser un llamado de atención y un aporte para promover una evolución del derecho procesal que permita, sin menoscabo de las garantías fundamentales, incorporar de manera responsable y eficiente la evidencia generada por algoritmos.
Solo así, a través de un enfoque técnico-jurídico riguroso, acompañado de reformas legislativas y formación continua, será posible alcanzar una justicia verdaderamente moderna, confiable y respetuosa de los derechos constitucionales.
El avance de la tecnología y la aplicación de algoritmos en el ámbito judicial es inevitable, pero su incorporación no puede hacerse a cualquier costo. El desafío consiste en lograr un equilibrio: aprovechar los beneficios de la tecnología sin sacrificar las garantías constitucionales ni la confiabilidad del proceso.
Es imperioso que el legislador argentino y los operadores judiciales aborden esta problemática de manera integral.
Resulta necesario reformular los marcos normativos, establecer estándares técnicos claros y, sobre todo, capacitar a los profesionales del derecho para que puedan desenvolverse con solvencia en esta nueva realidad.
Dentro de ese proceso de adecuación legislativa, se impone también la necesidad de revisar y modernizar los códigos procesales, que, en su mayoría, fueron concebidos en un contexto tecnológico radicalmente distinto al actual. Solo mediante una profunda actualización normativa que contemple específicamente los desafíos que plantea la inteligencia artificial y la prueba algorítmica, podremos garantizar un proceso justo, equilibrado y respetuoso de los derechos fundamentales.
El proceso judicial argentino necesita evolucionar, pero debe hacerlo de manera consciente, informada y respetuosa de los principios que sustentan nuestro Estado de Derecho. Solo así lograremos una justicia moderna, confiable y verdaderamente al servicio de los ciudadanos.
En definitiva, si algo debe quedar claro al abordar la incorporación de algoritmos y sistemas automatizados en el proceso judicial es que la tecnología no puede, bajo ningún concepto, erigirse en un sustituto del razonamiento humano ni del control judicial efectivo.
El riesgo del denominado «automatismo probatorio» no es una mera hipótesis teórica, sino una amenaza concreta que puede cristalizarse si se admite de manera acrítica o complaciente evidencia generada por sistemas cuya lógica, funcionamiento y sesgos son desconocidos o incomprensibles para las partes y para el propio juez.
La sofisticación tecnológica, lejos de garantizar por sí misma mayor verdad o justicia, puede convertirse en un factor de opacidad, desigualdad y deshumanización del proceso.
Por ello, resulta indispensable que los jueces recuperen y ejerzan plenamente el control epistémico del proceso, esto es, la capacidad y la responsabilidad de comprender, interrogar y valorar críticamente los medios probatorios que se presentan, sin delegar ciegamente esa función en herramientas algorítmicas que, por muy avanzadas que sean, carecen de la dimensión axiológica y prudencial inherente a la función jurisdiccional.
La Justicia debe servirse de la tecnología, pero jamás subordinarse a ella. Solo así será posible garantizar que el proceso siga siendo un ámbito de debate racional, transparente y respetuoso de los derechos fundamentales, y no un escenario dominado por cálculos automáticos que, amparados en su aparente objetividad, terminen erosionando las bases mismas del Estado de Derecho.
Fuentes consultadas:
- Lorenzetti, Ricardo L., Inteligencia Artificial y Derecho, Rubinzal-Culzoni, Santa Fe, 2021.
- Reglamento (UE) 2016/679 (RGPD) y propuesta de Reglamento Europeo de Inteligencia Artificial, Comisión Europea, 202 1.
- Badeni, Gregorio, «Convención Americana sobre Derechos Humanos y la Corte Suprema de Justicia», La Ley, 2009. («La obligatoriedad de los fallos de la corte interamericana.»)
- Criterios de la Corte Suprema de Estados Unidos en Daubert v. Merrell Dow Pharmaceuticals, Inc., 509 U.S. 579 (1993), sobre admisibilidad de prueba científica.
- Bielli, G. (2022), «El ingreso de evidencia digital sin control jurisdiccional previo podría tornar inválida la prueba por violación constitucional».
- «Explainability Statement» exigido por el Gobierno del Reino Unido (CDEI, 2021) es una buena práctica replicable.
- Asociación Iberoamericana de Derecho Constitucional Algorítmico (AIDCA, 2023), «Estándares para el peritaje en IA judicial».
- (2023). Estándares para el peritaje en inteligencia artificial judicial. Asociación Iberoamericana de Derecho Constitucional Algorítmico.
- Bielli, G. (2022). Inteligencia artificial en el poder judicial. Revista del Poder Judicial, 49(1), 32-48.
- Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1-15.
- ca. (2021). Algorithmic Impact Assessment Tool. Gobierno de Canadá. https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use- i/algorithmicimpact-assessment.html
- Centre for Data Ethics and Innovation. (2021). Explaining Decisions Made with AI. Gobierno del Reino Unido.
- Diario Oficial de la Unión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de marzo de2024, sobre inteligencia artificial. DOUE L 89, 1-104. https://www.boe.es/buscar/doc.php?id=DOUE-L-2024-81079
- (2023). Derecho de acceso a la información pública en las colectividades territoriales de Francia.https://dialnet.unirioja.es/descarga/articulo/9547191.pdf
- (2021). Good Practices on the Secure Use of Evidence in Digital Forensics. European Union Agency for Cybersecurity.
- (2023). Recomendaciones para la regulación de sistemas algorítmicos en el ámbito judicial. Documento de trabajo. Harvard Law Review. (2017). State v. Loomis, 130 Harv. L. Rev. 1530. https://harvardlawreview.org/print/vol-130/state-v-loomis/ – MIT Media Lab. (2020). Algorithmic Justice League: Metrics and Bias Research.
- (2018). Nueva York es la primera gran ciudad que quiere combatir la discriminación algorítmica. https://www.xataka.com/legislacion-y-derechos/humanos-monitorizando-algoritmos-si-en-nueva-york-ya-quieren-co batir-la discriminación algorítmica Ambientum. (2023). Registro abierto de inteligencia artificial. https://www.ambientum.com/ambientum/tecnologia/registro-abiertode-inteligencia-artificial.asp
- Diario TI. (2022). El Reino Unido lanza normativa contra los prejuicios de la IA. https://diarioti.com/el-reino-unido-lanzanormativa-contra-los-prejuicios-de-la-ia/118094
- Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1-15.
- Dignum, V. (2019). Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way.
- Floridi, L., Cowls, J., Beltrametti, M., et al. (2018). AI4People-An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28(4), 689-707.
————
(*) Abogado egresado de la Facultad de Derecho de la Universidad de Buenos Aires (1995). Posee formación de posgrado y especialización en Derecho de Seguros y Derecho Procesal. Se desempeñó como Docente de «Derecho Procesal Civil y Comercial» en la Facultad de Derecho y Ciencias Sociales de la UBA, integrando las cátedras de los Dres. Fernando de la Rúa y Julio J. Martínez Vivot. A lo largo de su trayectoria profesional, ocupó cargos directivos como Gerente de Legales en diversas compañías de seguros y reaseguros en la Ciudad de Buenos Aires. Actualmente se dedica al ejercicio profesional independiente y a la consultoría jurídica especializada para el sector asegurador y reasegurador. Asimismo, es autor de obras de ficción, habiendo publicado las novelas El Reloj de Sol (2019) y La Constelación Imaginada (2023), ambas bajo el sello editorial Autores de Argentina.