La irrupción de la inteligencia artificial (IA) generativa en los tribunales argentina expuso graves fallas de gobernanza, falta de transparencia y vacíos en ciberseguridad, según un informe privado.
La Justicia argentina, un sistema complejo y federal que abarca 25 jurisdicciones con recursos y realidades dispares, se enfrenta a una coyuntura crítica.
Si bien la inteligencia artificial generativa se vislumbra como una herramienta esencial para mejorar la eficiencia y la baja credibilidad social del Poder Judicial, su implementación avanza de manera informal y desordenada.
Un reciente diagnóstico impulsado por el Centro de Estudios en Tecnología y Sociedad (CETyS) de la Universidad de San Andrés, en el marco del proyecto «América latina ante la encrucijada de la IA generativa», subraya la urgencia de establecer marcos de acción claros y políticas institucionales definidas.
El informe alerta que la ausencia de estas directrices fomenta un uso reactivo y fragmentado de la tecnología, con graves riesgos para el sistema.
Frentes críticos de tensión en la Justicia
El estudio identificó tres áreas principales de tensión que exigen una respuesta inmediata para garantizar una adopción responsable de la inteligencia artificial generativa en el ámbito judicial:
Gobernanza y gestión de datos
Es la mayor preocupación entre los actores judiciales. El riesgo radica en subir información sensible a empresas tecnológicas privadas, muchas de las cuales operan sin sede local y se rigen por legislaciones extranjeras.
A esto se suma la falta de claridad sobre los datos utilizados para entrenar los modelos, lo que impacta directamente en la aplicabilidad de las respuestas a la normativa nacional.
Mecanismos de transparencia y responsabilidad
La urgencia de definir quién es responsable por el mal uso de la inteligencia artificial y cómo se auditan sus resultados. Expertos sugieren que este puede ser el punto de partida más sencillo, anclando las responsabilidades funcionales en los marcos normativos ya existentes.
Ciberseguridad: La gran ausente
Este aspecto crítico está «notablemente ausente» en la discusión. La Argentina carece de una política integral de ciberseguridad y sus marcos regulatorios sobre datos personales están desactualizados, un problema estructural que se agrava con la adopción de la inteligencia artificial.
El peligro del «uso indiscriminado» de la inteligencia artificial
El riesgo más significativo es la proliferación de iniciativas personales e informales por parte de los operadores judiciales. En la mayoría de las jurisdicciones, prevalece una política de «tolerancia», llevando a que muchos casos de uso sean decisiones individuales sin la debida supervisión.
Este descontrol ya tuvo consecuencias concretas. La investigadora María Pilar Llorens, líder del informe, citó la anulación de una sentencia por parte de la Cámara Penal de Esquel (Chubut) debido al uso indebido de la inteligencia artificial generativa en su redacción. Este caso es emblemático, porque ocurrió pese a la existencia de directivas éticas previas.
La falta de un análisis crítico y de capacitación adecuada llevará a un uso «cada vez más constante y poco o nada reflexivo», comprometiendo la imparcialidad y la calidad de las decisiones judiciales.
Recomendaciones para una hoja de ruta responsable
Para encauzar la implementación de la inteligencia artificial, el CETyS estableció un conjunto de medidas clave que la Justicia argentina debe abordar:
- Evaluar necesidades reales: El primer paso es realizar un mapeo imparcial de los problemas y necesidades que la IA debe solucionar, incluyendo la participación de operadores, técnicos y sociedad civil.
- Priorizar herramientas preexistentes: Antes de implementar soluciones complejas, se debe priorizar la automatización de tareas con herramientas más sencillas, menos costosas y que muchos juzgados ya poseen.
- Definir roles y casos de uso: Las decisiones deben ser orgánicas e institucionales. Es fundamental conformar equipos de decisores tecnológicos y establecer qué usos son aceptables (por ejemplo, resúmenes) y cuáles son inaceptables (por ejemplo, redacción de sentencias).
- Capacitación obligatoria: Se requiere formación enfocada en desmitificar la herramienta, enseñando a los operadores que los modelos son predictivos y «no piensan por sí mismos», sino que buscan patrones lingüísticos.
- Fomentar la sinergia interdisciplinaria: La adopción responsable exige una mirada integral, con diálogo entre los múltiples actores del ecosistema judicial para mitigar riesgos éticos y sesgos algorítmicos.
En contraste con países como Brasil, que lidera en madurez institucional y regulación, la Argentina se encuentra rezagada, sin un proyecto nacional unificado debido a su configuración jurídica federal.
Desde el CETyS aseguraron que La regulación y los marcos institucionales no son un freno a la innovación, sino la garantía de que la eficiencia judicial no socave los derechos fundamentales.
Nota de R.: Este artículo acerca de la inteligencia artificial en la Justicia fue publicado originalmente en iProfesional.
Si te gustó o sirvió algo que publiqué, te ofrezco dos alternativas para agradecer y permitir la continuidad de mi trabajo en Bahía César:
Te invito a suscribirte gratis al boletín semanal de Bahía César para recibirlo en tu correo electrónico. Ingresa tu e-mail aquí.









