El uso ético de la inteligencia artificial en la abogacía no es solo una cuestión técnica, sino una profunda interpelación a los valores que sostienen el ejercicio del derecho como arte, política, ética y acción, como bien lo planteaba Eduardo Juan Couture Etcheverry, jurista uruguayo.
La IA ética exige supervisión humana. Debe ser auditada y supervisada por profesionales humanos. No puede sustituir el juicio ético ni la interpretación jurídica. Los algoritmos deben ser comprensibles, evitando las “cajas negras” que dificultan la rendición de cuentas.
Así, el abogado sigue siendo responsable del contenido generado o asistido por IA. No se puede delegar la toma de decisiones ni la firma de documentos sin revisión crítica. Citas falsas o “alucinaciones” de IA pueden constituir faltas éticas graves, como ocurrió en el caso de un abogado sancionado por presentar jurisprudencia inexistente.
Se requiere, asimismo, confidencialidad y protección de datos.
Es esencial garantizar la privacidad de la información sensible, evitar subir expedientes o datos personales a plataformas sin garantías de seguridad. El secreto profesional debe mantenerse incluso frente a herramientas tecnológicas.
Asimismo, la mitigación de sesgos y discriminación es esencial. Los sistemas de IA pueden replicar sesgos históricos si no se entrenan con datos diversos y éticamente curados. La falsa sensación de neutralidad algorítmica es uno de los riesgos más insidiosos.
La ética enfatiza formación continua y marco normativo. La abogacía debe actualizarse en tecnologías jurídicas, ciberseguridad y ética digital. Se requieren regulaciones claras que obliguen a auditar los algoritmos y establecer límites al uso automatizado en procesos judiciales.
Los límites estructurales de la IA en el Derecho son:
Interpretación jurídica compleja: La IA no comprende el contexto histórico, político o filosófico detrás de una norma. Puede identificar patrones, pero no interpretar con sensibilidad jurídica.
Juicio ético y ponderación: No puede realizar juicios morales ni ponderar derechos en conflicto. La justicia requiere deliberación, no solo correlación estadística.
Creatividad argumentativa: La IA no innova doctrinas ni construye argumentos disruptivos. Su razonamiento es inductivo, no dialéctico.
Responsabilidad legal: No puede asumir responsabilidad jurídica. Las decisiones deben ser atribuibles a personas físicas o morales.
La IA también presenta límites éticos y deontológicos como:
Deshumanización del proceso judicial: Automatizar decisiones puede erosionar la empatía, la escucha activa y el trato digno.
Sesgos algorítmicos: Si se entrena con datos sesgados, puede reproducir discriminaciones estructurales.
Opacidad algorítmica: Muchos sistemas son “cajas negras” que dificultan la rendición de cuentas.
Privacidad y confidencialidad: El manejo de expedientes por IA exige garantías robustas de protección de datos.
Aun así, no deben olvidarse sus usos legítimos y complementarios como la automatización de tareas repetitivas, el análisis predictivo que estimar probabilidades de éxito procesal, siempre como herramienta auxiliar y el acceso a la justicia mediante chatbots jurídicos que pueden orientar a personas sin recursos, pero esto no implica sustituir asesoría profesional.
Rector del Colegio Jurista