El abogado en tiempos recientes ha logrado adaptarse a los cambios tecnológicos que hacen del ejercicio profesional un servicio más eficiente y sobre todo diligente. Es el caso del internet que, a principios de la década de los años 90, revolucionó la manera de llevar la práctica del derecho, en especial para los litigantes.
Al día de hoy los estudiantes, pasantes y litigantes del derecho no compran los códigos en físico y a la espera de revisar las actualizaciones fiscales o de alguna otra materia, ni checan los acuerdos judiciales presencialmente, ahora lo tienen a disposición con un clic del teléfono.
Claramente esto repercutió en una práctica legal más eficiente y diligente en favor de las personas que requieren servicios legales, por razón de tiempo y seguridad, lo cual ofrece mayor certeza y transparencia, porque la información que puede revisar nuestro abogado, igualmente lo puede revisar cualquier persona con acceso a internet. Al haber más acceso a la información, hay más control.
Las nuevas generaciones de abogados tienen toda la información necesaria en la palma de su mano para hacer una mejor práctica legal. Hasta aquí todo es beneficio para todos los involucrados.
Ahora, se presenta un nuevo reto tecnológico: el de la inteligencia artificial. Todo sistema de I.A. necesita ser entrenado y alimentado con una megabase de datos. Y aquí es en donde empiezan los problemas.
Parte del problema es que se desconocen cuáles son las fuentes de los datos con los que se nutren estas plataformas; los desarrolladores no lo hacen público y esto no es bueno, porque podemos estar consumiendo información chatarra que puede generar lo opuesto a lo que buscamos, con mala información, subinformación o desinformación.
Mucha de la información que usan los programas de I.A. provienen de datos privados, protegidos por derechos de privacidad. Al igual, mucha de la información utilizada viola derechos de autor (libros, cuadros, códigos informáticos, etc.)
El caso más importante sobre violaciones de derechos de privacidad es la demanda colectiva de personas representadas por Clarckson Law Firm contra OpenAI y Microsoft. Se argumenta que la base de datos de ChatGPT ha utilizado millones de datos privados para entrenarse. Estas demandas han causado que la Comisión Federal de Comercio de los EUA (FTC, por sus siglas en inglés) presentara una investigación reciente, para solicitar a OpenAI que demuestre con qué datos entrenó a ChatGPT. Al respecto, este viernes pasado, la administración Biden anunció que hay mutuo acuerdo voluntario entre 7 compañías desarrolladoras de I.A. para salvaguardar derechos de seguridad y protección.
Lo que advierten los expertos es que las plataformas de I.A. no son malignas per se; ya que solamente cumplen con el funcionamiento por el que fueron creados: dar respuesta en tiempo real a una solicitud de información. Lo que no dicen es que pueden mentir y crear situaciones inexistentes. El mejor ejemplo es el caso de Mata v. Avianca, Inc., No. 1:2022cv01461 - Document 54 (S.D.N.Y. 2023) donde el abogado del demandante presentó un documento citando casos ficticios generados por ChatGPT. Obviamente el juez al conocer la demanda y las imprecisiones que ofrecía, desechó la acción al tiempo de sancionar al abogado por irresponsable.
I.A. es una herramienta, tal como lo es el internet; que no remplazará al abogado serio y comprometido, pero el riesgo estará presente para muchos otros abogados que trabajan bajo la ley del mínimo esfuerzo y que les facilite su trabajo sin que revisen los contenidos de la I.A.
Como sea, la I.A. llegó para quedarse entre nosotros, esperando que sea una herramienta que nos auxilie como complemento y no como factor determinante con el cual se pretenda buscar y hacer justicia basado en el algoritmo y no en el sentido común, conocimiento y ética profesional.