por el Dr. Jorge Antonio Di Nicco[1]

La utilización de la Inteligencia Artificial en el ejercicio de la profesión no deja de acarrear sorpresas. En dos oportunidades traté aquí sobre el particular de la Inteligencia Artificial[2], y ahora acerco un nuevo caso producido ahora en los Estados Unidos.

Según puede observarse de publicaciones en la web, un abogado estadounidense se enfrenta a posibles sanciones después de haber usado el popular ChatGPT para redactar un escrito y luego descubrirse que la aplicación de Inteligencia Artificial se había inventado toda una serie de supuestos precedentes legales.

El letrado representa al demandante en un proceso que se dirime en un Tribunal de Nueva York. El actor es un pasajero que acciona contra una aerolínea asegurando que sufrió una lesión al ser golpeado con un carrito de servicio durante un vuelo.

En un escrito de diez páginas en el que se oponía a una solicitud de la defensa para que el caso fuese desestimado, el abogado utilizó para la elaboración del mismo al ChatGPT, conocido chatbot de la compañía OpenAI. En dicho instrumento el abogado citaba varias decisiones judiciales para apoyar sus tesis, las cuales no tardó en descubrirse que ChatGPT se las había inventado.

El juez escribió que “la Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes»; y emitió una orden convocando a una audiencia para el día 8 de junio de este 2023 en la que el abogado deberá tratar de explicar por qué no debería ser sancionado después de haber tratado de usar supuestos precedentes totalmente falsos.

Esto lo hizo el juez después que el mismo abogado presentase una declaración jurada en la que admitió haber usado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales. Se justificó asegurando que nunca antes había usado una herramienta de este tipo y que, por tanto, no era consciente de la posibilidad de que su contenido pudiese ser falso. A su vez, subrayó que no tenía ninguna intención de engañar al tribunal y exculpó totalmente a otro abogado del bufete que se expone también a posibles sanciones. El citado escrito se cierra con una disculpa en la que el letrado lamenta profundamente haber usado Inteligencia Artificial para apoyar su investigación y promete no hacerlo nunca más sin verificar totalmente su autenticidad.

Al margen de cómo se resuelva la cuestión[3], sea que el abogado resulte sancionado o no, lo cual, a mi humilde parecer, pasa a un segundo plano, lo que no es admisible es darle a una herramienta de asistencia y ayuda en la diaria labor profesional una dimensión que no posee, o que no debería poseer. Todo dato o antecedente suministrado por la Inteligencia Artificial debe ser corroborado por el profesional del derecho. Caso contrario, podemos estar ante escritos judiciales o sentencias que sean obras literarias de ficción y no verdaderas labores jurídicas.

Solicitar a la Inteligencia Artificial que agilice la búsqueda de antecedentes y datos sobre un caso determinado no significa que ello no deba ser corroborado, que no deba ser revisado y que sea aceptado sin plantearse la menor duda al respecto. En todo ser humano siempre la posibilidad de error está latente, ¿por qué la Inteligencia Artificial va a estar exenta de ello?

Si aquello que uno mismo busca y escribe debe ser, o debería ser, revisado antes de su presentación, por qué no debería serlo aquello que otro, como la Inteligencia Artificial, busca y escribe por nosotros.

Que la Inteligencia Artificial no nos prive de pensar, de crear, de razonar, de discernir. Si ello no es así, en vez de ser la Inteligencia Artificial una ayuda y una asistencia para nosotros, nosotros pasaremos a ser algo inútil y descartable para la Inteligencia Artificial. El tiempo nos dirá en cuál realidad estaremos, si es que, en un futuro más cercano que lejano, seguimos conservando la capacidad de pensar y entender por sí mismo. Que un desarrollo no lleve de la mano a una involución.

><<<

[1] Director Adjunto del Instituto de Derecho Eclesiástico y Canónico. Autor de La “canonización” de las leyes civiles: concepto, condiciones y particularidades. La temática en relación con nuestro ordenamiento estatal, ED, 267-797, “La legislación canónica: Derecho vigente para el ordenamiento jurídico argentino. Sus particularidades”, Revista Mexicana de Derecho Canónico 22/1 (2016) 109- 128 y “La observancia del derecho canónico con el nuevo Código Civil y Comercial de la Nación”, ED, 263-922, entre otras publicaciones referidas a la temática.

[2] Véase  https://camoron.org.ar/nuevas-normas/doctrina-cam/su-senoria-y-a-mayor-abundamiento-la-inteligencia-artificial-dice-una-sentencia-de-la-justicia-colombiana/ y https://camoron.org.ar/nuevas-normas/doctrina-cam/inteligencia-artificial-y-sentencias-panorama-en-la-justicia-de-china/

[3] Este trabajo se redactó y se envió para su evaluación antes de que se conozca la decisión adoptada, dado que en la audiencia realizada el 8 de junio no se resolvió la aplicación o no de sanciones, según lo que se desprende de la información periodística (https://www.forbesargentina.com/innovacion/alucinaciones-ia-abogado-uso-chatgpt-corte-cito-casos-falsos-puede-ser-duramente-sancionado-n35098).

ÚLTIMAS NOTICIAS

Entrevistas CAM: Dr Juan Antonio Navarro, Vicepresidente de nuestro Colegio

Entrevistas CAM: Dr. Cristian Callegari, presidente de la Comisión de Deportes del CAM

Un divorcio sin abogados… y sin convenio regulador

PRÓXIMOS EVENTOS

DIPLOMATURA UNIVERSITARIA EN PREVISIÓN SOCIAL – IPS Y ANSES

CURSO DE INICIACIÓN PROFESIONAL: Ejecución de Honorarios

Reuniones de Institutos: Comercial, Concursal y Sociedades/ Consumidor/ Ciencia, Tec e Innovación

NOVEDADES JURÍDICAS

Superintendencia de Riesgos del Trabajo: 82 días de demora se merecen esta multa

FILOCAM, la Revista de nuestro Instituto de Filosofía del Derecho

LA ADECUACIÓN DE LOS CONJUNTOS INMOBILIARIOS A LA LUZ DE LA RESOLUCIÓN 25/20 (I.G.J.)