Regresar

Abogado en problemas por confiar en ChatGPT durante juicio

5 de junio

Regresar Regresar

Abogado en problemas por confiar en ChatGPT durante juicio

5 de junio

Al parecer algunos profesionales aún no entienden para qué pueden y no pueden utilizar ChatGPT

Según The New York Times, los abogados que representan a Avianca, la aerolínea colombiana, recibieron un documento legal del abogado contrario que referencia una serie de casos anteriores. Sin embargo, se reveló que estos casos fueron fabricados por ChatGPT, un modelo de lenguaje de IA. El juez federal de distrito Kevin Castel reconoció que seis de los casos mencionados en el documento eran completamente ficticios, incluidas citas falsas y citas internas. Como resultado, se programó una audiencia para discutir posibles sanciones contra los abogados de los demandantes.

En una declaración jurada, el abogado Steven A. Schwartz reconoció que había utilizado el chatbot de OpenAI para su investigación. Para autenticar los casos, recurrió a un curso de acción lógico: preguntó directamente al chatbot si estaba proporcionando información precisa o no.


Al solicitar una fuente, ChatGPT lamentó cualquier malentendido anterior y afirmó con confianza la autenticidad del caso mencionado, afirmando que podría ubicarse en bases de datos legales acreditadas como Westlaw y LexisNexis. Contento con esta respuesta, el abogado procedió a indagar sobre la validez de los casos restantes, a lo que ChatGPT sostuvo que todos ellos eran genuinos.

El abogado contrario llevó el asunto meticulosamente a la atención del tribunal, brindando un relato completo de cómo la presentación de los abogados de Levidow, Levidow & Oberman estaba repleta de falsedades. Un ejemplo notable fue la inclusión de un caso inexistente llamado Varghese v. China Southern Airlines Co., Ltd., donde el chatbot parecía aludir a un caso genuino, Zicherman v. Korean Air Lines Co., Ltd. Sin embargo, el chatbot citó incorrectamente la fecha, sugiriendo incorrectamente que se decidió 12 años después de su decisión original de 1996, junto con otros detalles erróneos.

Schwartz dice que "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso". Ahora “lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada aquí y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad”.

Schwartz, que no está autorizado para ejercer la abogacía en el Distrito Sur de Nueva York, inició inicialmente la demanda antes de que fuera transferida a ese tribunal específico. A pesar de esta limitación, Schwartz afirma haber seguido involucrado en el caso. Sin embargo, otro abogado de la misma firma, Peter LoDuca, asumió como representante legal oficial del caso. Será necesario que LoDuca comparezca ante el juez y brinde una explicación sobre las circunstancias del caso.

Etiquetas: Abogado ChatGPT Inteligencia Artificial