Martes 23 de Abril de 2024







 30/05/2023 - TECNOLOGÍA
Un abogado usó ChatGPT para una demanda: el bot inventó media docena de antecedentes legales

En el documento generado por el chabot se incluyeron antecedentes legales inexistentes. El letrado dijo luego que no estaba al tanto de que el programa también emplea información falsa.


ChatGPT vuelve a protagonizar un acontecimiento polémico, esta vez en el ámbito judicial. Según informó The New York Times, un integrante del estudio de abogados en Estados Unidos fue sancionado por usar el chatbot para redactar un informe legal que incluyó antecedentes inventados por el programa de inteligencia artificial (IA).


ChatGPT inventó causas judiciales como antecedentes


El abogado que está bajo escrutinio por emplear el bot de OpenAI para la redacción de un informe es Steven Schwartz, que integra el estudio neoyorkino Levidow, Levidow and Oberman. El letrado apeló al software con IA en una demanda a la aerolínea de origen colombiano Avianca, en representación de un cliente que alega haber sufrido heridas en un vuelo con destino al Aeropuerto Internacional John F. Kennedy, en Nueva York.


¿Por qué Schwartz echó mano a ChatGPT para la redacción del documento? De acuerdo a la fuente, la compañía colombiana solicitó a un juez federal que desestime el caso y los abogados del demandante presentaron como respuesta un escrito de 10 páginas para que la causa se mantenga en pie en función de una serie de antecedentes. El problema es que el chatbot inventó más de media docena de casos citados en el informe.


“No estaba al tanto de que ChatGPT genera contenido falso”, dijo el abogado


En una declaración luego de que se conociera su proceder, Schwartz comentó que apeló al bot de OpenAI para “complementar” su investigación.


 Para desprevenidos, ChatGPT es un poderoso sistema que opera con IA que acapara la atención pública por sus numerosas habilidades, que emulan una serie de capacidades hasta hace poco exclusivas de los humanos. Por ejemplo, redacta textos coherentes, resuelve problemas matemáticos, escribe código de programación, y mantiene conversaciones naturales. Pero no todos son encantos: el uso del chatbot (y de otros sistemas de IA similares) involucra riesgos, reconocidos incluso por sus creadores.

 

Uno de los inconvenientes con este tipo de tecnologías que generan contenido es la fiabilidad de la información, tanto la que emplean como punto de partida, así como los resultados que arrojan. En tal pantano quedó atascado el abogado del bufete neoyorkino. “No estaba al tanto de la posibilidad de que el contenido de ChatGPT pudiera ser falso”, dijo Schwartz, que compartió capturas de pantalla en las que se muestra que preguntó al software si los casos citados eran reales, con respuestas afirmativas del bot.


Las disculpas del abogado que usó ChatGPT en un informe judicial y la posible sanción


Schwartz se disculpó públicamente por emplear el chatbot para la elaboración del documento y señaló que volverá a hacerlo sin verificar cada uno de los datos incluidos. Amén de su arrepentimiento, un juez que supervisa el caso ordenó una audiencia que se celebrará el 8 de junio para evaluar sanciones al letrado, en lo que describió como una “circunstancia sin precedentes”.




Tal como observa el sitio Engadget, conforme muchas personas temen que programa como ChatGPT roben los trabajos, para Schwartz esa pesadilla podría convertirse en realidad, aunque por razones diferentes.







 











PINAMAR24 EN FACEBOOK


© 2022 - PINAMAR 24
PROPIETARIO: DIEGO ANDRES URIBE
DIRECTOR GENERAL: DIEGO ANDRES URIBE
FECHA 23/04/2024 EDICIÓN: NÚMERO
DOMICILIO LEGAL: JASON 429 PINAMAR
REGISTRO DNDA EN TRÁMITE