Tendencias

Abogados usan ChatGPT en caso y ahora deben responder por los errores de la IA

28/05/2023 - Hace 12 meses en Internacional

Abogados usan ChatGPT en caso y ahora deben responder por los errores de la IA

Tendencias | 28/05/2023 - Hace 12 meses
Abogados usan ChatGPT en caso y ahora deben responder por los errores de la IA

El uso de la inteligencia artificial en el mundo laboral ha demostrado ser una revolución por completo en muchos trabajos. Para muchos, se ha convertido en ese asistente ahora indispensable en sus labores; mientras que otros la ven como un atajo para sortear las labores más aburridas de una actividad. Cualquiera que sea tu caso, es importante estar al tanto de lo que la IA hace por nosotros, ya que no querrás ser el próximo en vivir lo que unos abogados tuvieron que pasar por utilizar erróneamente ChatGPT.

De acuerdo con el reporte original hecho por The New York Times (vía The Verge), un grupo de abogados presentaron recientemente un informe en su caso en contra de la aerolínea colombiana Avianca. En este documento, recopilaban una serie de casos similares que apoyaban su postura, citando cada uno de ellos en todo el texto.

Aunque desde fuera esta descripción suene como un buen trabajo, en realidad había un gran problema con el documento. Y es que, como indicó el juez de distrito estadounidense Kevin Castel, todo el reporte estaba lleno de citas falsas: «Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas».

 

Siempre revisa dos veces lo que produce ChatGPT

Debido a esto, el juez ordenó llamar a los abogados para solicitar una respuesta antes de tomar cartas en el asunto. Es ahí cuando Steven A. Schwartz, miembro del grupo, admitió haber utilizado ChatGPT en la elaboración del caso. Schwartz habría utilizado la herramienta de OpenAI para investigar sobre casos relacionados al suyo para apoyar su postura.

Haciendo caso a la solicitud, la IA respondió con algunas sugerencias, listando varios casos que el abogado tomó y añadió al documento sin hacer una verificación. Al final, la información ofrecida por la IA era falsa, ya que toda la había inventado.

Ahora, los abogados de la firma enfrentan un grave problema, ya que se les podría inculpar por falsificar evidencia en una investigación. Una acusación de este tipo incluso podría hacerles perder sus capacidades de ejercer profesionalmente.

 

Podría interesarte:

Síguenos en: Google News Notigram
Autor
Foto del avatar

Emmanuel Febles

Lic. en Literatura Latinoamericana. Creador de contenido internacional, nacional y geek.

Últimas Noticias icon arrow right

Electrocutado cayó de una pipa y falleció

Nota Roja | Durango Estado

Electrocutado cayó de una pipa y falleció

Electrocutado cayó de una pipa y falleció, al momento de realizar sus labores durante […]

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Notigram