Manantial Radio
Internacional

Abogado utilizó el ChatGPT para demandar a Avianca, pero fue engañado, ¿qué fue lo que paso?

Al parecer, un abogado decidió utilizar la inteligencia artificial para investigar y presentar pruebas en el caso, pero al final fue descubierto.

No cabe duda que la inteligencia artificial está de moda alrededor del mundoHasta los profesionales también la utilizan para su trabajo, como fue el caso de un abogado que lo hizo para su beneficio.

Pero no todo es color de rosa. En medio del proceso legal que cursaba, se dieron cuenta de que utilizó ChatGPT para recaudar información en una demanda contra la empresa Avianca.

Pero, ¿qué fue lo que paso?

El abogado de un hombre que demandó a Avianca en un caso rutinario de lesiones personales utilizó ChatGPT para preparar un escrito, pero el bot de inteligencia artificial proporcionó casos falsos que el abogado presentó ante el tribunal, por lo que terminó siendo descubierto en pleno caso.

En resumen, se trató del caso de un hombre llamado Roberto Mata, que alegaba que fue “golpeado por un carrito de servicio de metal” a bordo de un vuelo en 2019 durante un vuelo al Aeropuerto Internacional Kennedy en Nueva York y sufrió lesiones personales.

Después de recibir una respuesta negativa, los abogados de Mata, entre ellos Steven Schwartz, prepararon una defensa mostrando varios casos similares que habían sucedido para evidenciar que estos sucesos sí pueden ser tomados como lesiones personales.

Cuando el abogado se dispuso a presentar los otros ejemplos por medio de un escrito, el tribunal encontró varias inconsistencias y se dieron cuenta de que los “antecedentes” no existían. Además, lo más grave del asunto es que estos supuestos casos tenían citas y referencias falsas, que había creado ChatGPT.

De acuerdo con el medio Forbes Colombia, que se puso en contacto con los representantes legales de Avianca, El uso de ChatGPT fue descubierto después de que los abogados de la aerolínea no pudieran encontrar algunos de los documentos judiciales de los casos a los que el equipo de Mata se refería, y presentaron una solicitud pidiendo más información sobre ellos.

Por su parte, el juez del caso, Kevin Castel, determinará si las sanciones impuestas para el abogado son suficientes. También si se aplicarán solo para él, o también acogerán a su equipo de abogados que estuvieron en el caso del señor Mata, según Forbes.

Tras conocerse el caso de este abogado, él mismo firmó una declaración jurada admitiendo que utilizó el chatbot de IA, pero afirmó que no tuvo la intención de engañar al tribunal y no actuó de mala fe, por lo que no debería ser sancionado.

Por su parte, el abogado Schwartz concluyó al final de este escrito que no comprendía que ChatGPT “no era un motor de búsqueda, sino una herramienta de procesamiento de lenguaje generativo”.

Al final, esto llevo a que un juez considerara sanciones para el abogado mientras la comunidad legal trata con uno de los primeros casos de “alucinaciones” de la Inteligencia Artificial en un tribunal.

FUENTE EL COLOMBIANO