OpenAI afronta una demanda de 10 millones de dólares por asesorar jurídicamente a una usuaria de ChatGPT | Empresas

El uso de la inteligencia artificial (IA) para resolver dudas de cualquier índole se ha consolidado como una herramienta habitual en la sociedad. Sin embargo, expertos y estudios en materia han alertado de contrastar la veracidad de las respuestas. En el ámbito legal, como en otros muchos, el uso de herramientas de IA generativas puede conllevar riesgos significativos, como la invención de jurisprudencia o confusión en la aplicación de normativas. Esto mismo es lo que ha llevado a la aseguradora japonesa Nippon Life Insurance a demandar a OpenAI, el desarrollador de ChatGPT, y reclamar más de 10 millones de dólares (unos 8,64 millones de euros al cambio actual) por ofrecer asesoramiento legal a un antigua beneficiara de una póliza de seguros que decidió reabrir un pleito, pese a haber firmado previamente un acuerdo que impedía dicha acción.

La demanda, con fecha del pasado 4 de marzo y consultada por este periódico, se ha presentado ante el Tribunal del Distrito Norte de Illinois y acusa a la compañía de Sam Altman de intervenir ilícitamente en sus contratos, ejercer la abogacía sin la autorización estatal y abuso de proceso. El escrito afirma que, a través de sus respuestas, ChatGPT asesoró a una usuaria a la que indujo a incumplir un contrato y promover otros litigios sin fundamento.

OpenAI actualizó a finales de octubre de 2025 sus políticas de uso para restringir que su chatbot no ofrezca asesoramiento personalizado en los ámbitos médico, legal y financiero. Pero los hechos por los que la filial estadounidense de la aseguradora nipona ha ido a los tribunales tuvieron lugar justo antes. La disputa comenzó en 2022 cuando la titular de una póliza de incapacidad demandó a Nippon Life por la suspensión de los pagos del seguro, al entender que su inhabilitación laboral había concluido.

Ambas partes llegaron a un acuerdo de conciliación, en enero de 2024, por el que la compañía pagó una cantidad a la asegurada, a cambio de que esta pusiera fin a todos los procedimientos judiciales. Sin embargo, la antigua clienta de Nippon no quedó conforme y, tras comunicar sus discrepancias a sus abogados, un año más tarde consultó a ChatGPT. Como resultado de sus interacciones con la inteligencia artificial, la usuaria despidió al equipo legal contratado para este asunto ―después de que la IA respondiera afirmativamente a sus preguntas sobre si la estaban manipulado emocionalmente― e intentó anular el acuerdo firmado con Nippon y reabrir la demanda, a pesar de que el pacto lo impedía, relata el escrito.

Así, en enero de 2025, la exclienta de Nippon acudió a los tribunales, representándose a sí misma, para plantear una moción redactada por ChatGPT contra la aseguradora. A esta acción judicial le siguió otra demanda contra las entidades vinculadas a la compañía de seguros, Davies Life & Health y Allsup, a los que acusa de fraude.

Aunque un tribunal de Illinois ha rechazado reabrir la causa, al confirmar que el acuerdo de conciliación firmado era válido, Nippon ha demandado a OpenAI para reclamar una compensación por todo el tiempo que ha dedicado en defenderse en estos litigios. Así, solicita daños compensatorios de 300.000 dólares (unos 259.737 euros, al cambio) por los gastos legales causados incurridos en los intentos de reapertura del caso cerrado, y daños punitivos por el importe de 10 millones, además de todas las costas y honorarios.

Invención de argumentos legales

En su demanda, la compañía de seguros asegura que la usuaria se apoyó en “argumentos legales erróneos o inventados” que le habría proporcionado ChatGPT para argumentar sus nuevas reclamaciones, lo que en el argot se conoce como “alucinaciones”. Entre estas alegaciones, la usuaria incluyó en sus escritos referencias a precedentes judiciales inexistentes o citas que corresponde a otras causas.

“ChatGPT estaba al tanto del acuerdo de conciliación entre las partes. Sin embargo, generó argumentos jurídicos y prestó asistencia en la redacción de documentos que alentaron y reforzaron el deseo de impugnar el acuerdo. Esta asistencia incluyó la formulación de argumentos jurídicamente cuestionables y la redacción de una moción en la que solicitaba una reparación incompatible del acuerdo, utilizada finalmente en un intento de incumplir sus términos”, explica la demanda.

En esta línea, Nippon sostiene que ChatGPT actuó, al menos hasta las restricciones implementadas a finales del año pasado, como un “asistente y asesor legal” al proporcionar análisis, investigación y redacción de documentos jurídicos, para lo cual no está habilitado. Muestra de ello, dice, son las “alucinaciones” que ofreció a la usuaria, porque son reflejo de que “el sistema está programado para intentar razonar y generar argumentos legales para mantener el compromiso del usuario”. Con ello, concluye que OpenAI debe responsabilizarse de estos hechos porque, al ser su desarrollador, “es cómplice en la prestación de servicios legales no autorizados”.

About The Author

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

BUGA.COM.CO

Tu sitio

Buga

An elegant and minimalistic theme, which is predominantly designed for a web news portal and magazine with an immense research on contemporary online newspapers. With the help of available customizer options and widgets, you can implement layouts as a trending news journals, modern fashion magazine, travel blogging & magazine, clean and minimal news sites, blogging site and even more. The theme is SEO friendly with optimized codes and awesome supports.

M7 Social

M7 Social Subtitle