.jpg)
La aseguradora Nippon Life Insurance Company of America ha presentado una demanda ante el Tribunal Federal del Distrito Norte de Illinois (Estados Unidos) contra OpenAI Foundation y OpenAI Group PBC, las entidades responsables del desarrollo y operación de la inteligencia artificial ChatGPT.
En su escrito de demanda, la compañía reclama 300.000 dólares (258.165 euros) en concepto de daños compensatorios y 10 millones de dólares (8,6 millones de euros) en daños punitivos, además de la condena al pago de las costas y honorarios de abogados.
Nippon Life sostiene que el sistema de inteligencia artificial proporcionó asistencia jurídica a una cliente, lo que habría facilitado que esta intentara reabrir un litigio que ya había sido resuelto mediante un acuerdo de transacción entre las partes.
Según la demanda, ChatGPT habría ayudado a Graciela Dela Torre, cliente de la aseguradora, a redactar escritos procesales y documentos jurídicos, utilizados posteriormente en actuaciones judiciales dirigidas a reactivar el procedimiento.
Lo que obligó a la compañía a dedicar importantes recursos a responder a nuevas actuaciones judiciales, generando costes legales estimados en unos 300.000 dólares.
La compañía demandante solicita asimismo que el tribunal declare que la actividad desarrollada por el sistema constituye práctica no autorizada de la abogacía en el estado de Illinois, al haber generado asesoramiento y documentación jurídica sin contar con licencia para ejercer la profesión.
El caso se remonta a un litigio previo entre Nippon Life y De la Torre, beneficiaria de una póliza de incapacidad laboral a largo plazo.
La mujer había presentado una reclamación por incapacidad en 2019 alegando sufrir síndrome del túnel carpiano y epicondilitis.
La aseguradora aprobó inicialmente la solicitud, pero en 2021 decidió cancelar los beneficios al considerar que ya no cumplía con los criterios de discapacidad establecidos en la póliza.
Dela Torre demandó a la empresa en diciembre de 2022, pero el conflicto terminó con un acuerdo extrajudicial firmado en enero de 2024.
La demandante aceptó desistir definitivamente del caso a cambio de un pago de conciliación. El tribunal federal cerró el procedimiento pocos días después.
Según la demanda, en enero de 2025 Dela Torre comenzó a utilizar ChatGPT para analizar su situación legal después de expresar dudas a su abogado sobre el acuerdo alcanzado.
Tras intercambiar mensajes con el chatbot sobre el caso, la demandante decidió despedir a su abogado y continuar el litigio por su cuenta.
La aseguradora afirma que la IA de OpenAI proporcionó investigación jurídica, análisis legal, asesoramiento y borradores de escritos judiciales, que la demandante utilizó para presentar una moción para reabrir el proceso invocando la Regla 60(b) del procedimiento civil federal.
El tribunal rechazó esa solicitud en febrero de 2025, señalando que el acuerdo alcanzado entre las partes seguía siendo válido y que el intento de reabrir el caso respondía únicamente a un cambio de opinión de la demandante.
A pesar de la decisión judicial, Nippon Life sostiene que Dela Torre continuó presentando numerosos escritos ante el tribunal —incluidas decenas de mociones, peticiones y solicitudes— que, según la empresa, fueron elaborados con la ayuda de ChatGPT.
La demanda de Nippon Life contra OpenAI Foundation y OpenAI Group PBC incluye tres acusaciones principales: interferencia ilícita en un contrato, por supuestamente inducir el incumplimiento del acuerdo de conciliación; ejercicio no autorizado de la abogacía, al proporcionar análisis y asesoramiento legal sin licencia y abuso del proceso judicial, al facilitar la presentación de escritos que la empresa considera frívolos o improcedentes.
La aseguradora también afirma que algunos de esos documentos incluían citas jurídicas inexistentes, lo que atribuye a las llamadas “alucinaciones” de los modelos de lenguaje, cuando la inteligencia artificial genera información que parece verosímil pero no corresponde a hechos reales.
El litigio plantea cuestiones legales novedosas sobre el papel de la inteligencia artificial en el sistema judicial.
El caso podría convertirse en un precedente relevante sobre la responsabilidad de las empresas tecnológicas cuando sus sistemas de inteligencia artificial son utilizados para generar documentos o estrategias legales dentro de un proceso judicial.
Fuente: Confilegal

14 de Abril
13 de Abril
QUIÉNES SOMOS
La Asociación
Junta Directiva
Sedes
Noticias
Artículos de Interés
Canal Ético
ACERCA DEL COMPLIANCE
Qué es
Compliance Officer
Marco Normativo Internacional
Cual es tu nivel de Compliance
FORMACIÓN
Eventos
Cursos Acreditados
Agenda Formativa
Cómo acreditar un curso
CERTIFICACIÓN
Certificación Profesional WCA
Certificación Sistemas de Compliance
SOCIOS
Ventajas de Asociarse
Entidades Asociadas
Profesionales Asociados
Solicitud de Adhesión
LEGAL
Aviso Legal
Política de Privacidad
Política de Cookies
Propiedad Intelectual
Condiciones de Contratación