Página de inicio :Juega con la tecnología, mira el futuro a tu manera

Anthropic atribuye a su chatbot de IA un error en una fuente legal fabricada

Anthropic reconoce que su chatbot Claude cometió un “error honesto” al incluir una cita legal errónea en un documento presentado en su defensa contra editores musicales

Última actualización

Anthropic, una empresa de inteligencia artificial, ha respondido a las acusaciones de haber utilizado una fuente legal fabricada en su batalla legal contra editores musicales, afirmando que su chatbot Claude cometió un “error de cita honesto”. Este problema surgió en un documento presentado el 30 de abril por la científica de datos de Anthropic, Olivia Chen, como parte de la defensa de la compañía frente a las acusaciones de que se usaron letras protegidas por derechos de autor para entrenar a Claude.

En una audiencia, un abogado que representa a Universal Music Group, ABKCO y Concord afirmó que las fuentes citadas en el documento de Chen eran una “fabricación completa” y sugirió que fueron producto de alucinaciones del herramienta de IA de Anthropic. En una respuesta presentada el jueves, la abogada defensora de Anthropic, Ivana Dukanovic, aclaró que la fuente cuestionada era genuina y que Claude se utilizó para formatear las citas legales en el documento. Aunque los números de volumen y página incorrectos generados por el chatbot fueron detectados y corregidos mediante una “verificación manual de citas”, Anthropic admitió que los errores en la redacción pasaron desapercibidos.

Este “error embarazoso y no intencionado” representa un revés para la reputación de Claude, destacando los desafíos de emplear IA en la elaboración de documentos legales. Anthropic ha expresado su compromiso de abordar estas fallas, mientras el caso continúa generando debate sobre la fiabilidad de las herramientas de inteligencia artificial en contextos legales.