Anthropic dice que no ha causado «daño irreparable» al copiar letras de canciones

image

En el último giro del enfrentamiento entre la inteligencia artificial y los derechos de autor, Anthropic, la empresa detrás del chatbot Claude, se encuentra en medio de una acalorada disputa legal con un grupo de editoriales musicales. El conflicto gira en torno al uso de letras de canciones tanto en el entrenamiento de modelos de IA como en la reproducción de contenido por parte de Claude.

Las editoriales han presentado una demanda en la que acusan a Anthropic de «usurpar el control» sobre sus obras, negándoles el crédito correspondiente y poniendo en riesgo sus reputaciones. Argumentan que la «copia desenfrenada» por parte de Anthropic podría causar daños irreversibles al mercado de licencias de letras y a las relaciones entre editores, licenciatarios y compositores.

Como medida inmediata, los demandantes buscan una orden judicial preliminar que obligue a Anthropic a detener el uso de sus letras en dos frentes: en los conjuntos de datos de entrenamiento de la IA y en la supuesta reproducción de letras por parte de Claude.

Anthropic ha respondido con firmeza a estas acusaciones, presentando argumentos legales para que se deniegue la solicitud de orden judicial preliminar. La empresa sostiene que:

1. Ya ha implementado voluntariamente medidas para evitar que Claude reproduzca letras existentes, incluso ante indicaciones muy específicas de los usuarios.
2. Si al final del proceso judicial se determina que Anthropic es responsable de infracción de derechos de autor, las editoriales recibirían una compensación adecuada por cualquier daño causado.

Además, Anthropic señala que las mismas editoriales han «efectivamente admitido» la eficacia de las barreras implementadas, ya que su solicitud de orden judicial busca simplemente mantener estas medidas existentes.

Por otro lado, Anthropic cuestiona la supuesta urgencia de la acción legal, destacando varios puntos:

  • Las editoriales esperaron cinco meses antes de presentar la demanda después de descubrir que Claude podía reproducir letras existentes.
  • Inicialmente presentaron la demanda en Tennessee, lo que Anthropic considera un intento de «manipulación litigiosa» que resultó en retrasos adicionales.
  • En casos similares contra otras empresas de IA, incluyendo demandas presentadas por discográficas importantes, no se han solicitado órdenes judiciales preliminares.

Esta disputa se enmarca en un debate más amplio sobre el uso de contenido protegido por derechos de autor en el entrenamiento de modelos de IA. Anthropic señala que existen alrededor de dos docenas de casos similares en todo el país, lo que subraya la importancia y complejidad de esta cuestión legal.

Mientras el caso principal avanza en los tribunales, la atención se centra ahora en la decisión del juez sobre la solicitud de orden judicial preliminar. Esta resolución podría sentar un precedente importante para futuros casos relacionados con el uso de contenido protegido por derechos de autor en el desarrollo y funcionamiento de sistemas de IA.

Independientemente del resultado, este caso destaca la creciente tensión entre la innovación tecnológica y los derechos de propiedad intelectual establecidos, un conflicto que probablemente seguirá siendo un tema candente en los próximos años a medida que la IA continúe evolucionando y expandiéndose en diversos campos creativos.