Mark Zuckerberg se pronuncia sobre el argumento de «uso justo» para entrenar modelos de IA
El auge de la inteligencia artificial (IA) ha generado un debate intenso en torno a su relación con los derechos de autor, particularmente en la industria musical. En Estados Unidos, el mercado de música grabada más grande del mundo, una de las cuestiones principales es si entrenar modelos de IA con contenido protegido por derechos de autor puede considerarse «uso justo». Esta discusión está en el centro de las demandas presentadas por discográficas contra startups de música impulsadas por IA, como Suno y Udio, y refleja las tensiones crecientes entre las industrias creativas y tecnológicas.
Las opiniones de los gigantes tecnológicos sobre este asunto, como las de Mark Zuckerberg, CEO de Meta, son cruciales dado que empresas como Meta están invirtiendo fuertemente en el desarrollo de modelos de IA. Además, estas compañías están haciendo un llamado a los reguladores para que se establezcan reglas favorables para los modelos de IA de código abierto, lo que inevitablemente afecta a los creadores de contenido, incluidos los músicos.
En una reciente entrevista con The Verge, Zuckerberg expresó su perspectiva sobre la relación entre la IA y los derechos de autor. Según el empresario, el concepto de «uso justo» en tecnología debe revisarse y litigarse en la era de la IA. Su posición parece sugerir que la evolución tecnológica está desafiando las nociones tradicionales sobre el control que los creadores pueden ejercer sobre su obra una vez que la publican. Si bien no afirmó que el contenido publicado sea un «campo de juego libre» para entrenar modelos de IA sin compensar a los titulares de derechos, sí dejó en claro que este es un tema en disputa.
Uno de los puntos más controvertidos que mencionó Zuckerberg es su visión sobre el valor que los creadores atribuyen a su contenido en el contexto de la IA. El CEO de Meta comparó esta situación con los conflictos que su empresa ha tenido con los editores de noticias, sugiriendo que los creadores tienden a sobrevalorar el impacto de su contenido en los resultados tecnológicos. Según Zuckerberg, Meta paga por contenido cuando considera que es valioso para el público, pero no cuando su valor es mínimo. Aplica este mismo razonamiento a la IA: solo se formarán asociaciones con los creadores si su contenido es verdaderamente significativo para los resultados de los modelos.
La postura de Zuckerberg refleja un desafío para los titulares de derechos, que ahora se ven obligados a argumentar, una vez más, el valor de su trabajo en un nuevo contexto tecnológico. En el caso de la música, la cuestión del valor es evidente. La música es intrínsecamente valiosa para las personas, y su inclusión en modelos de IA mejora directamente la calidad de los resultados generados por estos modelos. Esto explica por qué startups como Suno y Udio, que utilizan música en el entrenamiento de sus modelos, están logrando productos más refinados que los de sus competidores que no lo hacen.
Sin embargo, el debate no se limita al valor percibido por el público, sino también a la justa compensación para los creadores. Las discográficas y los músicos argumentan que, si su trabajo es fundamental para mejorar los productos de IA, tienen derecho a exigir transparencia, permiso y pago. Esta situación está forzando a la industria a rediscutir y posiblemente redefinir el concepto de «uso justo» en la era de la inteligencia artificial.
Sin embargo, puede que el argumento de «uso justo» que las compañías tecnológicas tanto mencionan, no tenga cabida dentro de este debate ni dentro de los casos legales que se están considerando actualmente, pues el pasado 5 de septiembre se presentó en el Parlamento Europeo un estudio interdisciplinario titulado «Copyright y Entrenamiento de la IA Generativa – Fundamentos Tecnológicos y Legales».
Uno de los hallazgos clave de este estudio es que el entrenamiento de los modelos de IA generativa, como los modelos de lenguaje a gran escala (LLM) y los modelos de difusión latente, no equivale a la minería de textos y datos (TDM, por sus siglas en inglés), un proceso protegido por la ley europea bajo la Directiva DSM de 2019.
Según el estudio, “el entrenamiento de tales modelos no es un caso de minería de textos y datos. Es un caso de infracción de derechos de autor, y no se aplica ninguna excepción bajo la ley de derechos de autor alemana y europea». Esta afirmación desafía una defensa común utilizada por los desarrolladores de IA, que a menudo invocan las excepciones de TDM para justificar su uso de obras protegidas en el entrenamiento. El estudio argumenta que estas excepciones están mal aplicadas en este contexto, ya que las tecnologías involucradas son fundamentalmente diferentes.