Un tribunal federal estadounidense desestimó una demanda presentada por trece autores contra Meta, acusándola de utilizar sus trabajos sin autorización para entrenar un sistema de inteligencia artificial de la compañía tecnológica.
La resolución del juez Vince Chhabria refuerza un fallo previo que también respaldó a Anthropic, empresa responsable del chatbot Claude, ante reclamos por presuntas infracciones a los derechos de autor en el sector.
Meta gana una demanda sobre derechos de autor
La demanda de los autores contra Meta no llegó a juicio, aunque el juez Vince Chhabria afirmó que usar obras con derechos sin permiso para entrenar inteligencia artificial es ilegal y puede afectar la creación artística tradicional.
Con esas prácticas, "las empresas debilitan drásticamente el mercado de esas obras y, por lo tanto, el incentivo para que los seres humanos creen cosas a la antigua usanza", advirtió el juez al analizar las implicancias de esta actividad.
No obstante, concluyó que Meta no violó la ley porque los demandantes no pudieron demostrar que el uso de sus textos para entrenar inteligencia artificial les generara un perjuicio económico comprobable que justifique continuar con el reclamo.
"Debemos decidir basándonos en las pruebas presentadas por las partes", señaló Chhabria, al considerar que los escritores no aportaron elementos suficientes que permitan sostener que el accionar de la empresa implique una infracción a sus derechos patrimoniales.
Los autores sostuvieron que el modelo Llama reproduce fragmentos de sus libros y que el uso no consentido impide licenciar sus textos a otros desarrolladores, aunque el juez calificó estos planteos como "claramente perdedores" en su fallo.
También indicó que los autores no tienen derecho a vender sus obras como datos de entrenamiento para inteligencia artificial, por lo que esos argumentos no constituyen fundamentos válidos para avanzar con una demanda por infracción.
Las fuentes relacionadas con el caso informaron que: "a pesar de su fallo, Chhabria aclaró que su decisión es limitada: solo afecta a los 13 autores que presentaron la demanda y no respalda la legitimidad del uso de materiales protegidos por derechos de autor por parte de Meta para entrenar sus modelos lingüísticos".
Anthropic también tuvo un fallo a su favor
Esta semana, se marcó un hito importante en el debate sobre los derechos de propiedad intelectual relacionados con el entrenamiento de modelos de inteligencia artificial, tras el fallo del juez William Alsup del Distrito Norte de California, Estados Unidos.
Alsup resolvió que Anthropic, la startup responsable del chatbot Claude, puede entrenar sus modelos de IA con libros que adquirió legalmente y digitalizó, incluso sin el permiso explícito de los autores, considerando esta práctica como un uso legítimo y pionero en la industria.
Sin embargo, esta autorización solo aplica a los ejemplares físicos adquiridos y digitalizados legalmente, mientras que Anthropic deberá enfrentar un juicio separado por haber pirateado millones de libros obtenidos directamente de la Web, según indicó el juez.
Los demandantes argumentaron que Anthropic construyó "un negocio multimillonario robando cientos de miles de libros protegidos por derechos de autor", una acusación grave que continúa en proceso judicial independiente.
Alsup afirmó que "la demanda de los autores no es diferente de lo que sería si se quejaran de que entrenar a los estudiantes en las escuelas para escribir bien resultaría en una explosión de obras competidoras".
Además, explicó que las leyes de copyright están diseñadas para "promover las obras originales de autoría, no proteger a los autores de la competencia", dando un marco conceptual a la decisión que impacta la industria de la inteligencia artificial.
Jennifer Martinez, vocera de Anthropic, expresó que "nos complace que el Tribunal haya reconocido que el uso de obras para el entrenamiento (de modelos de IA) fue transformador, espectacularmente transformador", destacando el valor innovador del fallo.
En línea con el propósito del derecho de autor, Martínez agregó que "los modelos de Anthropic se formaron con obras no para adelantarse a ellas y replicarlas o suplantarlas, sino para superar una situación difícil y crear algo diferente", cerrando así la postura oficial de la empresa.