Anthrope gana el caso clave de derechos de autor de IA, pero permanece en el gancho para usar libros pirateados

Anthrope ha ganado una gran victoria legal en un caso sobre si la compañía de inteligencia artificial estaba justificada al acumular millones de libros con derechos de autor para entrenar su chatbot.

En un fallo que podría establecer un precedente importante para disputas similares, el juez William Alsup del Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California el martes dijo el uso de Anthrope de libros legalmente comprados para capacitar a su modelo de IA, Claude, no violó la ley de derechos de autor de los Estados Unidos.

Anthrope, que fue fundada por ex ejecutivos con el desarrollador de Chatgpt OpenAi, introducido Claude en 2023. Al igual que otros bots generativos de IA, la herramienta permite a los usuarios hacer preguntas de lenguaje natural y luego proporciona respuestas perfectamente resumidas utilizando AI capacitada en millones de libros, artículos y otros materiales.

Alsup dictaminó que el uso de Anthrope de libros con derechos de autor para capacitar a su modelo de aprendizaje de idiomas, o LLM, era “transformador por excelencia” y no violó la doctrina de “uso justo” bajo la ley de derechos de autor.

“Al igual que cualquier lector que aspirara a ser escritor, los LLM de Anthrope entrenaron en trabajos para no correr por delante y replicarlos o suplantarlos, pero para girar una esquina dura y crear algo diferente”, dice su decisión.

Por el contrario, Alsup también descubrió que Anthrope puede haber violado la ley cuando descargó por separado millones de libros pirateados y dijo que enfrentará un juicio por separado en diciembre sobre este tema.

Los documentos judiciales revelaron que los empleados antrópicos expresaron su preocupación por la legalidad del uso de sitios piratas para acceder a los libros. Más tarde, la compañía cambió su enfoque y contrató a un ex ejecutivo de Google a cargo de Google Books, una biblioteca de libros digitalizados que se puede buscar que resistió con éxito años de batallas de derechos de autor.

Los autores habían presentado una demanda

Anthrope vitoreó el fallo.

“Nos complace que el tribunal haya reconocido que el uso de ‘trabajos para capacitar a LLM (modelos de aprendizaje de idiomas) fue transformador, espectacularmente así”, dijo un portavoz antrópico a CBS News en un correo electrónico.

El fallo proviene de un caso presentado el año pasado por tres autores en la corte federal. Después de que Anthrope usó copias de sus libros para entrenar a Claude, Andrea Bartz, Charles Graeber y Kirk Wallace Johnson demandaron a Anthrope por presunta infracción de derechos de autor, alegando que las prácticas de la compañía ascendieron a “robo a gran escala”.

Los autores también alegaron que antrópico “Busca beneficiarse de la extracción de la expresión humana y el ingenio detrás de cada una de esas obras”.

Los abogados de los autores rechazaron hacer comentarios.

Otras compañías de IA también han sido criticadas por el material que usan para construir sus modelos de aprendizaje de idiomas. El New York Times, por ejemplo, demandó a Open AI y Microsoft en 2023, alegando que las compañías tecnológicas usaron millones de sus artículos para capacitar sus chatbots automatizados.

Al mismo tiempo, algunas compañías de medios y editores también buscan una compensación mediante la licencia de su contenido a compañías como Anthrope y OpenAI.

contribuido a este informe.

(tagstotranslate) meta

noah-bennett