Anthropic usou 7 milhões de livros para treinar Claude, enfrentando um processo de pirataria de trilhões! A corrida dos gigantes da IA e os limites legais

A Anthropic foi acusada de usar 7 milhões de livros piratas para treinar um modelo, sofreu uma ação coletiva de autores e recebeu até mais de um trilhão de dólares em danos, afetando a conformidade de dados e a avaliação de investimentos de toda a indústria de IA. (Sinopse: AI privacy collapse "ChatGPT Conversation" corre nu diante da lei; Altman: Tenho medo de inserir informações pessoais, é difícil saber quem receberá as informações) (suplemento de fundo: IA pode derrubar o caso? Um processo de direitos autorais envolvendo 7 milhões de livros está colocando a Anthropic, a empresa-mãe que lançou o popular modelo de IA Claude, a empresa-mãe que lançou o popular modelo de IA Claude, está no centro das atenções, e o grupo de escritores acusou formalmente a Anthropic de se apropriar indevidamente de um grande número de livros protegidos por direitos autorais para treinar grandes modelos de linguagem no final de julho e, se perder, a Anthropic pode pagar danos altíssimos. O juiz decidiu que o comportamento de treinamento pode ser considerado uso justo, mas a fonte de dados não é De acordo com a Fortune, o juiz federal William Alsup descobriu que se as empresas de IA "obtiverem legalmente" livros e, em seguida, converterem o conteúdo em parâmetros para treinamento de modelo, isso pode constituir uso justo; No entanto, uma vez que as informações são baixadas ilegalmente de bibliotecas sombra, como LibGen e PiLiMi, a situação é imediatamente revertida e os resultados do treinamento não podem ser isentos. Esta transversalidade significa que a Anthropic, embora parcialmente apoiada na forma como desenvolve modelos, deve ser auditada de forma independente para fontes de dados. Danos experimentais: um teste de sobrevivência de até US$ 1 trilhão A lei de direitos autorais dos EUA estipula danos estatutários que variam de US$ 7,5 milhões a US$ 150.000 por trabalho infrator; Se o júri considerar que o ato foi "intencional", será aplicado o limite máximo. O jurista Ed Lee cita esse critério para estimar que, se 6 milhões de livros forem violados, a Anthropic pode enfrentar US$ 1,05 trilhão em danos no seu pior. Em comparação com a receita anual da empresa de cerca de US$ 4 bilhões e avaliação de US$ 60 bilhões a US$ 100 bilhões, isso não é apenas astronômico, mas também uma ameaça direta à sobrevivência das operações. Divergência jurídica e efeitos de cascata da indústria Vale a pena notar que o juiz Vince Chhabria, também no tribunal federal do norte da Califórnia, disse em um processo de dados separado envolvendo a Meta que os treinadores de IA podem cobrir downloads não autorizados para "fins transformacionais", levando a uma visão judicial muito diferente da Alsup. Entende-se que o caso Anthropic irá a julgamento em 1º de dezembro, e o resultado, seja uma sentença ou um acordo, se tornará um modelo para medir a legitimidade das fontes de dados no futuro, afetando empresas como a OpenAI, que enfrenta disputas semelhantes. Possíveis resultados O governo Trump pode estar inclinado a relaxar o escopo do uso justo, a fim de manter a competitividade dos Estados Unidos no campo da IA; No entanto, mesmo que o tribunal tome uma rota de compromisso e termine em um acordo multibilionário, será suficiente para forçar toda a indústria a reexaminar a cadeia de fornecimento de dados. Para os mercados de capitais, avaliar o valor de longo prazo das empresas de IA não pode mais olhar apenas para avanços de algoritmos ou escala de parâmetros, mas também incorporar legitimidade de dados, custos potenciais de litígio e reservas de liquidação no modelo. Editores e plataformas de dados que podem fornecer conteúdo licenciado de forma limpa podem, em vez disso, ter maior poder de negociação sob a nova ordem. O litígio antrópico de direitos autorais não é apenas uma disputa corporativa, mas um espelho que reflete a tensão entre inovação e propriedade intelectual. As empresas de IA que podem se manter firmes no futuro, além da liderança tecnológica, também devem aderir a linhas vermelhas de governança de dados cada vez mais rígidas. Relatórios relacionados Imagine RobotFi: Os robôs também estão na cadeia, que nova jogabilidade eles trarão? O bot de Vitalik "miou" causou discussão acalorada, comunidade Ethereum: todo o meu dinheiro é pressionado em pessoas que aprendem gato latindo Poder de computação é rei! Huang Jenxun sobre como a IA reconstruirá as cadeias de valor globais, quando os robôs se tornarão generalizados e a IA acelerará o retorno da manufatura aos Estados Unidos? "Antrópica rouba 7 milhões de livros para treinar Claude e enfrenta processo de pirataria de trilhões de nível! The Wild Run of AI Giants and Legal Boundaries" Este artigo foi publicado pela primeira vez no "Dynamic Trend - The Most Influential Blockchain News Media" da BlockTempo.

TRUMP-2.71%
ETH-1.33%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)