O Acordo de Liquidação de Direitos Autorais de $1.5B da Anthropic Expõe o Ponto Cego Ético da Indústria de IA

robot
Geração de resumo em curso

Um impressionante 1,5 mil milhões de dólares - é isso que a Anthropic concordou em pagar a autores cujas obras pilharam para fazer o seu chatbot de IA Claude soar mais humano. Como alguém que assistiu ao crescimento da indústria de IA com tanto fascínio como preocupação, este acordo parece ser a primeira verdadeira consequência para as empresas de tecnologia que têm ajudado a si mesmas a obras criativas sem punição.

Não fiquei surpreso quando o juiz William Alsup permitiu que os autores prosseguissem com o seu processo. Não eram escritores amadores, mas profissionais estabelecidos cujos livros foram essencialmente roubados de bibliotecas sombrias como a Library Genesis e o conjunto de dados Books3. A Anthropic fez o download de cerca de 500.000 livros piratas sem sequer mencionar a lei de direitos autorais ou compensação justa.

O que é particularmente irritante é como a Anthropic, cheia de dinheiro de investimento de gigantes da tecnologia, não se deu ao trabalho de licenciar conteúdo de forma legítima. Em vez disso, construíram o seu negócio às custas de criadores que passam anos a aperfeiçoar o seu ofício, apenas para ver o seu trabalho absorvido por um algoritmo sem permissão.

Cada escritor cujo trabalho foi apropriado indevidamente receberá cerca de 3.000 dólares - uma quantia insignificante em comparação com o que a Anthropic pode ganhar com a sua IA. E esse valor de 1,5 bilhões pode crescer substancialmente se mais obras não autorizadas forem descobertas nos seus dados de treinamento.

O acordo exige que a Anthropic destrua todas as cópias dos livros piratas, mas sejamos realistas - como é que se “desaprende” o que já foi absorvido nos seus modelos? Este acordo também não os protege de novos processos. Os autores ainda podem processar se o Claude reproduzir passagens protegidas por direitos autorais ou infringir o seu trabalho.

Aparna Sridhar, vice-conselheira geral da Anthropic, afirma que eles querem se concentrar em “desenvolver ferramentas que melhoram a ciência e servem o público” em vez de lutar nos tribunais. Essa é uma narrativa conveniente após serem pegos com a mão na massa. Eles não estão admitindo responsabilidade, claro.

Entretanto, outras empresas de IA enfrentam processos semelhantes. Este acordo pode ter salvado a Anthropic de uma batalha no Supremo Tribunal que poderia ter mudado fundamentalmente a forma como o uso justo se aplica à IA, mas estabelece um precedente que outras empresas não podem ignorar.

O acerto de contas para a indústria de IA começou. A questão agora é saber se isso mudará fundamentalmente a forma como essas empresas abordam obras criativas, ou se apenas verão acordos como esses como o custo de fazer negócios.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)