Parlamento Europeu aprova projeto de lei de inteligência artificial que exige divulgação de direitos autorais sobre dados de treinamento de IA generativa
Os fornecedores de modelos subjacentes serão obrigados a declarar se usam material protegido por direitos autorais para treinar IA. Para empresas de tecnologia como Google e Microsoft, as multas podem chegar a bilhões de dólares por violações.
• O próximo passo são as negociações tripartidas envolvendo os estados membros, parlamentos e a Comissão Europeia. Uma grande área de discórdia é o uso de reconhecimento facial. O Parlamento Europeu votou pela proibição do uso do reconhecimento facial em tempo real, mas ainda restam dúvidas sobre se as isenções devem ser permitidas para segurança nacional e outros fins de aplicação da lei.
No dia 14 de junho, hora local, na sessão plenária do Parlamento Europeu realizada em Estrasburgo, na França, os deputados participaram da reunião de votação do "Artificial Intelligence Bill".
Em 14 de junho, hora local, a "Lei de Inteligência Artificial (AI Act)" da União Europeia deu um passo importante para se tornar lei: o Parlamento Europeu votou para aprovar o projeto de lei, proibindo o reconhecimento facial em tempo real e impondo restrições às ferramentas geradoras de inteligência artificial como ChatGPT. Novos requisitos de transparência são introduzidos.
O AI Bill agora entrará nos estágios finais antes que a regulamentação seja lançada na UE. As autoridades tentarão chegar a um acordo sobre o projeto de lei com o executivo da UE e os estados membros, onde as diferenças permanecem. O processo legislativo deve ser concluído em janeiro para que o projeto de lei entre em vigor antes das eleições europeias do ano que vem.
"Este momento é muito importante", disse Daniel Leufer, analista sênior de políticas focado em inteligência artificial no escritório de Bruxelas do Access Now, à TIME. "O que a UE diz que representa um risco inaceitável para os direitos humanos será visto como um projeto para o mundo."
A versão da lei aprovada pela UE propõe que qualquer IA aplicada a casos de uso de "alto risco", como emprego, controle de fronteira e educação, deve cumprir uma série de requisitos de segurança, incluindo avaliação de risco, garantia de transparência e envio de registros. O projeto de lei não consideraria automaticamente a IA de "uso geral", como o ChatGPT, de alto risco, mas imporia requisitos de transparência e avaliação de risco em "modelos básicos" ou poderosos sistemas de IA treinados em grandes quantidades de dados. Por exemplo, os fornecedores dos modelos subjacentes, incluindo OpenAI, Google e Microsoft, serão obrigados a declarar se usaram material protegido por direitos autorais para treinar a IA. No entanto, não há nenhum requisito semelhante para declarar se os dados pessoais são usados durante o treinamento.
** Como funcionam essas regras? **
Proposta pela primeira vez em 2021, a "Lei de Inteligência Artificial" da União Europeia se aplicará a qualquer produto ou serviço que use sistemas de inteligência artificial.
O projeto de lei classifica os sistemas de IA com base em 4 níveis de risco, do mínimo ao inaceitável. Aplicativos de alto risco, como recrutamento e tecnologia direcionados a crianças, enfrentarão requisitos mais rígidos, incluindo maior transparência e uso de dados precisos.
Um dos principais objetivos da UE é proteger-se contra qualquer ameaça à saúde e à segurança representada pela inteligência artificial e proteger os valores e direitos fundamentais.
Isso significa que certos usos de IA são absolutamente proibidos, como sistemas de "pontuação social" que julgam as pessoas com base em seu comportamento e IA que explora grupos vulneráveis (incluindo crianças) ou usa manipulação subconsciente que pode causar danos, como encorajar comportamento perigoso interativo ferramenta de diálogo. As ferramentas de policiamento preditivo usadas para prever quem comete crimes também serão banidas.
Além disso, os sistemas de IA usados em categorias como emprego e educação que afetam o curso da vida de uma pessoa enfrentarão requisitos estritos, como ser transparente para os usuários e tomar medidas para avaliar e reduzir o risco de viés apresentado por algoritmos.
A maioria dos sistemas de IA, como videogames ou filtros de spam, se enquadra na categoria de baixo risco ou sem risco, disse a Comissão Europeia.
Uma grande área de discórdia é o uso de reconhecimento facial. O Parlamento Europeu votou pela proibição do uso do reconhecimento facial em tempo real, mas ainda restam dúvidas sobre se as isenções devem ser permitidas para segurança nacional e outros fins de aplicação da lei. Outra regra proibiria as empresas de extrair dados biométricos das mídias sociais para construir bancos de dados.
No mesmo dia, um grupo de legisladores de direita no Parlamento Europeu tentou no último minuto cancelar a proibição do reconhecimento facial em tempo real proposta pelo projeto de lei, mas os legisladores a rejeitaram.
A aplicação das regras dependerá dos 27 estados membros da UE. Os reguladores podem forçar as empresas a retirar os aplicativos do mercado. Em casos extremos, as violações podem resultar em multas de até 30 milhões de euros (cerca de US$ 33 milhões) ou 6% da receita global anual de uma empresa e, para empresas de tecnologia como Google e Microsoft, as multas podem chegar a bilhões de dólares.
Qual é a relação entre ** e ChatGPT? **
A medida inicial do projeto de lei dizia pouco sobre chatbots, exigindo apenas que fossem rotulados para que os usuários soubessem que estavam interagindo com uma máquina. Posteriormente, os negociadores adicionaram provisões para cobrir AGI populares como o ChatGPT, fazendo com que a tecnologia atendesse a alguns dos mesmos requisitos dos sistemas de alto risco.
Uma adição importante é que o projeto de lei exige documentação completa de qualquer material protegido por direitos autorais usado para treinar sistemas de IA para gerar texto, imagens, vídeos e músicas semelhantes a obras humanas. Isso permitirá que os criadores de conteúdo saibam se suas postagens de blog, e-books, artigos científicos ou músicas foram usadas para treinar os algoritmos que alimentam sistemas como o ChatGPT. Eles podem então decidir se seu trabalho pode ser copiado e buscar compensação.
Alguns especialistas preocupados com os riscos de segurança apresentados pelos modelos de IA argumentam que o projeto de lei não impõe limites ao poder de computação que os sistemas de IA podem usar. A cada novo lançamento, a quantidade de computação usada por um grande modelo de linguagem como o ChatGPT aumenta exponencialmente, o que melhorará muito suas capacidades e desempenho. "Quanto mais computações forem usadas para treinar um sistema de IA, mais poderosa será a IA. Quanto maior a capacidade, maior o potencial de risco e perigo." Andrea Mee, diretora de estratégia e governança da startup de segurança de IA Conjectura Andrea Miotti disse à Time.
Miotti observou que é relativamente fácil para os pesquisadores medir o poder total de computação de um sistema porque os chips usados para treinar a maioria das IAs de ponta são um recurso físico.
**Por que a regulamentação da UE é importante? **
"Time" apontou que a UE não é um ator importante no desenvolvimento da inteligência artificial de ponta. Esse papel é desempenhado pelos Estados Unidos e pela China, mas a UE frequentemente desempenha o papel de definir a maré. Arautos do poder corporativo .
O tamanho do mercado único da UE, com 450 milhões de consumidores, torna mais fácil para as empresas cumprirem, em vez de desenvolver diferentes produtos para diferentes regiões, dizem os especialistas. Ao definir regras comuns para a IA, a UE também está tentando aumentar o mercado, inspirando confiança entre os usuários.
“Esta é uma regulamentação aplicável e o fato de que as empresas serão responsabilizadas é significativo”, já que lugares como os EUA, Cingapura e o Reino Unido forneceram apenas “orientação e aconselhamento”, disse Chris Shree, membro sênior da Comissão Irlandesa de Liberdades Civis. “Outros países podem querer adaptar e copiar” as regras da UE, disse Kris Shrisak, o chefe executivo do país.
Alguns outros países também estão acelerando o ritmo da regulamentação. Por exemplo, o primeiro-ministro britânico Rishi Sunak planeja realizar uma cúpula mundial sobre segurança de IA neste outono. "Quero que o Reino Unido não seja apenas um lar intelectual, mas um lar geográfico para a regulamentação global de segurança da IA", disse Sunak em uma conferência de tecnologia esta semana. A cúpula do Reino Unido reunirá pessoas "acadêmicas, empresariais e governamentais", trabalhando juntas sobre o "Estrutura Multilateral".
Francine Bennett, diretora interina do Ada Lovelace Institute, disse ao The New York Times: "Tecnologias em rápida evolução e rapidamente reaproveitadas são obviamente difíceis de regulamentar porque mesmo as empresas que desenvolvem a tecnologia não sabem como as coisas vão acontecer. Mas certamente será pior para todos nós se continuarem a operar sem regulamentação adequada."
No entanto, a Associação da Indústria de Computação e Comunicações argumenta que a UE deve evitar regulamentações excessivamente amplas que sufocariam a inovação. Boniface de Champris, gerente de políticas europeias da agência, disse: "As novas regras de IA da Europa precisam lidar efetivamente com riscos bem definidos, ao mesmo tempo em que oferecem aos desenvolvedores flexibilidade suficiente para fornecer aplicativos de IA para o benefício dos europeus".
**Qual é o próximo? **
Pode levar anos para que o projeto de lei entre em vigor. O próximo passo são as negociações tripartidas envolvendo os Estados membros, o Parlamento e a Comissão Europeia, que podem enfrentar mais mudanças antes de tentarem chegar a um acordo sobre a redação.
Durante a próxima fase do diálogo tripartido, espera-se que o Conselho da Europa, que representa os governos dos estados membros, defenda fortemente a isenção de ferramentas de IA usadas por policiais e forças de fronteira da exigência de sistemas de "alto risco", de acordo com Ruffo.
Espera-se que o projeto de lei receba a aprovação final até o final do ano, seguido de um período de carência para as empresas e organizações se adaptarem, geralmente em torno de dois anos. Mas Brando Benifei, um membro italiano do Parlamento Europeu que está liderando o projeto de lei, disse que pressionaria por regras que permitissem a adoção mais rápida de tecnologias de rápido crescimento, como IA generativa.
Para preencher as lacunas antes que a legislação entre em vigor, a Europa e os Estados Unidos estão elaborando um código de conduta voluntário que as autoridades prometeram no final de maio redigir dentro de semanas e potencialmente expandir para outros "países com ideias semelhantes".
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
Parlamento Europeu aprova projeto de lei de inteligência artificial que exige divulgação de direitos autorais sobre dados de treinamento de IA generativa
Fonte: O Papel See More
Repórter Fang Xiao
Os fornecedores de modelos subjacentes serão obrigados a declarar se usam material protegido por direitos autorais para treinar IA. Para empresas de tecnologia como Google e Microsoft, as multas podem chegar a bilhões de dólares por violações.
• O próximo passo são as negociações tripartidas envolvendo os estados membros, parlamentos e a Comissão Europeia. Uma grande área de discórdia é o uso de reconhecimento facial. O Parlamento Europeu votou pela proibição do uso do reconhecimento facial em tempo real, mas ainda restam dúvidas sobre se as isenções devem ser permitidas para segurança nacional e outros fins de aplicação da lei.
Em 14 de junho, hora local, a "Lei de Inteligência Artificial (AI Act)" da União Europeia deu um passo importante para se tornar lei: o Parlamento Europeu votou para aprovar o projeto de lei, proibindo o reconhecimento facial em tempo real e impondo restrições às ferramentas geradoras de inteligência artificial como ChatGPT. Novos requisitos de transparência são introduzidos.
O AI Bill agora entrará nos estágios finais antes que a regulamentação seja lançada na UE. As autoridades tentarão chegar a um acordo sobre o projeto de lei com o executivo da UE e os estados membros, onde as diferenças permanecem. O processo legislativo deve ser concluído em janeiro para que o projeto de lei entre em vigor antes das eleições europeias do ano que vem.
"Este momento é muito importante", disse Daniel Leufer, analista sênior de políticas focado em inteligência artificial no escritório de Bruxelas do Access Now, à TIME. "O que a UE diz que representa um risco inaceitável para os direitos humanos será visto como um projeto para o mundo."
A versão da lei aprovada pela UE propõe que qualquer IA aplicada a casos de uso de "alto risco", como emprego, controle de fronteira e educação, deve cumprir uma série de requisitos de segurança, incluindo avaliação de risco, garantia de transparência e envio de registros. O projeto de lei não consideraria automaticamente a IA de "uso geral", como o ChatGPT, de alto risco, mas imporia requisitos de transparência e avaliação de risco em "modelos básicos" ou poderosos sistemas de IA treinados em grandes quantidades de dados. Por exemplo, os fornecedores dos modelos subjacentes, incluindo OpenAI, Google e Microsoft, serão obrigados a declarar se usaram material protegido por direitos autorais para treinar a IA. No entanto, não há nenhum requisito semelhante para declarar se os dados pessoais são usados durante o treinamento.
** Como funcionam essas regras? **
Proposta pela primeira vez em 2021, a "Lei de Inteligência Artificial" da União Europeia se aplicará a qualquer produto ou serviço que use sistemas de inteligência artificial.
O projeto de lei classifica os sistemas de IA com base em 4 níveis de risco, do mínimo ao inaceitável. Aplicativos de alto risco, como recrutamento e tecnologia direcionados a crianças, enfrentarão requisitos mais rígidos, incluindo maior transparência e uso de dados precisos.
Um dos principais objetivos da UE é proteger-se contra qualquer ameaça à saúde e à segurança representada pela inteligência artificial e proteger os valores e direitos fundamentais.
Isso significa que certos usos de IA são absolutamente proibidos, como sistemas de "pontuação social" que julgam as pessoas com base em seu comportamento e IA que explora grupos vulneráveis (incluindo crianças) ou usa manipulação subconsciente que pode causar danos, como encorajar comportamento perigoso interativo ferramenta de diálogo. As ferramentas de policiamento preditivo usadas para prever quem comete crimes também serão banidas.
Além disso, os sistemas de IA usados em categorias como emprego e educação que afetam o curso da vida de uma pessoa enfrentarão requisitos estritos, como ser transparente para os usuários e tomar medidas para avaliar e reduzir o risco de viés apresentado por algoritmos.
A maioria dos sistemas de IA, como videogames ou filtros de spam, se enquadra na categoria de baixo risco ou sem risco, disse a Comissão Europeia.
Uma grande área de discórdia é o uso de reconhecimento facial. O Parlamento Europeu votou pela proibição do uso do reconhecimento facial em tempo real, mas ainda restam dúvidas sobre se as isenções devem ser permitidas para segurança nacional e outros fins de aplicação da lei. Outra regra proibiria as empresas de extrair dados biométricos das mídias sociais para construir bancos de dados.
No mesmo dia, um grupo de legisladores de direita no Parlamento Europeu tentou no último minuto cancelar a proibição do reconhecimento facial em tempo real proposta pelo projeto de lei, mas os legisladores a rejeitaram.
A aplicação das regras dependerá dos 27 estados membros da UE. Os reguladores podem forçar as empresas a retirar os aplicativos do mercado. Em casos extremos, as violações podem resultar em multas de até 30 milhões de euros (cerca de US$ 33 milhões) ou 6% da receita global anual de uma empresa e, para empresas de tecnologia como Google e Microsoft, as multas podem chegar a bilhões de dólares.
Qual é a relação entre ** e ChatGPT? **
A medida inicial do projeto de lei dizia pouco sobre chatbots, exigindo apenas que fossem rotulados para que os usuários soubessem que estavam interagindo com uma máquina. Posteriormente, os negociadores adicionaram provisões para cobrir AGI populares como o ChatGPT, fazendo com que a tecnologia atendesse a alguns dos mesmos requisitos dos sistemas de alto risco.
Uma adição importante é que o projeto de lei exige documentação completa de qualquer material protegido por direitos autorais usado para treinar sistemas de IA para gerar texto, imagens, vídeos e músicas semelhantes a obras humanas. Isso permitirá que os criadores de conteúdo saibam se suas postagens de blog, e-books, artigos científicos ou músicas foram usadas para treinar os algoritmos que alimentam sistemas como o ChatGPT. Eles podem então decidir se seu trabalho pode ser copiado e buscar compensação.
Alguns especialistas preocupados com os riscos de segurança apresentados pelos modelos de IA argumentam que o projeto de lei não impõe limites ao poder de computação que os sistemas de IA podem usar. A cada novo lançamento, a quantidade de computação usada por um grande modelo de linguagem como o ChatGPT aumenta exponencialmente, o que melhorará muito suas capacidades e desempenho. "Quanto mais computações forem usadas para treinar um sistema de IA, mais poderosa será a IA. Quanto maior a capacidade, maior o potencial de risco e perigo." Andrea Mee, diretora de estratégia e governança da startup de segurança de IA Conjectura Andrea Miotti disse à Time.
Miotti observou que é relativamente fácil para os pesquisadores medir o poder total de computação de um sistema porque os chips usados para treinar a maioria das IAs de ponta são um recurso físico.
**Por que a regulamentação da UE é importante? **
"Time" apontou que a UE não é um ator importante no desenvolvimento da inteligência artificial de ponta. Esse papel é desempenhado pelos Estados Unidos e pela China, mas a UE frequentemente desempenha o papel de definir a maré. Arautos do poder corporativo .
O tamanho do mercado único da UE, com 450 milhões de consumidores, torna mais fácil para as empresas cumprirem, em vez de desenvolver diferentes produtos para diferentes regiões, dizem os especialistas. Ao definir regras comuns para a IA, a UE também está tentando aumentar o mercado, inspirando confiança entre os usuários.
“Esta é uma regulamentação aplicável e o fato de que as empresas serão responsabilizadas é significativo”, já que lugares como os EUA, Cingapura e o Reino Unido forneceram apenas “orientação e aconselhamento”, disse Chris Shree, membro sênior da Comissão Irlandesa de Liberdades Civis. “Outros países podem querer adaptar e copiar” as regras da UE, disse Kris Shrisak, o chefe executivo do país.
Alguns outros países também estão acelerando o ritmo da regulamentação. Por exemplo, o primeiro-ministro britânico Rishi Sunak planeja realizar uma cúpula mundial sobre segurança de IA neste outono. "Quero que o Reino Unido não seja apenas um lar intelectual, mas um lar geográfico para a regulamentação global de segurança da IA", disse Sunak em uma conferência de tecnologia esta semana. A cúpula do Reino Unido reunirá pessoas "acadêmicas, empresariais e governamentais", trabalhando juntas sobre o "Estrutura Multilateral".
Francine Bennett, diretora interina do Ada Lovelace Institute, disse ao The New York Times: "Tecnologias em rápida evolução e rapidamente reaproveitadas são obviamente difíceis de regulamentar porque mesmo as empresas que desenvolvem a tecnologia não sabem como as coisas vão acontecer. Mas certamente será pior para todos nós se continuarem a operar sem regulamentação adequada."
No entanto, a Associação da Indústria de Computação e Comunicações argumenta que a UE deve evitar regulamentações excessivamente amplas que sufocariam a inovação. Boniface de Champris, gerente de políticas europeias da agência, disse: "As novas regras de IA da Europa precisam lidar efetivamente com riscos bem definidos, ao mesmo tempo em que oferecem aos desenvolvedores flexibilidade suficiente para fornecer aplicativos de IA para o benefício dos europeus".
**Qual é o próximo? **
Pode levar anos para que o projeto de lei entre em vigor. O próximo passo são as negociações tripartidas envolvendo os Estados membros, o Parlamento e a Comissão Europeia, que podem enfrentar mais mudanças antes de tentarem chegar a um acordo sobre a redação.
Durante a próxima fase do diálogo tripartido, espera-se que o Conselho da Europa, que representa os governos dos estados membros, defenda fortemente a isenção de ferramentas de IA usadas por policiais e forças de fronteira da exigência de sistemas de "alto risco", de acordo com Ruffo.
Espera-se que o projeto de lei receba a aprovação final até o final do ano, seguido de um período de carência para as empresas e organizações se adaptarem, geralmente em torno de dois anos. Mas Brando Benifei, um membro italiano do Parlamento Europeu que está liderando o projeto de lei, disse que pressionaria por regras que permitissem a adoção mais rápida de tecnologias de rápido crescimento, como IA generativa.
Para preencher as lacunas antes que a legislação entre em vigor, a Europa e os Estados Unidos estão elaborando um código de conduta voluntário que as autoridades prometeram no final de maio redigir dentro de semanas e potencialmente expandir para outros "países com ideias semelhantes".