A Lei de IA ainda está apenas em projeto, mas investidores e empresários na União Europeia já estão nervosos com os possíveis desfechos.
Será que ela impedirá a União Europeia de ser um concorrente valioso no cenário global?
Segundo reguladores, esse não é o caso. Mas vamos ver o que está acontecendo.
A Lei de IA e Avaliação de Risco
A Lei de IA divide os riscos apresentados pela inteligência artificial em diferentes categorias, mas antes disso, ela restringe a definição de inteligência artificial para incluir apenas sistemas baseados em aprendizagem de máquina e lógica.
Isso não serve apenas para diferenciar sistemas de IA de softwares mais simples, mas também ajuda a entender por que a UE quer categorizar o risco.
Os diferentes usos de IA são classificados em risco inaceitável, alto risco e risco baixo ou mínimo. As práticas que se enquadram na categoria de risco inaceitável são consideradas proibidas.
Esse tipo de prática inclui:
Práticas que envolvem técnicas que operam além da consciência de uma pessoa,
Práticas que buscam explorar partes vulneráveis da população,
Sistemas baseados em IA utilizados para classificar pessoas de acordo com características pessoais ou comportamentais,
Sistemas baseados em IA que usam identificação biométrica em espaços públicos.
Existem alguns casos de uso, que devem ser considerados semelhantes a algumas das práticas incluídas nas atividades proibidas, que se enquadram na categoria de práticas de alto risco.
Estes incluem sistemas utilizados para recrutar trabalhadores ou para avaliar e analisar a solvência de pessoas (e isso pode ser perigoso para fintechs). Nesses casos, todas as empresas que criam ou usam esse tipo de sistema devem produzir relatórios detalhados para explicar como o sistema funciona e as medidas tomadas para evitar riscos às pessoas e para serem o mais transparentes possível.
Tudo parece claro e correto, mas há alguns problemas que os reguladores devem abordar.
A Lei parece demasiado genérica
Um dos aspectos que mais preocupa empresários e investidores é a falta de atenção a setores específicos de IA.
Por exemplo, aquelas empresas que produzem e usam sistemas de IA para fins gerais poderiam ser consideradas como aquelas que utilizam inteligência artificial para casos de uso de alto risco.
Isso significa que elas deveriam produzir relatórios detalhados que custam tempo e dinheiro. Como as PME não são exceção, e representam a maior parte das economias europeias, elas podem se tornar menos competitivas com o tempo.
E é precisamente a diferença entre empresas de IA dos EUA e da Europa que levanta grandes preocupações: na verdade, a Europa não possui grandes empresas de IA como os EUA, pois o ambiente de IA na Europa é principalmente criado por PME e startups.
Segundo uma pesquisa conduzida pela appliedAI, a maioria dos investidores evitaria investir em startups rotuladas como “alto risco”, justamente por causa das complexidades envolvidas nessa classificação.
ChatGPT mudou os planos da UE
Os reguladores da UE deveriam ter encerrado o documento em 19 de abril, mas a discussão sobre as diferentes definições de sistemas de IA e seus casos de uso atrasou a entrega do rascunho final.
Além disso, empresas de tecnologia mostraram que nem todas concordam com a versão atual do documento.
O ponto que mais causou atrasos foi a diferenciação entre modelos de base e IA de propósito geral.
Um exemplo de modelos de base de IA é o ChatGPT da OpenAI: esses sistemas são treinados usando grandes quantidades de dados e podem gerar qualquer tipo de saída.
IA de propósito geral inclui sistemas que podem ser adaptados a diferentes casos de uso e setores.
Os reguladores da UE querem regulamentar estritamente os modelos de base, pois eles podem representar mais riscos e afetar negativamente a vida das pessoas.
Como os EUA e a China estão regulando a IA
Se olharmos para como os reguladores da UE estão tratando a IA, há algo que se destaca: parece que os reguladores estão menos dispostos a cooperar.
Nos EUA, por exemplo, a administração Biden buscou comentários públicos sobre a segurança de sistemas como o ChatGPT, antes de desenhar um possível marco regulatório.
Na China, o governo tem regulado a IA e a coleta de dados há anos, e sua principal preocupação continua sendo a estabilidade social.
Até agora, o país que parece estar bem posicionado na regulação de IA é o Reino Unido, que optou por uma abordagem “leve” — mas não é segredo que o Reino Unido quer se tornar um líder na adoção de IA e fintech.
Fintech e a Lei de IA
Quando se trata de empresas e startups que oferecem serviços financeiros, a situação é ainda mais complicada.
De fato, se a Lei permanecer na versão atual, as fintechs precisarão não apenas estar vinculadas às regulamentações financeiras atuais, mas também a esse novo marco regulatório.
O fato de a avaliação de solvência poder ser rotulada como um caso de uso de alto risco é apenas um exemplo do peso que as fintechs terão que carregar, impedindo-as de serem tão flexíveis quanto foram até agora, para captar investimentos e manter a competitividade.
Conclusão
Como apontou Peter Sarlin, CEO da Silo AI, o problema não é a regulamentação, mas a má regulamentação.
Ser demasiado genérico pode prejudicar a inovação e todas as empresas envolvidas na produção, distribuição e uso de produtos e serviços baseados em IA.
Se os investidores da UE ficarem preocupados com os riscos potenciais de uma etiqueta que indique que uma startup ou empresa é de “alto risco”, o ambiente de IA na União Europeia pode ser afetado negativamente, enquanto os EUA buscam comentários públicos para melhorar sua tecnologia e a China já tem uma opinião clara sobre como regular a inteligência artificial.
Segundo Robin Röhm, cofundador da Apheris, um dos cenários possíveis é que as startups se mudem para os EUA — um país que talvez tenha muito a perder no que diz respeito a blockchain e criptomoedas, mas que pode vencer a corrida pela IA.
Se quer saber mais sobre fintech e descobrir notícias, eventos e opiniões do setor, inscreva-se na Newsletter FTW!
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
IA na Europa: O que a Lei de IA Pode Significar
Foto de Maico Amorim no Unsplash
A Lei de IA ainda está apenas em projeto, mas investidores e empresários na União Europeia já estão nervosos com os possíveis desfechos.
Será que ela impedirá a União Europeia de ser um concorrente valioso no cenário global?
Segundo reguladores, esse não é o caso. Mas vamos ver o que está acontecendo.
A Lei de IA e Avaliação de Risco
A Lei de IA divide os riscos apresentados pela inteligência artificial em diferentes categorias, mas antes disso, ela restringe a definição de inteligência artificial para incluir apenas sistemas baseados em aprendizagem de máquina e lógica.
Isso não serve apenas para diferenciar sistemas de IA de softwares mais simples, mas também ajuda a entender por que a UE quer categorizar o risco.
Os diferentes usos de IA são classificados em risco inaceitável, alto risco e risco baixo ou mínimo. As práticas que se enquadram na categoria de risco inaceitável são consideradas proibidas.
Esse tipo de prática inclui:
Existem alguns casos de uso, que devem ser considerados semelhantes a algumas das práticas incluídas nas atividades proibidas, que se enquadram na categoria de práticas de alto risco.
Estes incluem sistemas utilizados para recrutar trabalhadores ou para avaliar e analisar a solvência de pessoas (e isso pode ser perigoso para fintechs). Nesses casos, todas as empresas que criam ou usam esse tipo de sistema devem produzir relatórios detalhados para explicar como o sistema funciona e as medidas tomadas para evitar riscos às pessoas e para serem o mais transparentes possível.
Tudo parece claro e correto, mas há alguns problemas que os reguladores devem abordar.
A Lei parece demasiado genérica
Um dos aspectos que mais preocupa empresários e investidores é a falta de atenção a setores específicos de IA.
Por exemplo, aquelas empresas que produzem e usam sistemas de IA para fins gerais poderiam ser consideradas como aquelas que utilizam inteligência artificial para casos de uso de alto risco.
Isso significa que elas deveriam produzir relatórios detalhados que custam tempo e dinheiro. Como as PME não são exceção, e representam a maior parte das economias europeias, elas podem se tornar menos competitivas com o tempo.
E é precisamente a diferença entre empresas de IA dos EUA e da Europa que levanta grandes preocupações: na verdade, a Europa não possui grandes empresas de IA como os EUA, pois o ambiente de IA na Europa é principalmente criado por PME e startups.
Segundo uma pesquisa conduzida pela appliedAI, a maioria dos investidores evitaria investir em startups rotuladas como “alto risco”, justamente por causa das complexidades envolvidas nessa classificação.
ChatGPT mudou os planos da UE
Os reguladores da UE deveriam ter encerrado o documento em 19 de abril, mas a discussão sobre as diferentes definições de sistemas de IA e seus casos de uso atrasou a entrega do rascunho final.
Além disso, empresas de tecnologia mostraram que nem todas concordam com a versão atual do documento.
O ponto que mais causou atrasos foi a diferenciação entre modelos de base e IA de propósito geral.
Um exemplo de modelos de base de IA é o ChatGPT da OpenAI: esses sistemas são treinados usando grandes quantidades de dados e podem gerar qualquer tipo de saída.
IA de propósito geral inclui sistemas que podem ser adaptados a diferentes casos de uso e setores.
Os reguladores da UE querem regulamentar estritamente os modelos de base, pois eles podem representar mais riscos e afetar negativamente a vida das pessoas.
Como os EUA e a China estão regulando a IA
Se olharmos para como os reguladores da UE estão tratando a IA, há algo que se destaca: parece que os reguladores estão menos dispostos a cooperar.
Nos EUA, por exemplo, a administração Biden buscou comentários públicos sobre a segurança de sistemas como o ChatGPT, antes de desenhar um possível marco regulatório.
Na China, o governo tem regulado a IA e a coleta de dados há anos, e sua principal preocupação continua sendo a estabilidade social.
Até agora, o país que parece estar bem posicionado na regulação de IA é o Reino Unido, que optou por uma abordagem “leve” — mas não é segredo que o Reino Unido quer se tornar um líder na adoção de IA e fintech.
Fintech e a Lei de IA
Quando se trata de empresas e startups que oferecem serviços financeiros, a situação é ainda mais complicada.
De fato, se a Lei permanecer na versão atual, as fintechs precisarão não apenas estar vinculadas às regulamentações financeiras atuais, mas também a esse novo marco regulatório.
O fato de a avaliação de solvência poder ser rotulada como um caso de uso de alto risco é apenas um exemplo do peso que as fintechs terão que carregar, impedindo-as de serem tão flexíveis quanto foram até agora, para captar investimentos e manter a competitividade.
Conclusão
Como apontou Peter Sarlin, CEO da Silo AI, o problema não é a regulamentação, mas a má regulamentação.
Ser demasiado genérico pode prejudicar a inovação e todas as empresas envolvidas na produção, distribuição e uso de produtos e serviços baseados em IA.
Se os investidores da UE ficarem preocupados com os riscos potenciais de uma etiqueta que indique que uma startup ou empresa é de “alto risco”, o ambiente de IA na União Europeia pode ser afetado negativamente, enquanto os EUA buscam comentários públicos para melhorar sua tecnologia e a China já tem uma opinião clara sobre como regular a inteligência artificial.
Segundo Robin Röhm, cofundador da Apheris, um dos cenários possíveis é que as startups se mudem para os EUA — um país que talvez tenha muito a perder no que diz respeito a blockchain e criptomoedas, mas que pode vencer a corrida pela IA.
Se quer saber mais sobre fintech e descobrir notícias, eventos e opiniões do setor, inscreva-se na Newsletter FTW!