Devin Partida é a Editora-chefe da ReHack. Como escritora, o seu trabalho foi destaque na Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf e outros.
Descubra as principais notícias e eventos do setor fintech!
Subscreva à newsletter do FinTech Weekly
Lido por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais
A inteligência artificial (IA) é uma das tecnologias mais promissoras, mas também mais preocupantes, no fintech atualmente. Agora que a DeepSeek causou impacto no espaço da IA, as suas possibilidades e armadilhas específicas exigem atenção.
Enquanto o ChatGPT levou a IA generativa ao mainstream em 2022, a DeepSeek elevou-a a novos patamares com o lançamento do seu modelo DeepSeek-R1 em 2025.
O algoritmo é de código aberto e gratuito, mas tem um desempenho semelhante ao de alternativas proprietárias pagas. Assim, representa uma oportunidade de negócio tentadora para empresas fintech que desejam capitalizar a IA, mas também levanta algumas questões éticas.
Leituras recomendadas:
* **O Modelo R1 da DeepSeek Desencadeia Debate sobre o Futuro do Desenvolvimento de IA**
* **O Modelo de IA da DeepSeek: Oportunidade e Risco para Pequenas Empresas de Tecnologia**
Privacidade de Dados
Como acontece com muitas aplicações de IA, a privacidade dos dados é uma preocupação. Modelos de linguagem de grande escala (LLMs), como o DeepSeek, requerem uma quantidade substancial de informações, e, num setor como o fintech, grande parte desses dados pode ser sensível.
A DeepSeek tem a complicação adicional de ser uma empresa chinesa. O governo da China pode aceder a todas as informações de centros de dados de propriedade chinesa ou solicitar dados às empresas dentro do país. Consequentemente, o modelo pode apresentar riscos relacionados a espionagem estrangeira e propaganda.
Outra preocupação são as violações de dados por terceiros. A DeepSeek já sofreu uma fuga que expôs mais de 1 milhão de registros, o que pode lançar dúvidas sobre a segurança das ferramentas de IA.
Viés em IA
Modelos de aprendizagem de máquina como o DeepSeek são propensos a viés. Como os modelos de IA são tão hábeis em identificar e aprender com padrões sutis que os humanos podem não perceber, podem adotar preconceitos inconscientes presentes nos seus dados de treino. Ao aprenderem com essas informações tendenciosas, podem perpetuar e agravar problemas de desigualdade.
Tais preocupações são particularmente relevantes no setor financeiro. Como as instituições financeiras historicamente negaram oportunidades a minorias, grande parte dos seus dados históricos revela um viés significativo. Treinar o DeepSeek com esses conjuntos de dados pode levar a ações ainda mais tendenciosas, como a IA negar empréstimos ou hipotecas com base na etnia de alguém, em vez de sua solvência.
Confiança do Consumidor
À medida que as questões relacionadas à IA têm ocupado manchetes, o público em geral tem ficado cada vez mais desconfiado desses serviços. Isso pode levar a uma erosão da confiança entre uma empresa fintech e os seus clientes se não gerenciar essas preocupações de forma transparente.
A DeepSeek pode enfrentar uma barreira única aqui. A empresa supostamente construiu o seu modelo por apenas 6 milhões de dólares e, como uma empresa chinesa de rápido crescimento, pode lembrar as preocupações de privacidade que afetaram o TikTok. O público pode não estar entusiasmado em confiar uma IA de baixo custo e de rápida implementação com os seus dados, especialmente quando o governo chinês pode ter alguma influência.
Como Garantir uma Implementação Segura e Ética do DeepSeek
Essas considerações éticas não significam que as empresas fintech não possam usar o DeepSeek de forma segura, mas ressaltam a importância de uma implementação cuidadosa. As organizações podem implantar o DeepSeek de forma ética e segura seguindo estas melhores práticas.
Executar o DeepSeek em Servidores Locais
Um dos passos mais importantes é executar a ferramenta de IA em centros de dados nacionais. Embora a DeepSeek seja uma empresa chinesa, seus pesos de modelo são de código aberto, permitindo rodar em servidores nos EUA e mitigar preocupações sobre violações de privacidade por parte do governo chinês.
No entanto, nem todos os centros de dados são igualmente confiáveis. Idealmente, as empresas fintech deveriam hospedar o DeepSeek em seu próprio hardware. Quando isso não for possível, a liderança deve escolher um provedor com cuidado, apenas fazendo parcerias com aqueles que garantam alta disponibilidade e padrões de segurança como ISO 27001 e NIST 800-53.
Minimizar o Acesso a Dados Sensíveis
Ao construir uma aplicação baseada no DeepSeek, as empresas fintech devem considerar os tipos de dados aos quais o modelo pode ter acesso. A IA deve acessar apenas o que for necessário para desempenhar sua função. Também é ideal eliminar quaisquer informações de identificação pessoal (PII) desnecessárias dos dados acessíveis.
Quando o DeepSeek contém menos detalhes sensíveis, qualquer violação será menos impactante. Minimizar a coleta de PII também é fundamental para manter a conformidade com leis como o Regulamento Geral de Proteção de Dados (GDPR) e a Lei Gramm-Leach-Bliley (GLBA).
Implementar Controles de Cibersegurança
Leis como o GDPR e a GLBA geralmente exigem medidas de proteção para evitar violações desde o início. Mesmo fora do âmbito dessas legislações, o histórico de vazamentos do DeepSeek destaca a necessidade de medidas adicionais de segurança.
No mínimo, as fintechs devem criptografar todos os dados acessíveis à IA, tanto em repouso quanto em trânsito. Testes de penetração regulares para identificar e corrigir vulnerabilidades também são recomendados.
As organizações fintech também devem considerar monitoramento automatizado de suas aplicações DeepSeek, pois essa automação pode economizar cerca de 2,2 milhões de dólares em custos de violações, graças a respostas mais rápidas e eficazes.
Auditar e Monitorar Todas as Aplicações de IA
Mesmo após seguir essas etapas, é fundamental manter uma vigilância constante. Audite a aplicação baseada no DeepSeek antes de implantá-la, procurando sinais de viés ou vulnerabilidades de segurança. Lembre-se de que alguns problemas podem não ser perceptíveis inicialmente, portanto, revisões contínuas são essenciais.
Crie uma equipe dedicada para monitorar os resultados da IA e garantir que ela permaneça ética e em conformidade com as regulamentações. É importante também ser transparente com os clientes sobre essas práticas. Essa transparência ajuda a construir confiança em um campo, muitas vezes, duvidoso.
Empresas fintech Devem Considerar a Ética na IA
Os dados do setor fintech são particularmente sensíveis, portanto todas as organizações desse setor devem tratar ferramentas dependentes de dados, como a IA, com seriedade. O DeepSeek pode ser um recurso promissor para os negócios, mas somente se seu uso seguir rígidos princípios éticos e de segurança.
Assim que os líderes do setor compreenderem a necessidade de esses cuidados, poderão garantir que seus investimentos em DeepSeek e outros projetos de IA permaneçam seguros e justos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Considerações Éticas na Implementação do DeepSeek AI no setor Fintech
Devin Partida é a Editora-chefe da ReHack. Como escritora, o seu trabalho foi destaque na Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf e outros.
Descubra as principais notícias e eventos do setor fintech!
Subscreva à newsletter do FinTech Weekly
Lido por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais
A inteligência artificial (IA) é uma das tecnologias mais promissoras, mas também mais preocupantes, no fintech atualmente. Agora que a DeepSeek causou impacto no espaço da IA, as suas possibilidades e armadilhas específicas exigem atenção.
Enquanto o ChatGPT levou a IA generativa ao mainstream em 2022, a DeepSeek elevou-a a novos patamares com o lançamento do seu modelo DeepSeek-R1 em 2025.
O algoritmo é de código aberto e gratuito, mas tem um desempenho semelhante ao de alternativas proprietárias pagas. Assim, representa uma oportunidade de negócio tentadora para empresas fintech que desejam capitalizar a IA, mas também levanta algumas questões éticas.
Leituras recomendadas:
Privacidade de Dados
Como acontece com muitas aplicações de IA, a privacidade dos dados é uma preocupação. Modelos de linguagem de grande escala (LLMs), como o DeepSeek, requerem uma quantidade substancial de informações, e, num setor como o fintech, grande parte desses dados pode ser sensível.
A DeepSeek tem a complicação adicional de ser uma empresa chinesa. O governo da China pode aceder a todas as informações de centros de dados de propriedade chinesa ou solicitar dados às empresas dentro do país. Consequentemente, o modelo pode apresentar riscos relacionados a espionagem estrangeira e propaganda.
Outra preocupação são as violações de dados por terceiros. A DeepSeek já sofreu uma fuga que expôs mais de 1 milhão de registros, o que pode lançar dúvidas sobre a segurança das ferramentas de IA.
Viés em IA
Modelos de aprendizagem de máquina como o DeepSeek são propensos a viés. Como os modelos de IA são tão hábeis em identificar e aprender com padrões sutis que os humanos podem não perceber, podem adotar preconceitos inconscientes presentes nos seus dados de treino. Ao aprenderem com essas informações tendenciosas, podem perpetuar e agravar problemas de desigualdade.
Tais preocupações são particularmente relevantes no setor financeiro. Como as instituições financeiras historicamente negaram oportunidades a minorias, grande parte dos seus dados históricos revela um viés significativo. Treinar o DeepSeek com esses conjuntos de dados pode levar a ações ainda mais tendenciosas, como a IA negar empréstimos ou hipotecas com base na etnia de alguém, em vez de sua solvência.
Confiança do Consumidor
À medida que as questões relacionadas à IA têm ocupado manchetes, o público em geral tem ficado cada vez mais desconfiado desses serviços. Isso pode levar a uma erosão da confiança entre uma empresa fintech e os seus clientes se não gerenciar essas preocupações de forma transparente.
A DeepSeek pode enfrentar uma barreira única aqui. A empresa supostamente construiu o seu modelo por apenas 6 milhões de dólares e, como uma empresa chinesa de rápido crescimento, pode lembrar as preocupações de privacidade que afetaram o TikTok. O público pode não estar entusiasmado em confiar uma IA de baixo custo e de rápida implementação com os seus dados, especialmente quando o governo chinês pode ter alguma influência.
Como Garantir uma Implementação Segura e Ética do DeepSeek
Essas considerações éticas não significam que as empresas fintech não possam usar o DeepSeek de forma segura, mas ressaltam a importância de uma implementação cuidadosa. As organizações podem implantar o DeepSeek de forma ética e segura seguindo estas melhores práticas.
Executar o DeepSeek em Servidores Locais
Um dos passos mais importantes é executar a ferramenta de IA em centros de dados nacionais. Embora a DeepSeek seja uma empresa chinesa, seus pesos de modelo são de código aberto, permitindo rodar em servidores nos EUA e mitigar preocupações sobre violações de privacidade por parte do governo chinês.
No entanto, nem todos os centros de dados são igualmente confiáveis. Idealmente, as empresas fintech deveriam hospedar o DeepSeek em seu próprio hardware. Quando isso não for possível, a liderança deve escolher um provedor com cuidado, apenas fazendo parcerias com aqueles que garantam alta disponibilidade e padrões de segurança como ISO 27001 e NIST 800-53.
Minimizar o Acesso a Dados Sensíveis
Ao construir uma aplicação baseada no DeepSeek, as empresas fintech devem considerar os tipos de dados aos quais o modelo pode ter acesso. A IA deve acessar apenas o que for necessário para desempenhar sua função. Também é ideal eliminar quaisquer informações de identificação pessoal (PII) desnecessárias dos dados acessíveis.
Quando o DeepSeek contém menos detalhes sensíveis, qualquer violação será menos impactante. Minimizar a coleta de PII também é fundamental para manter a conformidade com leis como o Regulamento Geral de Proteção de Dados (GDPR) e a Lei Gramm-Leach-Bliley (GLBA).
Implementar Controles de Cibersegurança
Leis como o GDPR e a GLBA geralmente exigem medidas de proteção para evitar violações desde o início. Mesmo fora do âmbito dessas legislações, o histórico de vazamentos do DeepSeek destaca a necessidade de medidas adicionais de segurança.
No mínimo, as fintechs devem criptografar todos os dados acessíveis à IA, tanto em repouso quanto em trânsito. Testes de penetração regulares para identificar e corrigir vulnerabilidades também são recomendados.
As organizações fintech também devem considerar monitoramento automatizado de suas aplicações DeepSeek, pois essa automação pode economizar cerca de 2,2 milhões de dólares em custos de violações, graças a respostas mais rápidas e eficazes.
Auditar e Monitorar Todas as Aplicações de IA
Mesmo após seguir essas etapas, é fundamental manter uma vigilância constante. Audite a aplicação baseada no DeepSeek antes de implantá-la, procurando sinais de viés ou vulnerabilidades de segurança. Lembre-se de que alguns problemas podem não ser perceptíveis inicialmente, portanto, revisões contínuas são essenciais.
Crie uma equipe dedicada para monitorar os resultados da IA e garantir que ela permaneça ética e em conformidade com as regulamentações. É importante também ser transparente com os clientes sobre essas práticas. Essa transparência ajuda a construir confiança em um campo, muitas vezes, duvidoso.
Empresas fintech Devem Considerar a Ética na IA
Os dados do setor fintech são particularmente sensíveis, portanto todas as organizações desse setor devem tratar ferramentas dependentes de dados, como a IA, com seriedade. O DeepSeek pode ser um recurso promissor para os negócios, mas somente se seu uso seguir rígidos princípios éticos e de segurança.
Assim que os líderes do setor compreenderem a necessidade de esses cuidados, poderão garantir que seus investimentos em DeepSeek e outros projetos de IA permaneçam seguros e justos.