Roman Eloshvili é fundador da ComplyControl, uma startup de conformidade e deteção de fraude alimentada por IA para instituições financeiras.
Descubra as principais notícias e eventos do setor fintech!
Subscreva a newsletter do FinTech Weekly
Lida por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais
O que é que a IA em Conformidade realmente está a testar: Tecnologia, ou Nós?
Nos serviços financeiros, a conformidade já não é apenas uma função. É um ponto de pressão ativo—onde regulamentos, risco e operações colidem. À medida que as tecnologias de IA são introduzidas neste espaço, uma questão continua a surgir: quanto podemos realmente automatizar, e quem permanece responsável quando algo corre mal?
A atratividade da IA na deteção de fraudes e conformidade é fácil de entender. As instituições financeiras enfrentam expectativas crescentes para processar grandes volumes de dados, responder a ameaças em evolução e cumprir regulamentos em mudança—tudo sem comprometer a velocidade ou a precisão. A automação, especialmente quando impulsionada por aprendizagem automática, oferece uma forma de reduzir a carga operacional. Mas também levanta preocupações mais profundas sobre governação, explicabilidade e controlo.
Estas tensões não são teóricas. Estão a desenrolar-se em tempo real, à medida que as empresas financeiras implementam modelos de IA em funções tradicionalmente desempenhadas por analistas humanos. Por trás das cenas, surgem novos riscos: falsos positivos, pontos cegos na auditoria e decisões algorítmicas que permanecem opacas tanto para utilizadores quanto para reguladores.
Ao mesmo tempo, os profissionais de conformidade estão a ser convidados a mudar de funções. Em vez de inspecionar manualmente cada transação, agora supervisionam as ferramentas que o fazem. Esta reformulação—de executor a avaliador—exige não apenas novas competências técnicas, mas também um sentido mais forte de responsabilidade ética e procedimental. A IA pode escalar a análise de dados. Pode sinalizar inconsistências. Mas não consegue explicar completamente a intenção, interpretar o contexto ou absorver a culpa.
Compreender esses limites é fundamental. E poucos estão melhor posicionados para explorá-los do que Roman Eloshvili, fundador da empresa de tecnologia de conformidade ComplyControl. O seu trabalho situa-se precisamente na interseção de risco, automação e supervisão—onde a eficiência algorítmica encontra o escrutínio regulatório.
Com mais de uma década na área, Roman viu em primeira mão como as equipas de conformidade estão a evoluir e como a IA está a remodelar tanto os seus fluxos de trabalho quanto as suas responsabilidades. Ele defende que a promessa da IA não reside em eliminar funções humanas, mas em remodelá-las—trazendo maior clareza sobre o que as máquinas devem tratar e o que os humanos ainda devem possuir.
Esta mudança exige mais do que atualizações técnicas. Requer um realinhamento cultural em torno da responsabilidade. Sistemas transparentes, processos auditáveis e responsabilidades humanas claramente atribuídas já não são apenas características—são o padrão mínimo. Quando a IA é introduzida em infraestruturas críticas, ela não resolve apenas problemas. Introduz uma nova categoria de decisões que requerem uma gestão ativa e estratégica.
Nesta conversa para o FinTech Weekly, Roman oferece uma visão fundamentada do que é necessário para integrar a IA de forma responsável na conformidade e na prevenção de fraudes. A sua perspetiva não apresenta a automação como uma inevitabilidade, mas como uma escolha—que exige julgamento humano contínuo, clareza operacional e disposição para fazer perguntas difíceis sobre onde realmente reside a confiança.
Temos o prazer de partilhar as suas perceções num momento em que muitos no setor fintech questionam não se devem adotar IA—mas como fazê-lo sem perder de vista os padrões que fizeram os sistemas financeiros funcionarem desde o início.
1. Construíste uma carreira na encruzilhada entre conformidade e tecnologia. Consegues recordar o momento em que percebeste que a IA poderia mudar fundamentalmente a forma como a gestão de risco é feita?
Não diria que foi apenas um momento específico que mudou tudo. Antes, foi um processo disperso. Passei uma boa parte da minha carreira a trabalhar com bancos europeus estabelecidos, e uma coisa que notei foi que muitos deles estavam bastante atrasados em soluções de banca digital. A diferença era especialmente evidente em comparação com polos mais avançados de fintech.
Há alguns anos, quando o tema do desenvolvimento de IA voltou a aquecer, naturalmente fiquei curioso e investiguei. E, ao estudar a tecnologia e o seu funcionamento, percebi que a inteligência artificial tinha potencial para mudar drasticamente a forma como os bancos lidam com a conformidade, colocando-os mais ao nível de fintechs modernas e mais ágeis.
Foi isso que me levou a lançar a minha empresa em 2023. A complexidade da conformidade e da gestão de risco só aumenta a cada ano. Diante desta realidade, a nossa missão é simples: trazer soluções alimentadas por IA às empresas financeiras e ajudá-las a lidar com estes desafios crescentes de forma mais eficaz.
2. Da tua perspetiva profissional, como evoluiu o papel dos especialistas humanos à medida que as ferramentas de IA se tornaram mais avançadas na conformidade e na deteção de fraudes?
Antes de mais, deixa-me abordar uma preocupação comum em muitas áreas: se a IA vai substituir os trabalhadores humanos. E, no que diz respeito aos profissionais de conformidade e risco, a minha resposta é não—pelo menos, não tão cedo.
Embora a inteligência artificial já esteja a transformar a nossa indústria, ela ainda está longe de ser infalível. Assim, a intervenção humana continua a ser um fator essencial. As regulamentações de conformidade mudam constantemente, e alguém tem de assumir a responsabilidade quando os sistemas falham ou cometem erros. No estado atual de desenvolvimento, a IA ainda tem dificuldades em explicar claramente as suas decisões, pelo que não está pronta para agir sozinha. Especialmente numa área onde a confiança e a transparência são fundamentais.
Dito isto, a IA está a facilitar ativamente os processos de conformidade. Por exemplo, dependendo da configuração, os sistemas de IA podem agora sinalizar transações suspeitas ou até bloqueá-las temporariamente enquanto solicitam verificação adicional. Não é necessário que humanos reais revirem cada detalhe manualmente, a menos que algo realmente pareça estranho. E, à medida que estes sistemas evoluem, continuarão a reduzir a necessidade de trabalho manual, permitindo às equipas focar-se mais em tarefas complexas que realmente exigem um toque humano.
Acredito que vamos assistir ao surgimento de um modelo híbrido, onde os especialistas em conformidade também se tornarão cada vez mais proficientes no uso de ferramentas de IA. Serão eles a implementar e manter os sistemas de IA, enquanto a própria IA simplificará o trabalho deles ao interpretar dados complexos e fornecer recomendações. No entanto, o julgamento final continuará a ser dos humanos.
3. Quando trabalha com IA em áreas sensíveis como a conformidade financeira, como abordaste pessoalmente o desafio de manter a confiança e a responsabilidade na tomada de decisões?
Claro. Como já mencionei, quando se usa IA na conformidade, a confiança é crucial.
Por isso, construímos os nossos sistemas de IA para serem totalmente transparentes. Eles não funcionam como uma “caixa preta”—cada recomendação que o sistema faz baseia-se em regras e dados rastreáveis. Mantemos um registo completo de como cada decisão é tomada, para que possa ser totalmente explicável. Esta prática já se revelou extremamente valiosa ao lidar com reguladores.
A decisão final cabe sempre ao responsável de conformidade. A IA simplesmente oferece uma sugestão bem fundamentada, que o humano pode facilmente verificar e decidir se aprova ou rejeita.
4. A tua experiência abrange mais de 10 anos. Como mudou a tua mentalidade sobre automação e supervisão humana ao longo da tua carreira, especialmente agora com a IA a tornar-se mais autónoma?
Com certeza. Falando de forma mais geral sobre o estado da adoção de IA, quanto mais esta tecnologia avança, mais autonomia lhe permitimos—desde que seja devidamente testada e continue a demonstrar fiabilidade.
Mas o que está a mudar ainda mais é o papel do especialista humano nesta equação. Em vez de gerir cada caso minuciosamente, os responsáveis de conformidade estão agora a desempenhar cada vez mais o papel de supervisores estratégicos. Podem rever lotes inteiros de casos semelhantes em pouco tempo, validar o desempenho do sistema e ajustar modelos com base nos resultados.
Em outras palavras, o papel de responsável de conformidade está a passar de fazer o trabalho manual para gerir sistemas de IA enquanto estes fazem o trabalho por eles.
5. Trabalhar com IA na gestão de risco levanta questões éticas complexas. Como desenvolveste pessoalmente uma estrutura para tomar decisões responsáveis ao desenhar ou implementar soluções baseadas em IA?
Baseámos a nossa abordagem em duas ideias-chave: supervisão clara e princípios de IA Responsável. Cada modelo que usamos tem alguém responsável por ele. Avaliações de risco, revisões de desempenho e verificações de conformidade são feitas regularmente.
Também garantimos que os nossos sistemas sejam auditáveis. Se o algoritmo tomar uma decisão, esse processo pode ser revisto e verificado. Esta transparência é uma parte fundamental do nosso compromisso com o desenvolvimento responsável de IA.
6. Na tua trajetória, qual foi a lição profissional mais difícil que aprendeste sobre os limites—ou os riscos—de confiar demasiado na automação em áreas críticas como a prevenção de fraudes?
Uma lição que certamente devemos ter sempre presente é que mesmo modelos bem treinados podem ainda “alucinar”—podem cometer erros de forma subtil, mas grave.
A IA pode falhar ao detectar esquemas de fraude complexos, ou pode gerar demasiados alertas falsos. É exatamente por isso que combinar IA com expertise humana é tão importante—os humanos trazem julgamento fluido e são melhores a avaliar ética e o contexto geral, de uma forma que a IA não consegue.
O equilíbrio entre os dois promete resultados melhores e mais fiáveis. A IA pode ser usada para cobrir o volume enorme de tarefas e aliviar a sua complexidade, enquanto as pessoas mantêm o nível adequado de precisão e confiança.
7. Para jovens profissionais que entram na conformidade, gestão de risco ou desenvolvimento de IA hoje, que princípios ou hábitos pessoais aconselharias a cultivar para terem sucesso e se adaptarem a um ambiente tão rapidamente mutável?
Primeiro e mais importante: nunca deixes de aprender. O progresso tecnológico não tem botão de pausa, e é preciso acompanhar ou ficar para trás. Não há meio-termo aqui.
Em segundo lugar, pensa de forma ampla. Com o avanço da IA, as fronteiras entre funções estão a ficar difusas—tecnologia, finanças e regulamentação estão a tornar-se um conjunto misto. Estou convencido de que ter um conjunto de competências diversificado e uma mente aberta serão as características definitivas para futuros profissionais nesta área.
Terceiro—e uma continuação natural dos dois anteriores—sê adaptável. A mudança é constante, e a capacidade de ajustar rapidamente será uma grande vantagem para ti.
E por último, desenvolve boas competências de comunicação e aprende a trabalhar em equipa. Como já discutimos, a conformidade situa-se na encruzilhada entre negócios, tecnologia e lei. Assim, ser capaz de mudar de ritmo e comunicar com pessoas de todos esses mundos será uma habilidade valiosa.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A IA em Conformidade Não é uma Caixa Preta — É um Teste de Responsabilidade: Entrevista com Roman Eloshvili
Roman Eloshvili é fundador da ComplyControl, uma startup de conformidade e deteção de fraude alimentada por IA para instituições financeiras.
Descubra as principais notícias e eventos do setor fintech!
Subscreva a newsletter do FinTech Weekly
Lida por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais
O que é que a IA em Conformidade realmente está a testar: Tecnologia, ou Nós?
Nos serviços financeiros, a conformidade já não é apenas uma função. É um ponto de pressão ativo—onde regulamentos, risco e operações colidem. À medida que as tecnologias de IA são introduzidas neste espaço, uma questão continua a surgir: quanto podemos realmente automatizar, e quem permanece responsável quando algo corre mal?
A atratividade da IA na deteção de fraudes e conformidade é fácil de entender. As instituições financeiras enfrentam expectativas crescentes para processar grandes volumes de dados, responder a ameaças em evolução e cumprir regulamentos em mudança—tudo sem comprometer a velocidade ou a precisão. A automação, especialmente quando impulsionada por aprendizagem automática, oferece uma forma de reduzir a carga operacional. Mas também levanta preocupações mais profundas sobre governação, explicabilidade e controlo.
Estas tensões não são teóricas. Estão a desenrolar-se em tempo real, à medida que as empresas financeiras implementam modelos de IA em funções tradicionalmente desempenhadas por analistas humanos. Por trás das cenas, surgem novos riscos: falsos positivos, pontos cegos na auditoria e decisões algorítmicas que permanecem opacas tanto para utilizadores quanto para reguladores.
Ao mesmo tempo, os profissionais de conformidade estão a ser convidados a mudar de funções. Em vez de inspecionar manualmente cada transação, agora supervisionam as ferramentas que o fazem. Esta reformulação—de executor a avaliador—exige não apenas novas competências técnicas, mas também um sentido mais forte de responsabilidade ética e procedimental. A IA pode escalar a análise de dados. Pode sinalizar inconsistências. Mas não consegue explicar completamente a intenção, interpretar o contexto ou absorver a culpa.
Compreender esses limites é fundamental. E poucos estão melhor posicionados para explorá-los do que Roman Eloshvili, fundador da empresa de tecnologia de conformidade ComplyControl. O seu trabalho situa-se precisamente na interseção de risco, automação e supervisão—onde a eficiência algorítmica encontra o escrutínio regulatório.
Com mais de uma década na área, Roman viu em primeira mão como as equipas de conformidade estão a evoluir e como a IA está a remodelar tanto os seus fluxos de trabalho quanto as suas responsabilidades. Ele defende que a promessa da IA não reside em eliminar funções humanas, mas em remodelá-las—trazendo maior clareza sobre o que as máquinas devem tratar e o que os humanos ainda devem possuir.
Esta mudança exige mais do que atualizações técnicas. Requer um realinhamento cultural em torno da responsabilidade. Sistemas transparentes, processos auditáveis e responsabilidades humanas claramente atribuídas já não são apenas características—são o padrão mínimo. Quando a IA é introduzida em infraestruturas críticas, ela não resolve apenas problemas. Introduz uma nova categoria de decisões que requerem uma gestão ativa e estratégica.
Nesta conversa para o FinTech Weekly, Roman oferece uma visão fundamentada do que é necessário para integrar a IA de forma responsável na conformidade e na prevenção de fraudes. A sua perspetiva não apresenta a automação como uma inevitabilidade, mas como uma escolha—que exige julgamento humano contínuo, clareza operacional e disposição para fazer perguntas difíceis sobre onde realmente reside a confiança.
Temos o prazer de partilhar as suas perceções num momento em que muitos no setor fintech questionam não se devem adotar IA—mas como fazê-lo sem perder de vista os padrões que fizeram os sistemas financeiros funcionarem desde o início.
1. Construíste uma carreira na encruzilhada entre conformidade e tecnologia. Consegues recordar o momento em que percebeste que a IA poderia mudar fundamentalmente a forma como a gestão de risco é feita?
Não diria que foi apenas um momento específico que mudou tudo. Antes, foi um processo disperso. Passei uma boa parte da minha carreira a trabalhar com bancos europeus estabelecidos, e uma coisa que notei foi que muitos deles estavam bastante atrasados em soluções de banca digital. A diferença era especialmente evidente em comparação com polos mais avançados de fintech.
Há alguns anos, quando o tema do desenvolvimento de IA voltou a aquecer, naturalmente fiquei curioso e investiguei. E, ao estudar a tecnologia e o seu funcionamento, percebi que a inteligência artificial tinha potencial para mudar drasticamente a forma como os bancos lidam com a conformidade, colocando-os mais ao nível de fintechs modernas e mais ágeis.
Foi isso que me levou a lançar a minha empresa em 2023. A complexidade da conformidade e da gestão de risco só aumenta a cada ano. Diante desta realidade, a nossa missão é simples: trazer soluções alimentadas por IA às empresas financeiras e ajudá-las a lidar com estes desafios crescentes de forma mais eficaz.
2. Da tua perspetiva profissional, como evoluiu o papel dos especialistas humanos à medida que as ferramentas de IA se tornaram mais avançadas na conformidade e na deteção de fraudes?
Antes de mais, deixa-me abordar uma preocupação comum em muitas áreas: se a IA vai substituir os trabalhadores humanos. E, no que diz respeito aos profissionais de conformidade e risco, a minha resposta é não—pelo menos, não tão cedo.
Embora a inteligência artificial já esteja a transformar a nossa indústria, ela ainda está longe de ser infalível. Assim, a intervenção humana continua a ser um fator essencial. As regulamentações de conformidade mudam constantemente, e alguém tem de assumir a responsabilidade quando os sistemas falham ou cometem erros. No estado atual de desenvolvimento, a IA ainda tem dificuldades em explicar claramente as suas decisões, pelo que não está pronta para agir sozinha. Especialmente numa área onde a confiança e a transparência são fundamentais.
Dito isto, a IA está a facilitar ativamente os processos de conformidade. Por exemplo, dependendo da configuração, os sistemas de IA podem agora sinalizar transações suspeitas ou até bloqueá-las temporariamente enquanto solicitam verificação adicional. Não é necessário que humanos reais revirem cada detalhe manualmente, a menos que algo realmente pareça estranho. E, à medida que estes sistemas evoluem, continuarão a reduzir a necessidade de trabalho manual, permitindo às equipas focar-se mais em tarefas complexas que realmente exigem um toque humano.
Acredito que vamos assistir ao surgimento de um modelo híbrido, onde os especialistas em conformidade também se tornarão cada vez mais proficientes no uso de ferramentas de IA. Serão eles a implementar e manter os sistemas de IA, enquanto a própria IA simplificará o trabalho deles ao interpretar dados complexos e fornecer recomendações. No entanto, o julgamento final continuará a ser dos humanos.
3. Quando trabalha com IA em áreas sensíveis como a conformidade financeira, como abordaste pessoalmente o desafio de manter a confiança e a responsabilidade na tomada de decisões?
Claro. Como já mencionei, quando se usa IA na conformidade, a confiança é crucial.
Por isso, construímos os nossos sistemas de IA para serem totalmente transparentes. Eles não funcionam como uma “caixa preta”—cada recomendação que o sistema faz baseia-se em regras e dados rastreáveis. Mantemos um registo completo de como cada decisão é tomada, para que possa ser totalmente explicável. Esta prática já se revelou extremamente valiosa ao lidar com reguladores.
A decisão final cabe sempre ao responsável de conformidade. A IA simplesmente oferece uma sugestão bem fundamentada, que o humano pode facilmente verificar e decidir se aprova ou rejeita.
4. A tua experiência abrange mais de 10 anos. Como mudou a tua mentalidade sobre automação e supervisão humana ao longo da tua carreira, especialmente agora com a IA a tornar-se mais autónoma?
Com certeza. Falando de forma mais geral sobre o estado da adoção de IA, quanto mais esta tecnologia avança, mais autonomia lhe permitimos—desde que seja devidamente testada e continue a demonstrar fiabilidade.
Mas o que está a mudar ainda mais é o papel do especialista humano nesta equação. Em vez de gerir cada caso minuciosamente, os responsáveis de conformidade estão agora a desempenhar cada vez mais o papel de supervisores estratégicos. Podem rever lotes inteiros de casos semelhantes em pouco tempo, validar o desempenho do sistema e ajustar modelos com base nos resultados.
Em outras palavras, o papel de responsável de conformidade está a passar de fazer o trabalho manual para gerir sistemas de IA enquanto estes fazem o trabalho por eles.
5. Trabalhar com IA na gestão de risco levanta questões éticas complexas. Como desenvolveste pessoalmente uma estrutura para tomar decisões responsáveis ao desenhar ou implementar soluções baseadas em IA?
Baseámos a nossa abordagem em duas ideias-chave: supervisão clara e princípios de IA Responsável. Cada modelo que usamos tem alguém responsável por ele. Avaliações de risco, revisões de desempenho e verificações de conformidade são feitas regularmente.
Também garantimos que os nossos sistemas sejam auditáveis. Se o algoritmo tomar uma decisão, esse processo pode ser revisto e verificado. Esta transparência é uma parte fundamental do nosso compromisso com o desenvolvimento responsável de IA.
6. Na tua trajetória, qual foi a lição profissional mais difícil que aprendeste sobre os limites—ou os riscos—de confiar demasiado na automação em áreas críticas como a prevenção de fraudes?
Uma lição que certamente devemos ter sempre presente é que mesmo modelos bem treinados podem ainda “alucinar”—podem cometer erros de forma subtil, mas grave.
A IA pode falhar ao detectar esquemas de fraude complexos, ou pode gerar demasiados alertas falsos. É exatamente por isso que combinar IA com expertise humana é tão importante—os humanos trazem julgamento fluido e são melhores a avaliar ética e o contexto geral, de uma forma que a IA não consegue.
O equilíbrio entre os dois promete resultados melhores e mais fiáveis. A IA pode ser usada para cobrir o volume enorme de tarefas e aliviar a sua complexidade, enquanto as pessoas mantêm o nível adequado de precisão e confiança.
7. Para jovens profissionais que entram na conformidade, gestão de risco ou desenvolvimento de IA hoje, que princípios ou hábitos pessoais aconselharias a cultivar para terem sucesso e se adaptarem a um ambiente tão rapidamente mutável?
Primeiro e mais importante: nunca deixes de aprender. O progresso tecnológico não tem botão de pausa, e é preciso acompanhar ou ficar para trás. Não há meio-termo aqui.
Em segundo lugar, pensa de forma ampla. Com o avanço da IA, as fronteiras entre funções estão a ficar difusas—tecnologia, finanças e regulamentação estão a tornar-se um conjunto misto. Estou convencido de que ter um conjunto de competências diversificado e uma mente aberta serão as características definitivas para futuros profissionais nesta área.
Terceiro—e uma continuação natural dos dois anteriores—sê adaptável. A mudança é constante, e a capacidade de ajustar rapidamente será uma grande vantagem para ti.
E por último, desenvolve boas competências de comunicação e aprende a trabalhar em equipa. Como já discutimos, a conformidade situa-se na encruzilhada entre negócios, tecnologia e lei. Assim, ser capaz de mudar de ritmo e comunicar com pessoas de todos esses mundos será uma habilidade valiosa.