A Camada de Julgamento: Por que a IA não é inteligente até que os líderes sejam mais inteligentes

Guillermo Delgado Aparicio é Líder Global de IA na Nisum.


Descubra as principais notícias e eventos do setor fintech!

Inscreva-se na newsletter do FinTech Weekly

Lido por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais


A IA no setor fintech abrange uma variedade de casos de uso, desde deteção de fraude e trading algorítmico até pontuação de crédito dinâmica e recomendações personalizadas de produtos. No entanto, um relatório da Autoridade de Conduta Financeira revelou que, dos 75% das empresas que utilizam IA, apenas 34% sabem como ela funciona.

A questão não é apenas a falta de conhecimento. Trata-se de uma compreensão profunda do poder e do alcance da análise de dados, a disciplina de onde a IA surge. A adoção massiva de ferramentas de IA generativa trouxe o tema para o topo da agenda dos altos executivos. Mas muitas dessas pessoas que decidem como implementar a IA não compreendem seus princípios fundamentais de cálculo, estatística e algoritmos avançados.

Considere a Lei de Benford, um princípio estatístico simples que identifica fraudes ao detectar padrões nos números. A IA baseia-se nesse mesmo tipo de matemática, apenas escalada para milhões de transações ao mesmo tempo. Tirando o hype de lado, a base ainda é estatística e algoritmos.

Por isso, a literacia em IA ao nível do topo da gestão é importante. Líderes que não conseguem distinguir onde termina a análise de dados correm o risco de confiar excessivamente em sistemas que não entendem ou de subutilizá-los por medo. E a história mostra o que acontece quando os tomadores de decisão interpretam mal a tecnologia: reguladores tentaram banir chamadas internacionais de IP, apenas para ver a tecnologia superar as regras. A mesma dinâmica está a acontecer com a IA. Não se pode bloqueá-la ou adotá-la cegamente; é preciso julgamento, contexto e a capacidade de orientá-la de forma responsável.

Líderes do setor fintech devem preencher essas lacunas para usar a IA de forma responsável e eficaz. Isso significa entender onde termina a análise de dados e começa a IA, desenvolver as competências para orientar esses sistemas e aplicar um julgamento sólido para decidir quando e como confiar nos seus resultados.

Os Limites, Pontos Cegos e Ilusões da IA

A análise de dados estuda informações passadas e presentes para explicar o que aconteceu e por quê. A IA nasce dessa base, usando análises avançadas para prever o que acontecerá a seguir e, cada vez mais, para decidir ou agir automaticamente com base nisso.

Com suas habilidades excepcionais de processamento de dados, é fácil entender por que os líderes fintech veem a IA como a sua solução mágica. Mas ela não consegue resolver todos os problemas. Os humanos ainda têm uma vantagem inata no reconhecimento de padrões, especialmente quando os dados estão incompletos ou “sujos”. A IA pode ter dificuldades em interpretar nuances contextuais que os humanos captam rapidamente.

No entanto, é um erro pensar que dados imperfeitos tornam a IA inútil. Modelos analíticos podem trabalhar com dados incompletos. Mas saber quando usar a IA e quando confiar no julgamento humano para preencher as lacunas é o verdadeiro desafio. Sem essa supervisão cuidadosa, a IA pode introduzir riscos significativos.

Um desses riscos é o viés. Quando as fintechs treinam a IA com conjuntos de dados antigos, muitas vezes herdando os preconceitos existentes, isso pode afetar os resultados. Por exemplo, o nome do cliente pode, inadvertidamente, servir como proxy de género, ou pistas inferidas do sobrenome podem indicar etnia, distorcendo as pontuações de crédito de formas que nenhum regulador aprovaria. Esses vieses, facilmente escondidos na matemática, muitas vezes requerem supervisão humana para serem detectados e corrigidos.

Quando os modelos de IA são expostos a situações para as quais não foram treinados, pode ocorrer deriva do modelo. A volatilidade do mercado, mudanças regulatórias, comportamentos evolutivos dos clientes e alterações macroeconómicas podem afetar a eficácia de um modelo sem monitorização e recalibração humanas.

A dificuldade de recalibrar algoritmos aumenta significativamente quando as fintechs usam caixas-pretas que não permitem visibilidade sobre a relação entre variáveis. Nessas condições, perdem a possibilidade de transferir esse conhecimento para os decisores na gestão. Além disso, erros e vieses permanecem ocultos em modelos opacos, minando a confiança e a conformidade.

O que os Líderes Fintech Precisam Saber

Uma pesquisa da Deloitte revelou que 80% afirmam que os seus conselhos de administração têm pouca ou nenhuma experiência com IA. Mas os executivos do topo não podem tratar a IA como um problema de “equipe técnica”. A responsabilidade pela IA recai sobre a liderança, o que significa que os líderes fintech precisam de formação adicional.

Fluência em análise cruzada

Antes de implementar a IA, os líderes fintech precisam ser capazes de mudar de perspectiva — analisando os números, o caso de negócio, as operações e a ética — e perceber como esses fatores se sobrepõem e moldam os resultados da IA. Devem compreender como a precisão estatística de um modelo se relaciona com a exposição ao risco de crédito. E reconhecer quando uma variável que parece financeiramente sólida (como histórico de pagamento) pode introduzir riscos sociais ou regulatórios por estar correlacionada com uma classe protegida, como idade ou etnia.

Essa fluência em IA vem de trabalhar junto de responsáveis de conformidade para entender regulamentos, conversar com gestores de produto sobre experiência do utilizador e revisar resultados de modelos com cientistas de dados para detectar sinais de deriva ou viés.

No setor fintech, evitar riscos a 100% é impossível, mas com fluência em análise cruzada, os líderes podem identificar quais riscos valem a pena assumir e quais podem erodir o valor para os acionistas. Essa habilidade também aprimora a capacidade de detectar e agir contra vieses, não apenas do ponto de vista de conformidade, mas também estratégico e ético.

Por exemplo, se um modelo de pontuação de crédito baseado em IA tende a favorecer fortemente um grupo de clientes, corrigir esse desequilíbrio não é apenas uma tarefa de ciência de dados; é uma questão de proteger a reputação da empresa. Para fintechs comprometidas com inclusão financeira ou sujeitas a escrutínio ESG, a conformidade legal sozinha não é suficiente. O julgamento implica saber o que é certo, não apenas o que é permitido.

Literacia em explicabilidade

A explicabilidade é a base da confiança. Sem ela, os decisores, clientes e reguladores ficam a questionar por que um modelo chegou a uma conclusão específica.

Isso significa que os executivos devem ser capazes de distinguir entre modelos interpretáveis e aqueles que precisam de explicações pós-hoc (como valores SHAP ou LIME). Devem fazer perguntas quando a lógica de um modelo não estiver clara e reconhecer quando a “precisão” sozinha não justifica uma decisão de caixa-preta.

Vieses não surgem do nada; eles aparecem quando os modelos são treinados e utilizados sem supervisão suficiente. A explicabilidade dá aos líderes a visibilidade para detectar esses problemas cedo e agir antes que causem danos.

A IA é como o piloto automático de um avião. Na maior parte do tempo, funciona sem problemas, mas quando uma tempestade surge, o piloto precisa assumir o controle. No setor financeiro, esse mesmo princípio se aplica. As equipas precisam da capacidade de parar negociações, ajustar estratégias ou até cancelar um lançamento de produto quando as condições mudam. A explicabilidade funciona em conjunto com a prontidão para intervenção, garantindo que os líderes do topo compreendam a IA e mantenham o controlo, mesmo quando ela opera em grande escala.

Pensamento probabilístico de modelos

Os executivos estão acostumados a decisões determinísticas, como se a pontuação de crédito for abaixo de 650, recusar a candidatura. Mas a IA não funciona assim, e essa é uma mudança de paradigma mental importante.

Para os líderes, o pensamento probabilístico exige três capacidades:

* Interpretar intervalos de risco em vez de resultados binários sim/não.
* Avaliar o nível de confiança de uma previsão em relação a outros fatores de negócio ou regulatórios.
* Saber quando substituir a automação por julgamento humano.

Por exemplo, um modelo probabilístico de IA de uma fintech pode sinalizar um cliente como de alto risco, mas isso não significa necessariamente “recusar”. Pode significar “investigar mais” ou “ajustar os termos do empréstimo”. Sem essa nuance, a automação corre o risco de se tornar uma ferramenta grosseira, minando a confiança do cliente e expondo as empresas a reações regulatórias adversas.

Por que a camada de julgamento irá definir os vencedores do setor fintech

O futuro do setor fintech não será decidido por quem tem os modelos de IA mais poderosos; será por quem os usa com o julgamento mais apurado. À medida que a IA se torna uma commodity, os ganhos de eficiência passam a ser o padrão. O que diferencia os vencedores é a capacidade de intervir quando os algoritmos enfrentam incerteza, risco e zonas cinzentas éticas.

A camada de julgamento não é uma ideia abstrata. Ela aparece quando os executivos decidem pausar negociações automatizadas, atrasar um lançamento de produto ou substituir uma pontuação de risco que não reflete o contexto real. Esses momentos não são falhas da IA; são provas de que a supervisão humana é a última linha de criação de valor.

O alinhamento estratégico é onde o julgamento se torna institucionalizado. Uma estratégia de IA sólida não apenas define roteiros técnicos; garante que a organização revise iniciativas, atualize as capacidades das equipas em IA, assegure a arquitetura de dados necessária e vincule cada implementação a um resultado de negócio claro. Nesse sentido, o julgamento não é episódico, mas parte do modo de operação, permitindo que os líderes conduzam uma abordagem de liderança baseada em valor.

As fintechs precisam de líderes que saibam equilibrar IA para velocidade e escala com humanos para contexto, nuance e visão de longo prazo. A IA pode detectar anomalias em segundos, mas só as pessoas podem decidir quando resistir à matemática, repensar suposições ou assumir riscos ousados que abram portas para o crescimento. Essa camada de julgamento é o que transforma a IA de uma ferramenta em uma vantagem competitiva.

Sobre o autor:

Guillermo Delgado é Líder Global de IA na Nisum e COO da Deep Space Biology. Com mais de 25 anos de experiência em bioquímica, inteligência artificial, biologia espacial e empreendedorismo, desenvolve soluções inovadoras para o bem-estar humano na Terra e no espaço.

Como consultor de estratégia corporativa, contribuiu para a visão da NASA sobre IA para biologia espacial e recebeu prémios de inovação. Possui um Mestrado em Ciência em Inteligência Artificial pelo Georgia Tech, obtido com distinção. Além disso, como professor universitário, lecionou cursos sobre aprendizagem de máquina, big data e ciência genómica.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)