Roman Eloshvili es fundador y director ejecutivo de XData Group, una empresa de desarrollo de software B2B. Allí, dirige el desarrollo de IA en la banca mientras navega las relaciones con inversores y fomenta la escalabilidad del negocio. También es fundador de ComplyControl, una startup de RegTech con sede en Reino Unido especializada en soluciones tecnológicas de vanguardia para bancos.
¡Descubre las principales noticias y eventos fintech!
Suscríbete al boletín de FinTech Weekly
Leído por ejecutivos de JP Morgan, Coinbase, Blackrock, Klarna y más
Bancos y fintechs de todo el mundo buscan formas de usar inteligencia artificial en múltiples ámbitos: para acelerar operaciones, reducir costos, mejorar la interacción con los clientes y más. Sin embargo, cuando se trata de cumplimiento — posiblemente una de las partes más exigentes y que más consume tiempo en las finanzas — la mayoría de las empresas aún se muestran reacias.
Una encuesta realizada a principios de 2025 encontró que solo una pequeña fracción de las empresas (menos del 2%) ha integrado completamente la IA en sus flujos de trabajo. La mayoría, sin embargo, todavía se encuentra en etapas iniciales de exploración y adopción. Si es que la adoptan en realidad.
La presión sobre las empresas para mantenerse al día con los cambios regulatorios sigue siendo muy fuerte, y está en aumento. Entonces, ¿por qué el cumplimiento es tan lento en adoptar la IA cuando podría ser de gran ayuda?
Vamos a tratar de entenderlo.
La percepción humana sigue siendo importante
Probablemente lo primero y más importante que debemos tener en cuenta aquí es que el cumplimiento no se trata solo de seguir una lista de verificación. Se trata de tomar decisiones en situaciones que a menudo caen en zonas grises. El mundo de las decisiones financieras rara vez es todo blanco o negro. Las regulaciones varían entre jurisdicciones, y la interpretación de esas reglas rara vez es sencilla.
La IA es excelente analizando datos a velocidad vertiginosa y detectando anomalías. Pero, aunque puede señalar una transacción que parece sospechosa según patrones preestablecidos, eso no significa que pueda explicar claramente el “por qué” detrás de sus conclusiones. Más importante aún, le cuesta entender matices. Un oficial de cumplimiento humano puede detectar cuándo el comportamiento de un cliente, aunque inusual, es inofensivo. La IA, en cambio, es mucho más propensa a simplemente activar una alarma sin contexto.
Por eso, los líderes en cumplimiento dudan en ceder el control. Las máquinas pueden ser de ayuda, pero la mayoría de las personas todavía confían mucho más en la capacidad de un humano para ver el panorama completo y juzgar en consecuencia.
Eficiencia vs. Riesgos regulatorios y reputacionales
La capacidad de una IA para analizar miles de transacciones en tiempo real es algo que ningún equipo de cumplimiento podría igualar en modo manual. Desde el punto de vista de la eficiencia, nadie puede negar que es una gran herramienta de apoyo, capaz de reducir la carga de trabajo para que el personal humano se concentre en tareas más estratégicas y matizadas.
Pero el cumplimiento no es un área donde la velocidad sea lo único que importa. Si un sistema de IA comete un error de juicio, puede significar multas, daño a la reputación o escrutinio regulatorio. Todo esto puede ser muy perjudicial para un negocio — quizás incluso destructivo. ¿Es de extrañar, entonces, que muchos quieran evitar esas complicaciones?
La mayoría de los reguladores también coinciden en que, en decisiones basadas en IA, alguien debe seguir siendo responsable. Si un modelo de IA bloquea erróneamente una transacción legítima o pasa por alto una fraudulenta, la responsabilidad recae en última instancia en la empresa. Y son los oficiales de cumplimiento humanos quienes deben asumir esa responsabilidad.
Esto genera una cautela natural: los líderes en cumplimiento deben sopesar los beneficios de una supervisión más rápida frente a los riesgos de posibles sanciones regulatorias. Y, hasta que los sistemas de IA sean más explicables y transparentes, es probable que muchas empresas sean reacias a dejar que tomen decisiones autónomas.
Cómo avanzar con una adopción responsable de la IA
Una lección muy importante que se puede extraer de todo lo anterior es que la hesitación de los líderes en cumplimiento no significa que sean anti-IA. De hecho, muchos son optimistas respecto al papel de la IA en el futuro. Lo importante es encontrar la manera correcta de avanzar.
En mi opinión, el camino más natural y prometedor es adoptar un modelo híbrido. Una colaboración entre humanos y IA, donde la inteligencia artificial realiza las tareas pesadas — escanear transacciones, detectar actividades inusuales o generar informes. Y, cuando los resultados están listos, los humanos pueden revisarlos, interpretar el contexto de las decisiones de la IA y tomar la decisión final.
Pero, para poder implementar un modelo así, las empresas deben asegurarse de que sus sistemas de IA sean explicables. El cumplimiento no solo consiste en detectar riesgos; también en demostrar que las decisiones son justas. Por eso, el mercado necesita más herramientas de IA que puedan explicar sus resultados en términos sencillos.
No se trata de “Hombre contra Máquina”
Hablando con realismo, no veo que la IA vuelva obsoletos a los oficiales de cumplimiento. Lo más probable es que sus roles cambien — de ejecutores a gestores. Los oficiales dedicarán menos tiempo a realizar verificaciones por sí mismos y, en cambio, revisarán las decisiones de la IA, lidiando con las zonas grises donde las máquinas aún fallan.
En esencia, el cumplimiento es un negocio humano. Y, aunque la IA puede hacer que los equipos de cumplimiento sean más rápidos y efectivos, no puede asumir la responsabilidad moral y regulatoria que esto conlleva.
Por eso, creo firmemente que el futuro del cumplimiento será menos “hombre contra máquina” y más “hombre con máquina” — trabajando juntos para mantener los sistemas financieros seguros y justos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El dilema de cumplimiento de la IA: La confianza sigue perteneciendo a los humanos
Roman Eloshvili es fundador y director ejecutivo de XData Group, una empresa de desarrollo de software B2B. Allí, dirige el desarrollo de IA en la banca mientras navega las relaciones con inversores y fomenta la escalabilidad del negocio. También es fundador de ComplyControl, una startup de RegTech con sede en Reino Unido especializada en soluciones tecnológicas de vanguardia para bancos.
¡Descubre las principales noticias y eventos fintech!
Suscríbete al boletín de FinTech Weekly
Leído por ejecutivos de JP Morgan, Coinbase, Blackrock, Klarna y más
Bancos y fintechs de todo el mundo buscan formas de usar inteligencia artificial en múltiples ámbitos: para acelerar operaciones, reducir costos, mejorar la interacción con los clientes y más. Sin embargo, cuando se trata de cumplimiento — posiblemente una de las partes más exigentes y que más consume tiempo en las finanzas — la mayoría de las empresas aún se muestran reacias.
Una encuesta realizada a principios de 2025 encontró que solo una pequeña fracción de las empresas (menos del 2%) ha integrado completamente la IA en sus flujos de trabajo. La mayoría, sin embargo, todavía se encuentra en etapas iniciales de exploración y adopción. Si es que la adoptan en realidad.
La presión sobre las empresas para mantenerse al día con los cambios regulatorios sigue siendo muy fuerte, y está en aumento. Entonces, ¿por qué el cumplimiento es tan lento en adoptar la IA cuando podría ser de gran ayuda?
Vamos a tratar de entenderlo.
La percepción humana sigue siendo importante
Probablemente lo primero y más importante que debemos tener en cuenta aquí es que el cumplimiento no se trata solo de seguir una lista de verificación. Se trata de tomar decisiones en situaciones que a menudo caen en zonas grises. El mundo de las decisiones financieras rara vez es todo blanco o negro. Las regulaciones varían entre jurisdicciones, y la interpretación de esas reglas rara vez es sencilla.
La IA es excelente analizando datos a velocidad vertiginosa y detectando anomalías. Pero, aunque puede señalar una transacción que parece sospechosa según patrones preestablecidos, eso no significa que pueda explicar claramente el “por qué” detrás de sus conclusiones. Más importante aún, le cuesta entender matices. Un oficial de cumplimiento humano puede detectar cuándo el comportamiento de un cliente, aunque inusual, es inofensivo. La IA, en cambio, es mucho más propensa a simplemente activar una alarma sin contexto.
Por eso, los líderes en cumplimiento dudan en ceder el control. Las máquinas pueden ser de ayuda, pero la mayoría de las personas todavía confían mucho más en la capacidad de un humano para ver el panorama completo y juzgar en consecuencia.
Eficiencia vs. Riesgos regulatorios y reputacionales
La capacidad de una IA para analizar miles de transacciones en tiempo real es algo que ningún equipo de cumplimiento podría igualar en modo manual. Desde el punto de vista de la eficiencia, nadie puede negar que es una gran herramienta de apoyo, capaz de reducir la carga de trabajo para que el personal humano se concentre en tareas más estratégicas y matizadas.
Pero el cumplimiento no es un área donde la velocidad sea lo único que importa. Si un sistema de IA comete un error de juicio, puede significar multas, daño a la reputación o escrutinio regulatorio. Todo esto puede ser muy perjudicial para un negocio — quizás incluso destructivo. ¿Es de extrañar, entonces, que muchos quieran evitar esas complicaciones?
La mayoría de los reguladores también coinciden en que, en decisiones basadas en IA, alguien debe seguir siendo responsable. Si un modelo de IA bloquea erróneamente una transacción legítima o pasa por alto una fraudulenta, la responsabilidad recae en última instancia en la empresa. Y son los oficiales de cumplimiento humanos quienes deben asumir esa responsabilidad.
Esto genera una cautela natural: los líderes en cumplimiento deben sopesar los beneficios de una supervisión más rápida frente a los riesgos de posibles sanciones regulatorias. Y, hasta que los sistemas de IA sean más explicables y transparentes, es probable que muchas empresas sean reacias a dejar que tomen decisiones autónomas.
Cómo avanzar con una adopción responsable de la IA
Una lección muy importante que se puede extraer de todo lo anterior es que la hesitación de los líderes en cumplimiento no significa que sean anti-IA. De hecho, muchos son optimistas respecto al papel de la IA en el futuro. Lo importante es encontrar la manera correcta de avanzar.
En mi opinión, el camino más natural y prometedor es adoptar un modelo híbrido. Una colaboración entre humanos y IA, donde la inteligencia artificial realiza las tareas pesadas — escanear transacciones, detectar actividades inusuales o generar informes. Y, cuando los resultados están listos, los humanos pueden revisarlos, interpretar el contexto de las decisiones de la IA y tomar la decisión final.
Pero, para poder implementar un modelo así, las empresas deben asegurarse de que sus sistemas de IA sean explicables. El cumplimiento no solo consiste en detectar riesgos; también en demostrar que las decisiones son justas. Por eso, el mercado necesita más herramientas de IA que puedan explicar sus resultados en términos sencillos.
No se trata de “Hombre contra Máquina”
Hablando con realismo, no veo que la IA vuelva obsoletos a los oficiales de cumplimiento. Lo más probable es que sus roles cambien — de ejecutores a gestores. Los oficiales dedicarán menos tiempo a realizar verificaciones por sí mismos y, en cambio, revisarán las decisiones de la IA, lidiando con las zonas grises donde las máquinas aún fallan.
En esencia, el cumplimiento es un negocio humano. Y, aunque la IA puede hacer que los equipos de cumplimiento sean más rápidos y efectivos, no puede asumir la responsabilidad moral y regulatoria que esto conlleva.
Por eso, creo firmemente que el futuro del cumplimiento será menos “hombre contra máquina” y más “hombre con máquina” — trabajando juntos para mantener los sistemas financieros seguros y justos.