La IA en Cumplimiento No Es una Caja Negra — Es una Prueba de Responsabilidad: Entrevista con Roman Eloshvili

Roman Eloshvili es fundador de ComplyControl, una startup de cumplimiento y detección de fraude impulsada por IA para instituciones financieras.


¡Descubre las principales noticias y eventos del sector fintech!

Suscríbete al boletín de FinTech Weekly

Leído por ejecutivos de JP Morgan, Coinbase, Blackrock, Klarna y más


¿Qué está realmente poniendo a prueba la IA en Cumplimiento: la tecnología, o nosotros?

En los servicios financieros, el cumplimiento ya no es solo una función. Es un punto de presión activo—donde la regulación, el riesgo y las operaciones colisionan. A medida que se introducen tecnologías de IA en este espacio, una pregunta sigue surgiendo: ¿cuánto podemos automatizar realmente, y quién sigue siendo responsable cuando algo sale mal?

El atractivo de la IA en la detección de fraudes y cumplimiento es fácil de entender. Las instituciones financieras enfrentan expectativas crecientes para procesar grandes cantidades de datos, responder a amenazas en evolución y cumplir con regulaciones cambiantes—todo sin comprometer la velocidad o la precisión. La automatización, especialmente cuando es impulsada por aprendizaje automático, ofrece una forma de reducir la carga operativa. Pero también plantea preocupaciones más profundas sobre gobernanza, explicabilidad y control.

Estas tensiones no son teóricas. Se están desarrollando en tiempo real, mientras las empresas financieras despliegan modelos de IA en roles tradicionalmente ocupados por analistas humanos. Detrás de escena, emergen nuevos riesgos: falsos positivos, puntos ciegos en auditorías y decisiones algorítmicas que permanecen opacas tanto para los usuarios como para los reguladores.

Al mismo tiempo, se pide a los profesionales de cumplimiento que cambien de roles. En lugar de inspeccionar manualmente cada transacción, ahora supervisan las herramientas que lo hacen. Este cambio de paradigma—de ejecutor a evaluador—requiere no solo nuevas habilidades técnicas, sino también un mayor sentido de responsabilidad ética y procedimental. La IA puede escalar el análisis de datos. Puede detectar inconsistencias. Pero no puede explicar completamente la intención, interpretar el contexto ni absorber la culpa.

Comprender estos límites es fundamental. Y pocas personas están mejor posicionadas para explorarlos que Roman Eloshvili, fundador de la empresa británica de tecnología de cumplimiento ComplyControl. Su trabajo se sitúa en la intersección de riesgo, automatización y supervisión—donde la eficiencia algorítmica se encuentra con el escrutinio regulatorio.

Con más de una década en el campo, Roman ha visto de primera mano cómo evolucionan los equipos de cumplimiento y cómo la IA está transformando tanto sus flujos de trabajo como sus responsabilidades. Argumenta que la promesa de la IA no radica en eliminar roles humanos, sino en redefinirlos—aportando mayor claridad sobre qué deben manejar las máquinas y qué deben seguir siendo propiedad de los humanos.

Este cambio exige más que mejoras técnicas. Requiere una reorientación cultural en torno a la responsabilidad. Sistemas transparentes, procesos auditables y responsabilidades humanas claramente asignadas ya no son solo características—son el estándar mínimo. Cuando la IA se introduce en infraestructuras críticas, no solo resuelve problemas. Introduce una nueva categoría de decisiones que requieren una gestión activa y estratégica.

En esta conversación para FinTech Weekly, Roman ofrece una visión fundamentada de lo que se necesita para integrar responsablemente la IA en el cumplimiento y la prevención de fraudes. Su perspectiva no presenta la automatización como una inevitabilidad, sino como una elección—una que requiere juicio humano continuo, claridad operativa y la disposición a hacer preguntas difíciles sobre dónde reside realmente la confianza.

Nos complace compartir sus ideas en un momento en que muchos en fintech se preguntan no si adoptar la IA, sino cómo hacerlo sin perder de vista los estándares que hicieron que los sistemas financieros funcionaran en primer lugar.


1. Has construido una carrera en la intersección de cumplimiento y tecnología. ¿Recuerdas el momento en que te diste cuenta de que la IA podría cambiar fundamentalmente la forma en que se gestiona el riesgo?

No diría que fue solo un momento específico que lo cambió todo. Más bien, fue un proceso gradual. Pasé buena parte de mi carrera trabajando con bancos europeos establecidos, y una cosa que siempre notaba es que muchos estaban muy atrasados en soluciones de banca digital. La diferencia era especialmente clara en comparación con hubs fintech más avanzados.

Hace varios años, cuando el tema del desarrollo de IA empezó a calentarse de nuevo, naturalmente me surgió curiosidad y empecé a investigarlo. Y al estudiar la tecnología y su funcionamiento, me di cuenta de que la inteligencia artificial tenía el potencial de cambiar drásticamente la forma en que los bancos manejan su cumplimiento, poniéndolos más a la par con los fintech modernos y más ágiles.

Eso fue lo que me llevó a lanzar mi empresa en 2023. La complejidad del cumplimiento y la gestión del riesgo solo sigue creciendo año tras año. Frente a esta realidad, nuestra misión es simple: ofrecer soluciones impulsadas por IA a las empresas financieras y ayudarlas a afrontar estos desafíos crecientes de manera más efectiva.

2. Desde tu perspectiva profesional, ¿cómo ha evolucionado el rol de los especialistas humanos a medida que las herramientas de IA se han vuelto más avanzadas en cumplimiento y detección de fraudes?

Antes que nada, quiero abordar algo que siempre preocupa en muchos ámbitos: si la IA va a reemplazar a los trabajadores humanos. Y en cuanto a los profesionales de cumplimiento y riesgo, mi respuesta es no—al menos, no en un futuro cercano.

Aunque la inteligencia artificial ya está transformando nuestra industria, todavía está lejos de ser infalible. Por eso, la participación humana sigue siendo un factor esencial. Las regulaciones de cumplimiento cambian constantemente, y alguien tiene que ser responsable cuando los sistemas no logran mantenerse al día o cometen errores. En su nivel actual de desarrollo, la IA aún tiene dificultades para explicar claramente sus decisiones, por lo que no está lista para actuar sola. Especialmente en un campo donde la confianza y la transparencia son fundamentales.

Dicho esto, la IA está facilitando activamente los procesos de cumplimiento. Por ejemplo, dependiendo de la configuración, los sistemas de IA ahora pueden marcar transacciones sospechosas o incluso bloquearlas temporalmente mientras solicitan una verificación adicional. No hace falta que humanos revisen cada detalle manualmente, a menos que algo realmente destaque como extraño. Y a medida que estos sistemas evolucionan, seguirán reduciendo la necesidad de trabajo manual, permitiendo que los equipos se enfoquen en tareas más matizadas que realmente requieren un toque humano.

Creo que veremos surgir un modelo híbrido, donde los expertos en cumplimiento también serán cada vez más competentes en el uso de herramientas de IA. Serán quienes implementen y mantengan los sistemas de IA, mientras que la IA misma simplificará su trabajo al interpretar datos complejos y ofrecer recomendaciones. Sin embargo, la última palabra seguirá siendo de los humanos.

3. Cuando trabajas con IA en áreas sensibles como el cumplimiento financiero, ¿cómo has abordado personalmente el desafío de mantener la confianza y la responsabilidad en la toma de decisiones?

Por supuesto. Como ya mencioné, cuando usas IA en cumplimiento, la confianza es crucial.

Por eso, hemos construido nuestros sistemas de IA para que sean completamente transparentes. No funcionan como una “caja negra”—cada recomendación que hace el sistema se basa en reglas y datos rastreables. Mantenemos un registro completo de cómo se toman las decisiones, para que puedan ser totalmente explicables. Esta práctica ya ha demostrado ser increíblemente valiosa al tratar con reguladores.

La decisión final siempre recae en el oficial de cumplimiento. La IA simplemente ofrece una sugerencia bien fundamentada que el humano puede revisar fácilmente y decidir si aprueba o rechaza.

4. Tu experiencia abarca más de 10 años. ¿Cómo ha cambiado tu mentalidad respecto a la automatización y la supervisión humana a lo largo de tu carrera, especialmente ahora que la IA se vuelve más autónoma?

Definitivamente. Hablando en términos más generales sobre el estado de adopción de la IA, a medida que esta tecnología avanza, permitimos más autonomía—siempre que esté debidamente probada y siga demostrando fiabilidad.

Pero lo que está cambiando aún más es el papel que desempeña el especialista humano en esta ecuación. En lugar de gestionar cada caso minuciosamente, los oficiales de cumplimiento ahora actúan cada vez más como supervisores estratégicos. Pueden revisar lotes completos de casos similares en poco tiempo, validar el rendimiento del sistema y ajustar los modelos según los resultados.

En otras palabras, el rol de los oficiales de cumplimiento está pasando de hacer el trabajo manual a gestionar los sistemas de IA mientras estos hacen el trabajo por ellos.

5. Trabajar en gestión de riesgos impulsada por IA implica navegar por complejas cuestiones éticas. ¿Cómo has desarrollado personalmente un marco para tomar decisiones responsables al diseñar o implementar soluciones basadas en IA?

Hemos basado nuestro enfoque en dos ideas clave: supervisión clara y principios de IA responsable. Cada modelo que usamos tiene una persona responsable asignada. Las evaluaciones de riesgo, revisiones de rendimiento y controles de cumplimiento se realizan de forma regular.

También nos aseguramos de que nuestros sistemas sean auditables. Si el algoritmo toma una decisión, ese proceso puede ser revisado y verificado. Esta transparencia es una parte fundamental de nuestro compromiso con el desarrollo responsable de la IA.

6. En tu trayectoria, ¿cuál ha sido la lección profesional más difícil que has aprendido sobre los límites—o los riesgos—de confiar demasiado en la automatización en campos críticos como la prevención de fraudes?

Una lección que definitivamente debemos tener presente es que incluso los modelos bien entrenados pueden “alucinar”—pueden cometer errores sutiles pero graves.

La IA puede pasar por alto esquemas de fraude complejos, o puede activar demasiadas alertas falsas. Por eso, combinar IA con experiencia humana es tan importante—los humanos aportan juicio flexible y son mejores evaluando ética y contexto en formas que la IA no puede.

El equilibrio entre ambos promete resultados más confiables y mejores. La IA puede usarse para gestionar el volumen de tareas y aliviar su complejidad, mientras que las personas mantienen el nivel adecuado de precisión y confianza.

7. Para los jóvenes profesionales que ingresan en cumplimiento, gestión de riesgos o desarrollo de IA hoy en día, ¿qué principios o hábitos personales les recomendarías cultivar para tener éxito y adaptarse en un entorno tan cambiante?

Primero y principal: nunca dejen de aprender. El progreso tecnológico no tiene botón de pausa, y hay que mantenerse al día o quedarse atrás. No hay medio.

En segundo lugar, piensen en términos amplios. Con el avance de la IA, las líneas entre roles se difuminan—tecnología, finanzas y regulación se están mezclando. Estoy convencido de que tener un conjunto de habilidades amplio y una mente abierta serán las características definitivas para los futuros profesionales en el campo.

Tercero—y una continuación natural de los dos anteriores—ser adaptables. El cambio es constante, y la capacidad de ajustarse rápidamente será una gran ventaja.

Y finalmente, desarrollen habilidades de comunicación sólidas y aprendan a trabajar en equipo. Como ya vimos, el cumplimiento está en la intersección de negocios, tecnología y ley. Por eso, poder cambiar de enfoque y comunicarse con personas de estos diferentes ámbitos será una habilidad valiosa para adquirir.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)