La capa de juicio: por qué la IA no es inteligente hasta que los líderes sean más inteligentes

Guillermo Delgado Aparicio es Líder Global de IA en Nisum.


¡Descubre las principales noticias y eventos del sector fintech!

Suscríbete al boletín de FinTech Weekly

Leído por ejecutivos de JP Morgan, Coinbase, Blackrock, Klarna y más


La inteligencia artificial en fintech abarca una variedad de casos de uso, desde detección de fraude y trading algorítmico hasta puntuación de crédito dinámica y recomendaciones personalizadas de productos. Sin embargo, un informe de la Autoridad de Conducta Financiera encontró que, de las empresas que utilizan IA, solo el 34% entiende cómo funciona.

El problema no es solo la falta de conocimiento. Es una profunda incomprensión del poder y alcance del análisis de datos, la disciplina de la que surge la IA. La adopción masiva de herramientas generativas de IA ha llevado el tema a la alta dirección. Pero muchas de esas personas que deciden cómo implementar la IA no entienden sus principios fundamentales de cálculo, estadística y algoritmos avanzados.

Tome la Ley de Benford, un principio estadístico simple que detecta fraudes identificando patrones en los números. La IA se basa en ese mismo tipo de matemáticas, solo escaladas a millones de transacciones a la vez. Quitando el hype, la base sigue siendo estadística y algoritmos.

Por eso, la alfabetización en IA a nivel directivo es importante. Los líderes que no saben distinguir dónde termina el análisis y empieza la IA corren el riesgo de confiar demasiado en sistemas que no entienden o de subutilizarlos por miedo. Y la historia muestra qué pasa cuando los tomadores de decisiones malinterpretan la tecnología: los reguladores intentaron prohibir las llamadas internacionales de IP, solo para ver cómo la tecnología superaba las reglas. La misma dinámica se está dando con la IA. No se puede bloquear ni adoptar ciegamente; se necesita juicio, contexto y la capacidad de dirigirla responsablemente.

Los líderes fintech deben cerrar estas brechas para usar la IA de manera responsable y efectiva. Eso implica entender dónde termina el análisis y empieza la IA, desarrollar las habilidades para dirigir estos sistemas y aplicar un juicio sólido para decidir cuándo y cómo confiar en sus resultados.

Los límites, puntos ciegos e ilusiones de la IA

El análisis examina datos pasados y presentes para explicar qué ocurrió y por qué. La IA surge de esa base, usando análisis avanzados para predecir qué sucederá a continuación y, cada vez más, para decidir o actuar automáticamente.

Con sus habilidades excepcionales de procesamiento de datos, es fácil entender por qué los líderes fintech ven la IA como su solución mágica. Pero no puede resolver todos los problemas. Los humanos aún tienen una ventaja innata en el reconocimiento de patrones, especialmente cuando los datos son incompletos o “sucios”. La IA puede tener dificultades para interpretar las sutilezas contextuales que los humanos captan rápidamente.

Sin embargo, es un error pensar que los datos imperfectos hacen que la IA sea inútil. Los modelos analíticos pueden trabajar con datos incompletos. Pero saber cuándo desplegar la IA y cuándo confiar en el juicio humano para llenar los vacíos es el verdadero desafío. Sin esta supervisión cuidadosa, la IA puede introducir riesgos significativos.

Uno de estos problemas es el sesgo. Cuando las fintech entrenan la IA con conjuntos de datos antiguos, a menudo heredan los prejuicios que estos contienen. Por ejemplo, el nombre de un cliente puede servir inadvertidamente como proxy de género, o las pistas inferidas del apellido sobre etnia, sesgando las puntuaciones de crédito de maneras que ningún regulador aprobaría. Estos sesgos, fácilmente ocultos en las matemáticas, a menudo requieren supervisión humana para detectar y corregir.

Cuando los modelos de IA se enfrentan a situaciones no contempladas durante su entrenamiento, esto puede causar deriva del modelo. La volatilidad del mercado, cambios regulatorios, comportamientos evolutivos de los clientes y cambios macroeconómicos pueden afectar la eficacia de un modelo sin supervisión y recalibración humanas.

La dificultad de recalibrar algoritmos aumenta considerablemente cuando las fintech usan cajas negras que no permiten ver la relación entre variables. En esas condiciones, pierden la posibilidad de transferir ese conocimiento a los tomadores de decisiones en la gestión. Además, errores y sesgos permanecen ocultos en modelos opacos, minando la confianza y el cumplimiento.

Lo que los líderes fintech necesitan saber

Una encuesta de Deloitte encontró que el 80% dice que sus juntas directivas tienen poca o ninguna experiencia con IA. Pero los ejecutivos de la alta dirección no pueden permitirse tratar la IA como un problema del equipo técnico. La responsabilidad de la IA recae en el liderazgo, por lo que los líderes fintech deben mejorar sus habilidades.

Fluidez analítica transversal

Antes de implementar IA, los líderes fintech deben ser capaces de cambiar de perspectiva—analizando los números, el caso de negocio, las operaciones y la ética—y ver cómo estos factores se superponen y configuran los resultados de la IA. Deben entender cómo la precisión estadística de un modelo se relaciona con la exposición al riesgo crediticio. Y reconocer cuándo una variable que parece financieramente sólida (como el historial de pagos) puede introducir riesgos sociales o regulatorios mediante la correlación con una clase protegida, como edad o etnia.

Esta fluidez en IA proviene de sentarse con los oficiales de cumplimiento para analizar regulaciones, hablar con los gerentes de producto sobre la experiencia del usuario y revisar los resultados del modelo con científicos de datos para detectar signos de deriva o sesgo.

En fintech, evitar el 100% del riesgo es imposible, pero con fluidez analítica transversal, los líderes pueden identificar qué riesgos vale la pena asumir y cuáles erosionarán el valor para los accionistas. Esta habilidad también agudiza la capacidad del líder para detectar y actuar frente a sesgos, no solo desde el punto de vista del cumplimiento, sino también desde una perspectiva estratégica y ética.

Por ejemplo, si un modelo de puntuación de crédito impulsado por IA favorece claramente a un grupo de clientes, corregir ese desequilibrio no es solo una tarea de ciencia de datos; protege la reputación de la empresa. Para fintechs comprometidas con la inclusión financiera o enfrentadas a escrutinio ESG, cumplir con la ley no es suficiente. El juicio implica saber qué es correcto, no solo qué está permitido.

Alfabetización en explicabilidad

La explicabilidad es la base de la confianza. Sin ella, los tomadores de decisiones, clientes y reguladores se quedan cuestionando por qué un modelo llegó a una conclusión específica.

Eso significa que los ejecutivos deben poder distinguir entre modelos interpretables y aquellos que necesitan explicaciones post-hoc (como valores SHAP o LIME). Deben hacer preguntas cuando la lógica de un modelo no está clara y reconocer cuándo la “precisión” por sí sola no justifica una decisión de caja negra.

El sesgo no aparece de la nada; surge cuando los modelos se entrenan y despliegan sin una supervisión adecuada. La explicabilidad da a los líderes la visibilidad para detectar esos problemas temprano y actuar antes de que causen daños.

La IA es como el piloto automático de un avión. La mayoría de las veces funciona sin problemas, pero cuando llega una tormenta, el piloto debe tomar el control. En finanzas, ese mismo principio se aplica. Los equipos necesitan la capacidad de detener operaciones, ajustar una estrategia o incluso cancelar un lanzamiento cuando cambian las condiciones. La explicabilidad funciona en conjunto con la capacidad de tomar el control, asegurando que los líderes de la alta dirección entiendan la IA y mantengan el control, incluso cuando opera a gran escala.

Pensamiento probabilístico en modelos

Los ejecutivos están acostumbrados a decisiones deterministas, como si una puntuación de crédito está por debajo de 650, rechazar la solicitud. Pero la IA no funciona así y esto representa un cambio de paradigma mental importante.

Para los líderes, el pensamiento probabilístico requiere tres capacidades:

*   Interpretar rangos de riesgo en lugar de resultados binarios sí/no.
*   Ponderar el nivel de confianza de una predicción frente a otras consideraciones comerciales o regulatorias.
*   Saber cuándo anular la automatización y aplicar el discrecionalismo humano.

Por ejemplo, un modelo probabilístico de IA en fintech podría marcar a un cliente como de alto riesgo, pero eso no significa necesariamente “rechazar”. Puede significar “investigar más” o “ajustar los términos del préstamo”. Sin este matiz, la automatización corre el riesgo de convertirse en un instrumento burdo, erosionando la confianza del cliente y exponiendo a las empresas a repercusiones regulatorias.

Por qué la capa de juicio definirá a los ganadores en fintech

El futuro de fintech no será decidido por quién tenga los modelos de IA más potentes; sino por quién los utilice con el juicio más agudo. A medida que la IA se vuelve una commodity, las ganancias en eficiencia dejan de ser una ventaja y se convierten en un requisito básico. Lo que diferencia a los ganadores es la capacidad de intervenir cuando los algoritmos enfrentan incertidumbre, riesgo y zonas grises éticas.

La capa de juicio no es una idea abstracta. Se manifiesta cuando los ejecutivos deciden detener operaciones automatizadas, retrasar un lanzamiento de producto o anular una puntuación de riesgo que no refleja el contexto real. Estos momentos no son fallos de la IA; son la prueba de que la supervisión humana es la última línea de creación de valor.

La alineación estratégica es donde el juicio se institucionaliza. Una estrategia sólida de IA no solo establece hojas de ruta técnicas; asegura que la organización revise iniciativas, actualice las capacidades de IA de los equipos, garantice que la empresa tenga la arquitectura de datos necesaria y vincule cada despliegue a un resultado comercial claro. En ese sentido, el juicio no es episódico, sino que forma parte del modo operativo y permite a los ejecutivos impulsar un liderazgo basado en el valor.

Las fintech necesitan líderes que sepan equilibrar la IA para velocidad y escala, y a los humanos para contexto, matices y visión a largo plazo. La IA puede detectar anomalías en segundos, pero solo las personas pueden decidir cuándo contrarrestar las matemáticas, repensar supuestos o tomar un riesgo audaz que abra la puerta al crecimiento. Esa capa de juicio es lo que convierte a la IA de una herramienta en una ventaja competitiva.

Sobre el autor:

Guillermo Delgado es el Líder Global de IA en Nisum y COO de Deep Space Biology. Con más de 25 años de experiencia en bioquímica, inteligencia artificial, biología espacial y emprendimiento, desarrolla soluciones innovadoras para el bienestar humano en la Tierra y en el espacio.

Como consultor de estrategia corporativa, ha contribuido a la visión de la IA de la NASA para la biología espacial y ha recibido premios por innovación. Tiene una Maestría en Ciencias en Inteligencia Artificial por Georgia Tech, obtenida con honores. Además, como profesor universitario, ha impartido cursos sobre aprendizaje automático, big data y ciencia genómica.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)