Devin Partida es la Editora en Jefe de ReHack. Como escritora, su trabajo ha sido destacado en Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf y otros.
¡Descubre las principales noticias y eventos del sector fintech!
Suscríbete al boletín de FinTech Weekly
Leído por ejecutivos de JP Morgan, Coinbase, Blackrock, Klarna y más
La inteligencia artificial (IA) es una de las tecnologías más prometedoras pero también más preocupantes en fintech hoy en día. Ahora que DeepSeek ha causado impacto en el espacio de la IA, sus posibilidades y riesgos específicos exigen atención.
Mientras que ChatGPT llevó la IA generativa a la corriente principal en 2022, DeepSeek la llevó a nuevas alturas con el lanzamiento de su modelo DeepSeek-R1 en 2025.
El algoritmo es de código abierto y gratuito, pero ha demostrado un rendimiento similar al de alternativas propietarias de pago. Por ello, representa una oportunidad de negocio tentadora para las empresas fintech que buscan capitalizar la IA, pero también plantea algunas cuestiones éticas.
Lecturas recomendadas:
* **El modelo R1 de DeepSeek genera debate sobre el futuro del desarrollo de IA**
* **El modelo de IA de DeepSeek: oportunidad y riesgo para las pequeñas empresas tecnológicas**
Privacidad de Datos
Como en muchas aplicaciones de IA, la privacidad de los datos es una preocupación. Los grandes modelos de lenguaje (LLMs) como DeepSeek requieren una cantidad sustancial de información, y en un sector como fintech, muchos de estos datos pueden ser sensibles.
DeepSeek tiene la complicación adicional de ser una empresa china. El gobierno de China puede acceder a toda la información en centros de datos de propiedad china o solicitar datos a empresas dentro del país. En consecuencia, el modelo puede presentar riesgos relacionados con espionaje extranjero y propaganda.
Las brechas de datos de terceros son otra preocupación. DeepSeek ya sufrió una filtración que expuso más de 1 millón de registros, lo que puede generar dudas sobre la seguridad de las herramientas de IA.
Sesgo en la IA
Los modelos de aprendizaje automático como DeepSeek son propensos a sesgos. Debido a que los modelos de IA son muy hábiles para detectar y aprender de patrones sutiles que los humanos pueden pasar por alto, pueden adoptar prejuicios inconscientes de sus datos de entrenamiento. Al aprender de esta información sesgada, pueden perpetuar y agravar problemas de desigualdad.
Estos temores son especialmente prominentes en finanzas. Debido a que las instituciones financieras han restringido históricamente oportunidades a minorías, gran parte de sus datos históricos muestran sesgos significativos. Entrenar a DeepSeek con estos conjuntos de datos podría conducir a acciones sesgadas adicionales, como que la IA niegue préstamos o hipotecas basándose en la etnia de la persona en lugar de su solvencia.
Confianza del consumidor
A medida que los problemas relacionados con la IA han copado titulares, el público en general se ha vuelto cada vez más suspicaz respecto a estos servicios. Eso podría erosionar la confianza entre una empresa fintech y sus clientes si no gestiona de manera transparente estas preocupaciones.
DeepSeek puede enfrentar una barrera única aquí. La compañía supuestamente construyó su modelo por solo 6 millones de dólares y, como una empresa china en rápido crecimiento, puede recordar a las personas las preocupaciones de privacidad que afectaron a TikTok. El público puede no estar entusiasmado con confiar en un modelo de IA de bajo presupuesto y desarrollado rápidamente con sus datos, especialmente cuando el gobierno chino podría tener cierta influencia.
Cómo garantizar un despliegue seguro y ético de DeepSeek
Estas consideraciones éticas no significan que las empresas fintech no puedan usar DeepSeek de manera segura, pero sí resaltan la importancia de una implementación cuidadosa. Las organizaciones pueden desplegar DeepSeek de forma ética y segura siguiendo estas mejores prácticas.
Ejecutar DeepSeek en servidores locales
Uno de los pasos más importantes es ejecutar la herramienta de IA en centros de datos nacionales. Aunque DeepSeek es una empresa china, sus pesos del modelo son de código abierto, lo que permite ejecutarlo en servidores estadounidenses y mitigar preocupaciones sobre brechas de privacidad por parte del gobierno chino.
Sin embargo, no todos los centros de datos son igualmente confiables. Lo ideal sería que las fintech hospeden DeepSeek en su propio hardware. Cuando eso no sea posible, la dirección debe escoger cuidadosamente un proveedor, solo asociándose con aquellos que tengan altos estándares de disponibilidad y seguridad, como ISO 27001 y NIST 800-53.
Minimizar el acceso a datos sensibles
Al crear una aplicación basada en DeepSeek, las fintech deben considerar qué tipos de datos puede acceder el modelo. La IA solo debe tener acceso a lo que necesita para cumplir su función. También es recomendable eliminar cualquier información personal identificable (PII) innecesaria de los datos accesibles.
Cuanto menos datos sensibles tenga DeepSeek, menor será el impacto en caso de brecha. Minimizar la recopilación de PII también es clave para cumplir con leyes como el Reglamento General de Protección de Datos (GDPR) y la Ley Gramm-Leach-Bliley (GLBA).
Implementar controles de ciberseguridad
Las regulaciones como GDPR y GLBA también suelen exigir medidas de protección para prevenir brechas desde un principio. Incluso fuera de estas leyes, el historial de DeepSeek con filtraciones resalta la necesidad de medidas de seguridad adicionales.
Como mínimo, las fintech deben encriptar todos los datos accesibles a la IA en reposo y en tránsito. Realizar pruebas de penetración periódicas para detectar y corregir vulnerabilidades también es recomendable.
Las organizaciones fintech también deberían considerar monitoreo automatizado de sus aplicaciones DeepSeek, ya que esta automatización puede ahorrar en promedio 2.2 millones de dólares en costos por brechas, gracias a respuestas más rápidas y efectivas.
Auditar y monitorear todas las aplicaciones de IA
Incluso después de seguir estos pasos, es fundamental mantener una vigilancia constante. Auditar la aplicación basada en DeepSeek antes de su despliegue para detectar sesgos o vulnerabilidades de seguridad. Recuerda que algunos problemas pueden no ser evidentes al principio, por lo que la revisión continua es necesaria.
Crear un grupo de trabajo dedicado para monitorear los resultados de la IA y asegurar que siga siendo ética y cumpla con las regulaciones. También es recomendable ser transparente con los clientes respecto a estas prácticas. La transparencia puede ayudar a generar confianza en un campo que, de otra forma, puede parecer dudoso.
Las empresas fintech deben considerar la ética en la IA
Los datos en fintech son particularmente sensibles, por lo que todas las organizaciones del sector deben tomar en serio herramientas dependientes de datos como la IA. DeepSeek puede ser un recurso empresarial prometedor, pero solo si su uso sigue estrictas pautas éticas y de seguridad.
Una vez que los líderes fintech comprendan la importancia de este cuidado, podrán garantizar que sus inversiones en DeepSeek y otros proyectos de IA permanezcan seguros y justos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Consideraciones éticas en el despliegue de DeepSeek AI en fintech
Devin Partida es la Editora en Jefe de ReHack. Como escritora, su trabajo ha sido destacado en Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf y otros.
¡Descubre las principales noticias y eventos del sector fintech!
Suscríbete al boletín de FinTech Weekly
Leído por ejecutivos de JP Morgan, Coinbase, Blackrock, Klarna y más
La inteligencia artificial (IA) es una de las tecnologías más prometedoras pero también más preocupantes en fintech hoy en día. Ahora que DeepSeek ha causado impacto en el espacio de la IA, sus posibilidades y riesgos específicos exigen atención.
Mientras que ChatGPT llevó la IA generativa a la corriente principal en 2022, DeepSeek la llevó a nuevas alturas con el lanzamiento de su modelo DeepSeek-R1 en 2025.
El algoritmo es de código abierto y gratuito, pero ha demostrado un rendimiento similar al de alternativas propietarias de pago. Por ello, representa una oportunidad de negocio tentadora para las empresas fintech que buscan capitalizar la IA, pero también plantea algunas cuestiones éticas.
Lecturas recomendadas:
Privacidad de Datos
Como en muchas aplicaciones de IA, la privacidad de los datos es una preocupación. Los grandes modelos de lenguaje (LLMs) como DeepSeek requieren una cantidad sustancial de información, y en un sector como fintech, muchos de estos datos pueden ser sensibles.
DeepSeek tiene la complicación adicional de ser una empresa china. El gobierno de China puede acceder a toda la información en centros de datos de propiedad china o solicitar datos a empresas dentro del país. En consecuencia, el modelo puede presentar riesgos relacionados con espionaje extranjero y propaganda.
Las brechas de datos de terceros son otra preocupación. DeepSeek ya sufrió una filtración que expuso más de 1 millón de registros, lo que puede generar dudas sobre la seguridad de las herramientas de IA.
Sesgo en la IA
Los modelos de aprendizaje automático como DeepSeek son propensos a sesgos. Debido a que los modelos de IA son muy hábiles para detectar y aprender de patrones sutiles que los humanos pueden pasar por alto, pueden adoptar prejuicios inconscientes de sus datos de entrenamiento. Al aprender de esta información sesgada, pueden perpetuar y agravar problemas de desigualdad.
Estos temores son especialmente prominentes en finanzas. Debido a que las instituciones financieras han restringido históricamente oportunidades a minorías, gran parte de sus datos históricos muestran sesgos significativos. Entrenar a DeepSeek con estos conjuntos de datos podría conducir a acciones sesgadas adicionales, como que la IA niegue préstamos o hipotecas basándose en la etnia de la persona en lugar de su solvencia.
Confianza del consumidor
A medida que los problemas relacionados con la IA han copado titulares, el público en general se ha vuelto cada vez más suspicaz respecto a estos servicios. Eso podría erosionar la confianza entre una empresa fintech y sus clientes si no gestiona de manera transparente estas preocupaciones.
DeepSeek puede enfrentar una barrera única aquí. La compañía supuestamente construyó su modelo por solo 6 millones de dólares y, como una empresa china en rápido crecimiento, puede recordar a las personas las preocupaciones de privacidad que afectaron a TikTok. El público puede no estar entusiasmado con confiar en un modelo de IA de bajo presupuesto y desarrollado rápidamente con sus datos, especialmente cuando el gobierno chino podría tener cierta influencia.
Cómo garantizar un despliegue seguro y ético de DeepSeek
Estas consideraciones éticas no significan que las empresas fintech no puedan usar DeepSeek de manera segura, pero sí resaltan la importancia de una implementación cuidadosa. Las organizaciones pueden desplegar DeepSeek de forma ética y segura siguiendo estas mejores prácticas.
Ejecutar DeepSeek en servidores locales
Uno de los pasos más importantes es ejecutar la herramienta de IA en centros de datos nacionales. Aunque DeepSeek es una empresa china, sus pesos del modelo son de código abierto, lo que permite ejecutarlo en servidores estadounidenses y mitigar preocupaciones sobre brechas de privacidad por parte del gobierno chino.
Sin embargo, no todos los centros de datos son igualmente confiables. Lo ideal sería que las fintech hospeden DeepSeek en su propio hardware. Cuando eso no sea posible, la dirección debe escoger cuidadosamente un proveedor, solo asociándose con aquellos que tengan altos estándares de disponibilidad y seguridad, como ISO 27001 y NIST 800-53.
Minimizar el acceso a datos sensibles
Al crear una aplicación basada en DeepSeek, las fintech deben considerar qué tipos de datos puede acceder el modelo. La IA solo debe tener acceso a lo que necesita para cumplir su función. También es recomendable eliminar cualquier información personal identificable (PII) innecesaria de los datos accesibles.
Cuanto menos datos sensibles tenga DeepSeek, menor será el impacto en caso de brecha. Minimizar la recopilación de PII también es clave para cumplir con leyes como el Reglamento General de Protección de Datos (GDPR) y la Ley Gramm-Leach-Bliley (GLBA).
Implementar controles de ciberseguridad
Las regulaciones como GDPR y GLBA también suelen exigir medidas de protección para prevenir brechas desde un principio. Incluso fuera de estas leyes, el historial de DeepSeek con filtraciones resalta la necesidad de medidas de seguridad adicionales.
Como mínimo, las fintech deben encriptar todos los datos accesibles a la IA en reposo y en tránsito. Realizar pruebas de penetración periódicas para detectar y corregir vulnerabilidades también es recomendable.
Las organizaciones fintech también deberían considerar monitoreo automatizado de sus aplicaciones DeepSeek, ya que esta automatización puede ahorrar en promedio 2.2 millones de dólares en costos por brechas, gracias a respuestas más rápidas y efectivas.
Auditar y monitorear todas las aplicaciones de IA
Incluso después de seguir estos pasos, es fundamental mantener una vigilancia constante. Auditar la aplicación basada en DeepSeek antes de su despliegue para detectar sesgos o vulnerabilidades de seguridad. Recuerda que algunos problemas pueden no ser evidentes al principio, por lo que la revisión continua es necesaria.
Crear un grupo de trabajo dedicado para monitorear los resultados de la IA y asegurar que siga siendo ética y cumpla con las regulaciones. También es recomendable ser transparente con los clientes respecto a estas prácticas. La transparencia puede ayudar a generar confianza en un campo que, de otra forma, puede parecer dudoso.
Las empresas fintech deben considerar la ética en la IA
Los datos en fintech son particularmente sensibles, por lo que todas las organizaciones del sector deben tomar en serio herramientas dependientes de datos como la IA. DeepSeek puede ser un recurso empresarial prometedor, pero solo si su uso sigue estrictas pautas éticas y de seguridad.
Una vez que los líderes fintech comprendan la importancia de este cuidado, podrán garantizar que sus inversiones en DeepSeek y otros proyectos de IA permanezcan seguros y justos.