La Ley de IA todavía es solo un borrador, pero los inversores y propietarios de negocios en la Unión Europea ya están nerviosos por los posibles resultados.
¿Impidirá que la Unión Europea sea un competidor valioso en el ámbito global?
Según los reguladores, ese no es el caso. Pero veamos qué está sucediendo.
La Ley de IA y la evaluación de riesgos
La Ley de IA divide los riesgos que plantea la inteligencia artificial en diferentes categorías, pero antes de hacer eso, limita la definición de inteligencia artificial para incluir solo aquellos sistemas basados en aprendizaje automático y lógica.
Esto no solo sirve para diferenciar los sistemas de IA de programas más simples, sino también para ayudarnos a entender por qué la UE quiere categorizar el riesgo.
Los diferentes usos de la IA se clasifican en riesgo inaceptable, un alto riesgo y bajo o riesgo mínimo. Las prácticas que caen en la categoría de riesgo inaceptable se consideran prohibidas.
Este tipo de prácticas incluye:
Prácticas que involucran técnicas que operan más allá de la conciencia de una persona,
Prácticas que buscan explotar partes vulnerables de la población,
Sistemas basados en IA implementados para clasificar a las personas según características o comportamientos personales,
Sistemas basados en IA que utilizan identificación biométrica en espacios públicos.
Existen algunos casos de uso, que deberían considerarse similares a algunas de las prácticas incluidas en las actividades prohibidas, que caen en la categoría de prácticas de “alto riesgo”.
Estos incluyen sistemas utilizados para reclutar trabajadores o para evaluar y analizar la solvencia crediticia de las personas (y esto podría ser peligroso para las fintech). En estos casos, todas las empresas que creen o utilicen este tipo de sistema deben producir informes detallados para explicar cómo funciona el sistema y las medidas tomadas para evitar riesgos para las personas y ser lo más transparentes posible.
Todo parece claro y correcto, pero hay algunos problemas que los reguladores deberían abordar.
La ley parece demasiado genérica
Uno de los aspectos que más preocupa a los propietarios de negocios e inversores es la falta de atención a sectores específicos de IA.
Por ejemplo, aquellas empresas que producen y utilizan sistemas basados en IA para propósitos generales podrían considerarse como aquellas que usan inteligencia artificial para casos de uso de alto riesgo.
Esto significa que deberían producir informes detallados que requieren tiempo y dinero. Dado que las pymes no son una excepción, y que constituyen la mayor parte de las economías europeas, podrían volverse menos competitivas con el tiempo.
Y precisamente la diferencia entre las empresas de IA de EE. UU. y las europeas genera grandes preocupaciones: de hecho, Europa no cuenta con grandes empresas de IA como en EE. UU., ya que el entorno de IA en Europa está principalmente formado por pymes y startups.
Según una encuesta realizada por appliedAI, una gran mayoría de inversores evitaría invertir en startups etiquetadas como “de alto riesgo”, precisamente por la complejidad que implica esta clasificación.
ChatGPT cambió los planes de la UE
Los reguladores de la UE deberían haber cerrado el documento el 19 de abril, pero la discusión sobre las diferentes definiciones de sistemas basados en IA y sus casos de uso retrasó la entrega del borrador final.
Además, las empresas tecnológicas mostraron que no todas están de acuerdo con la versión actual del documento.
El punto que más causó retrasos es la diferenciación entre modelos fundamentales y IA de propósito general.
Un ejemplo de modelos fundamentales de IA es ChatGPT de OpenAI: estos sistemas se entrenan con grandes cantidades de datos y pueden generar cualquier tipo de salida.
La IA de propósito general incluye aquellos sistemas que pueden adaptarse a diferentes casos de uso y sectores.
Los reguladores de la UE quieren regular estrictamente los modelos fundamentales, ya que podrían presentar más riesgos y afectar negativamente la vida de las personas.
Cómo regulan la IA EE. UU. y China
Si observamos cómo los reguladores de la UE están tratando la IA, hay algo que destaca: parece que los reguladores están menos dispuestos a cooperar.
En EE. UU., por ejemplo, la administración Biden buscó comentarios públicos sobre la seguridad de sistemas como ChatGPT, antes de diseñar un posible marco regulatorio.
En China, el gobierno ha estado regulando la IA y la recopilación de datos durante años, y su principal preocupación sigue siendo la estabilidad social.
Hasta ahora, el país que parece estar bien posicionado en la regulación de la IA es el Reino Unido, que prefirió un enfoque “ligero”, pero no es un secreto que el Reino Unido quiere convertirse en líder en adopción de IA y fintech.
Fintech y la Ley de IA
Cuando se trata de empresas y startups que brindan servicios financieros, la situación es aún más complicada.
De hecho, si la ley permanece en su versión actual, las fintech no solo deberán cumplir con las regulaciones financieras vigentes, sino también con este nuevo marco regulatorio.
El hecho de que la evaluación de solvencia crediticia pueda ser etiquetada como un caso de uso de alto riesgo es solo un ejemplo de la carga que las fintechs deberían soportar, lo que les impediría ser tan flexibles como hasta ahora, para captar inversiones y ser competitivas.
Conclusión
Como señaló Peter Sarlin, CEO de Silo AI, el problema no es la regulación, sino una mala regulación.
Ser demasiado genéricos podría dañar la innovación y a todas las empresas involucradas en la producción, distribución y uso de productos y servicios basados en IA.
Si los inversores de la UE se preocupan por los riesgos potenciales que implica una etiqueta que indique que una startup o empresa entra en la categoría de “alto riesgo”, el entorno de IA en la Unión Europea podría verse afectado negativamente, mientras que EE. UU. busca comentarios públicos para mejorar su tecnología y China ya tiene una opinión clara sobre cómo regular la inteligencia artificial.
Según Robin Röhm, cofundador de Apheris, uno de los escenarios posibles es que las startups se trasladen a EE. UU., un país que quizás tenga mucho que perder en blockchain y criptomonedas, pero que podría ganar la carrera de la IA.
Si quieres saber más sobre fintech y descubrir noticias, eventos y opiniones del sector, ¡suscríbete al boletín FTW!
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
IA en Europa: Lo que podría significar la Ley de IA
Foto de Maico Amorim en Unsplash
La Ley de IA todavía es solo un borrador, pero los inversores y propietarios de negocios en la Unión Europea ya están nerviosos por los posibles resultados.
¿Impidirá que la Unión Europea sea un competidor valioso en el ámbito global?
Según los reguladores, ese no es el caso. Pero veamos qué está sucediendo.
La Ley de IA y la evaluación de riesgos
La Ley de IA divide los riesgos que plantea la inteligencia artificial en diferentes categorías, pero antes de hacer eso, limita la definición de inteligencia artificial para incluir solo aquellos sistemas basados en aprendizaje automático y lógica.
Esto no solo sirve para diferenciar los sistemas de IA de programas más simples, sino también para ayudarnos a entender por qué la UE quiere categorizar el riesgo.
Los diferentes usos de la IA se clasifican en riesgo inaceptable, un alto riesgo y
bajo o riesgo mínimo. Las prácticas que caen en la categoría de riesgo inaceptable se consideran prohibidas.
Este tipo de prácticas incluye:
Existen algunos casos de uso, que deberían considerarse similares a algunas de las prácticas incluidas en las actividades prohibidas, que caen en la categoría de prácticas de “alto riesgo”.
Estos incluyen sistemas utilizados para reclutar trabajadores o para evaluar y analizar la solvencia crediticia de las personas (y esto podría ser peligroso para las fintech). En estos casos, todas las empresas que creen o utilicen este tipo de sistema deben producir informes detallados para explicar cómo funciona el sistema y las medidas tomadas para evitar riesgos para las personas y ser lo más transparentes posible.
Todo parece claro y correcto, pero hay algunos problemas que los reguladores deberían abordar.
La ley parece demasiado genérica
Uno de los aspectos que más preocupa a los propietarios de negocios e inversores es la falta de atención a sectores específicos de IA.
Por ejemplo, aquellas empresas que producen y utilizan sistemas basados en IA para propósitos generales podrían considerarse como aquellas que usan inteligencia artificial para casos de uso de alto riesgo.
Esto significa que deberían producir informes detallados que requieren tiempo y dinero. Dado que las pymes no son una excepción, y que constituyen la mayor parte de las economías europeas, podrían volverse menos competitivas con el tiempo.
Y precisamente la diferencia entre las empresas de IA de EE. UU. y las europeas genera grandes preocupaciones: de hecho, Europa no cuenta con grandes empresas de IA como en EE. UU., ya que el entorno de IA en Europa está principalmente formado por pymes y startups.
Según una encuesta realizada por appliedAI, una gran mayoría de inversores evitaría invertir en startups etiquetadas como “de alto riesgo”, precisamente por la complejidad que implica esta clasificación.
ChatGPT cambió los planes de la UE
Los reguladores de la UE deberían haber cerrado el documento el 19 de abril, pero la discusión sobre las diferentes definiciones de sistemas basados en IA y sus casos de uso retrasó la entrega del borrador final.
Además, las empresas tecnológicas mostraron que no todas están de acuerdo con la versión actual del documento.
El punto que más causó retrasos es la diferenciación entre modelos fundamentales y IA de propósito general.
Un ejemplo de modelos fundamentales de IA es ChatGPT de OpenAI: estos sistemas se entrenan con grandes cantidades de datos y pueden generar cualquier tipo de salida.
La IA de propósito general incluye aquellos sistemas que pueden adaptarse a diferentes casos de uso y sectores.
Los reguladores de la UE quieren regular estrictamente los modelos fundamentales, ya que podrían presentar más riesgos y afectar negativamente la vida de las personas.
Cómo regulan la IA EE. UU. y China
Si observamos cómo los reguladores de la UE están tratando la IA, hay algo que destaca: parece que los reguladores están menos dispuestos a cooperar.
En EE. UU., por ejemplo, la administración Biden buscó comentarios públicos sobre la seguridad de sistemas como ChatGPT, antes de diseñar un posible marco regulatorio.
En China, el gobierno ha estado regulando la IA y la recopilación de datos durante años, y su principal preocupación sigue siendo la estabilidad social.
Hasta ahora, el país que parece estar bien posicionado en la regulación de la IA es el Reino Unido, que prefirió un enfoque “ligero”, pero no es un secreto que el Reino Unido quiere convertirse en líder en adopción de IA y fintech.
Fintech y la Ley de IA
Cuando se trata de empresas y startups que brindan servicios financieros, la situación es aún más complicada.
De hecho, si la ley permanece en su versión actual, las fintech no solo deberán cumplir con las regulaciones financieras vigentes, sino también con este nuevo marco regulatorio.
El hecho de que la evaluación de solvencia crediticia pueda ser etiquetada como un caso de uso de alto riesgo es solo un ejemplo de la carga que las fintechs deberían soportar, lo que les impediría ser tan flexibles como hasta ahora, para captar inversiones y ser competitivas.
Conclusión
Como señaló Peter Sarlin, CEO de Silo AI, el problema no es la regulación, sino una mala regulación.
Ser demasiado genéricos podría dañar la innovación y a todas las empresas involucradas en la producción, distribución y uso de productos y servicios basados en IA.
Si los inversores de la UE se preocupan por los riesgos potenciales que implica una etiqueta que indique que una startup o empresa entra en la categoría de “alto riesgo”, el entorno de IA en la Unión Europea podría verse afectado negativamente, mientras que EE. UU. busca comentarios públicos para mejorar su tecnología y China ya tiene una opinión clara sobre cómo regular la inteligencia artificial.
Según Robin Röhm, cofundador de Apheris, uno de los escenarios posibles es que las startups se trasladen a EE. UU., un país que quizás tenga mucho que perder en blockchain y criptomonedas, pero que podría ganar la carrera de la IA.
Si quieres saber más sobre fintech y descubrir noticias, eventos y opiniones del sector, ¡suscríbete al boletín FTW!