El Parlamento Europeo aprueba el proyecto de ley de inteligencia artificial que exige la divulgación de los derechos de autor en los datos de formación de IA generativa
Los proveedores de modelos subyacentes deberán declarar si utilizan material protegido por derechos de autor para entrenar la IA. Para empresas de tecnología como Google y Microsoft, las multas podrían ascender a miles de millones de dólares por infracciones.
• El siguiente paso son las negociaciones tripartitas en las que participan los estados miembros, los parlamentos y la Comisión Europea. Un área importante de controversia es el uso del reconocimiento facial. El Parlamento Europeo votó para prohibir el uso del reconocimiento facial en tiempo real, pero quedan dudas sobre si se deben permitir exenciones para la seguridad nacional y otros fines de aplicación de la ley.
El 14 de junio, hora local, en la sesión plenaria del Parlamento Europeo celebrada en Estrasburgo, Francia, los miembros participaron en la reunión de votación sobre el "Proyecto de Ley de Inteligencia Artificial".
El 14 de junio, hora local, la "Ley de Inteligencia Artificial (Ley AI)" de la Unión Europea dio un paso importante para convertirse en ley: el Parlamento Europeo votó para aprobar el proyecto de ley, prohibiendo el reconocimiento facial en tiempo real e imponiendo restricciones a las herramientas de inteligencia artificial generativa. como ChatGPT Se introducen nuevos requisitos de transparencia.
El proyecto de ley AI ahora entrará en las etapas finales antes de que se lance la regulación en la UE. Los funcionarios intentarán llegar a un compromiso sobre el proyecto de ley con el ejecutivo de la UE y los estados miembros, donde persisten las diferencias. El proceso legislativo debe completarse en enero para que el proyecto de ley entre en vigor antes de las elecciones de la UE del próximo año.
"Este momento es muy importante”, dijo a TIME Daniel Leufer, analista senior de políticas enfocado en inteligencia artificial en la oficina de Bruselas de Access Now. "Lo que la UE dice que representa un riesgo inaceptable para los derechos humanos será visto como un plan para el mundo."
La versión de la ley aprobada por la UE propone que cualquier IA aplicada a casos de uso de "alto riesgo", como el empleo, el control fronterizo y la educación, debe cumplir con una serie de requisitos de seguridad, incluida la evaluación de riesgos, garantizar la transparencia y enviar registros. El proyecto de ley no consideraría automáticamente la IA de "propósito general" como ChatGPT como de alto riesgo, sino que impondría requisitos de transparencia y evaluación de riesgos en "modelos básicos" o poderosos sistemas de IA entrenados en grandes cantidades de datos. Por ejemplo, los proveedores de los modelos subyacentes, incluidos OpenAI, Google y Microsoft, deberán declarar si utilizaron material protegido por derechos de autor para entrenar la IA. Sin embargo, no existe un requisito similar para declarar si se utilizan datos personales durante la formación.
** ¿Cómo funcionan estas reglas? **
Propuesta por primera vez en 2021, la "Ley de Inteligencia Artificial" de la Unión Europea se aplicará a cualquier producto o servicio que utilice sistemas de inteligencia artificial.
El proyecto de ley clasifica los sistemas de IA en función de 4 niveles de riesgo, desde mínimo hasta inaceptable. Las aplicaciones de mayor riesgo, como el reclutamiento y la tecnología dirigida a niños, enfrentarán requisitos más estrictos, incluida una mayor transparencia y el uso de datos precisos.
Uno de los principales objetivos de la UE es protegerse de cualquier amenaza para la salud y la seguridad que suponga la inteligencia artificial, y proteger los derechos y valores fundamentales.
Esto significa que ciertos usos de la IA están absolutamente prohibidos, como los sistemas de "puntuación social" que juzgan a las personas en función de su comportamiento, y la IA que explota a grupos vulnerables (incluidos los niños) o utiliza la manipulación subconsciente que podría causar daño, como alentar comportamientos interactivos peligrosos. herramienta de diálogo También se prohibirán las herramientas policiales predictivas utilizadas para predecir quién comete delitos.
Además, los sistemas de IA utilizados en categorías como el empleo y la educación que afectan el curso de la vida de una persona enfrentarán requisitos estrictos, como ser transparentes para los usuarios y tomar medidas para evaluar y reducir el riesgo de sesgo que plantean los algoritmos.
La mayoría de los sistemas de inteligencia artificial, como los videojuegos o los filtros de correo no deseado, entran en la categoría de bajo riesgo o sin riesgo, dijo la Comisión Europea.
Un área importante de controversia es el uso del reconocimiento facial. El Parlamento Europeo votó para prohibir el uso del reconocimiento facial en tiempo real, pero quedan dudas sobre si se deben permitir exenciones para la seguridad nacional y otros fines de aplicación de la ley. Otra regla prohibiría a las empresas extraer datos biométricos de las redes sociales para crear bases de datos.
El mismo día, un grupo de legisladores de derecha en el Parlamento Europeo intentó en el último minuto cancelar la prohibición del reconocimiento facial en tiempo real propuesta por el proyecto de ley, pero los legisladores lo rechazaron.
La aplicación de las reglas dependerá de los 27 estados miembros de la UE. Los reguladores podrían obligar a las empresas a retirar aplicaciones del mercado. En casos extremos, las infracciones pueden dar lugar a multas de hasta 30 millones de euros (alrededor de 33 millones de dólares) o el 6 % de los ingresos globales anuales de una empresa, y para empresas de tecnología como Google y Microsoft, las multas pueden ascender a miles de millones de dólares.
¿Cuál es la relación entre ** y ChatGPT? **
La medida inicial del proyecto de ley decía poco sobre los chatbots, solo requería que fueran etiquetados para que los usuarios supieran que estaban interactuando con una máquina. Posteriormente, los negociadores agregaron disposiciones para cubrir AGI populares como ChatGPT, lo que hace que la tecnología cumpla con algunos de los mismos requisitos que los sistemas de alto riesgo.
Una adición clave es que el proyecto de ley requiere una documentación exhaustiva de cualquier material con derechos de autor utilizado para entrenar a los sistemas de inteligencia artificial para generar texto, imágenes, video y música similares a las obras humanas. Esto les permitirá a los creadores de contenido saber si sus publicaciones de blog, libros electrónicos, artículos científicos o canciones se han utilizado para entrenar los algoritmos que alimentan sistemas como ChatGPT. Luego pueden decidir si su trabajo puede ser copiado y buscar una compensación.
Algunos expertos preocupados por los riesgos de seguridad que plantean los modelos de IA argumentan que el proyecto de ley no impone límites a la potencia informática que pueden utilizar los sistemas de IA. Con cada nueva versión, la cantidad de cómputo utilizada por un gran modelo de lenguaje como ChatGPT aumenta exponencialmente, lo que mejorará en gran medida sus capacidades y rendimiento. "Cuantos más cálculos se utilicen para entrenar un sistema de IA, más poderosa será la IA. Cuanto mayor sea la capacidad, mayor será el potencial de riesgo y peligro", Andrea Mee, directora de estrategia y gobernanza de la startup de seguridad de IA. Conjetura Andrea Miotti le dijo a Time.
Miotti señaló que es relativamente fácil para los investigadores medir la potencia informática total de un sistema porque los chips utilizados para entrenar la IA más avanzada son un recurso físico.
**¿Por qué es importante la regulación de la UE? **
"Time" señaló que la UE no es un actor importante en el desarrollo de inteligencia artificial de vanguardia. Este papel lo desempeñan Estados Unidos y China, pero la UE a menudo juega el papel de marcar la marea. Heraldos del poder corporativo .
El mero tamaño del mercado único de la UE, con 450 millones de consumidores, hace que sea más fácil para las empresas cumplir, en lugar de desarrollar diferentes productos para diferentes regiones, dicen los expertos. Al establecer reglas comunes para la IA, la UE también está tratando de hacer crecer el mercado infundiendo confianza entre los usuarios.
"Esta es una regulación aplicable y el hecho de que las empresas rindan cuentas es significativo", ya que lugares como EE. UU., Singapur y el Reino Unido solo han brindado "orientación y asesoramiento", dijo Chris Shree, miembro principal de la Comisión de Libertades Civiles de Irlanda. "Otros países pueden querer adaptar y copiar" las reglas de la UE, dijo Kris Shrisak, director ejecutivo del país.
Algunos otros países también están acelerando el ritmo de la regulación. Por ejemplo, el primer ministro británico, Rishi Sunak, planea celebrar una cumbre mundial sobre seguridad de IA este otoño. "Quiero que el Reino Unido no sea solo un hogar intelectual, sino un hogar geográfico para la regulación global de la seguridad de la IA", dijo Sunak en una conferencia tecnológica esta semana. sobre el "Marco multilateral".
Francine Bennett, directora en funciones del Instituto Ada Lovelace, dijo a The New York Times: "Las tecnologías que evolucionan rápidamente y se reutilizan rápidamente son, por supuesto, difíciles de regular porque incluso las empresas que desarrollan la tecnología no saben cómo se desarrollarán las cosas. Pero ciertamente será peor para todos nosotros si continúan operando sin una regulación adecuada".
Sin embargo, la Asociación de la Industria de la Computación y las Comunicaciones argumenta que la UE debe evitar una regulación demasiado amplia que sofocaría la innovación. Boniface de Champris, gerente de políticas europeas de la agencia, dijo: "Las nuevas reglas de IA de Europa deben abordar de manera efectiva los riesgos bien definidos al tiempo que brindan a los desarrolladores suficiente flexibilidad para entregar aplicaciones de IA en beneficio de los europeos".
**¿Que sigue? **
Podría tomar años para que el proyecto de ley entre en vigencia por completo. El siguiente paso son las conversaciones tripartitas que involucran a los estados miembros, el parlamento y la Comisión Europea, que podrían enfrentar más cambios antes de intentar acordar una redacción.
Durante la próxima fase del diálogo tripartito, se espera que el Consejo de Europa, que representa a los gobiernos de los estados miembros, defienda firmemente la exención de las herramientas de inteligencia artificial utilizadas por las fuerzas del orden y las fuerzas fronterizas del requisito de los sistemas de "alto riesgo", según Ruffo.
Se espera que el proyecto de ley reciba la aprobación final a fines de año, seguido de un período de gracia para que las empresas y organizaciones se adapten, generalmente alrededor de dos años. Pero Brando Benifei, un miembro italiano del Parlamento Europeo que lidera el trabajo sobre el proyecto de ley, dijo que impulsarán reglas que permitan una adopción más rápida de tecnologías de rápido crecimiento como la IA generativa.
Para llenar los vacíos antes de que la legislación entre en vigor, Europa y Estados Unidos están redactando un código de conducta voluntario que los funcionarios prometieron a fines de mayo redactar en unas semanas y potencialmente expandirlo a otros "países de ideas afines".
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
El Parlamento Europeo aprueba el proyecto de ley de inteligencia artificial que exige la divulgación de los derechos de autor en los datos de formación de IA generativa
Fuente: El Papel
Reportero Fang Xiao
Los proveedores de modelos subyacentes deberán declarar si utilizan material protegido por derechos de autor para entrenar la IA. Para empresas de tecnología como Google y Microsoft, las multas podrían ascender a miles de millones de dólares por infracciones.
• El siguiente paso son las negociaciones tripartitas en las que participan los estados miembros, los parlamentos y la Comisión Europea. Un área importante de controversia es el uso del reconocimiento facial. El Parlamento Europeo votó para prohibir el uso del reconocimiento facial en tiempo real, pero quedan dudas sobre si se deben permitir exenciones para la seguridad nacional y otros fines de aplicación de la ley.
El 14 de junio, hora local, la "Ley de Inteligencia Artificial (Ley AI)" de la Unión Europea dio un paso importante para convertirse en ley: el Parlamento Europeo votó para aprobar el proyecto de ley, prohibiendo el reconocimiento facial en tiempo real e imponiendo restricciones a las herramientas de inteligencia artificial generativa. como ChatGPT Se introducen nuevos requisitos de transparencia.
El proyecto de ley AI ahora entrará en las etapas finales antes de que se lance la regulación en la UE. Los funcionarios intentarán llegar a un compromiso sobre el proyecto de ley con el ejecutivo de la UE y los estados miembros, donde persisten las diferencias. El proceso legislativo debe completarse en enero para que el proyecto de ley entre en vigor antes de las elecciones de la UE del próximo año.
"Este momento es muy importante”, dijo a TIME Daniel Leufer, analista senior de políticas enfocado en inteligencia artificial en la oficina de Bruselas de Access Now. "Lo que la UE dice que representa un riesgo inaceptable para los derechos humanos será visto como un plan para el mundo."
La versión de la ley aprobada por la UE propone que cualquier IA aplicada a casos de uso de "alto riesgo", como el empleo, el control fronterizo y la educación, debe cumplir con una serie de requisitos de seguridad, incluida la evaluación de riesgos, garantizar la transparencia y enviar registros. El proyecto de ley no consideraría automáticamente la IA de "propósito general" como ChatGPT como de alto riesgo, sino que impondría requisitos de transparencia y evaluación de riesgos en "modelos básicos" o poderosos sistemas de IA entrenados en grandes cantidades de datos. Por ejemplo, los proveedores de los modelos subyacentes, incluidos OpenAI, Google y Microsoft, deberán declarar si utilizaron material protegido por derechos de autor para entrenar la IA. Sin embargo, no existe un requisito similar para declarar si se utilizan datos personales durante la formación.
** ¿Cómo funcionan estas reglas? **
Propuesta por primera vez en 2021, la "Ley de Inteligencia Artificial" de la Unión Europea se aplicará a cualquier producto o servicio que utilice sistemas de inteligencia artificial.
El proyecto de ley clasifica los sistemas de IA en función de 4 niveles de riesgo, desde mínimo hasta inaceptable. Las aplicaciones de mayor riesgo, como el reclutamiento y la tecnología dirigida a niños, enfrentarán requisitos más estrictos, incluida una mayor transparencia y el uso de datos precisos.
Uno de los principales objetivos de la UE es protegerse de cualquier amenaza para la salud y la seguridad que suponga la inteligencia artificial, y proteger los derechos y valores fundamentales.
Esto significa que ciertos usos de la IA están absolutamente prohibidos, como los sistemas de "puntuación social" que juzgan a las personas en función de su comportamiento, y la IA que explota a grupos vulnerables (incluidos los niños) o utiliza la manipulación subconsciente que podría causar daño, como alentar comportamientos interactivos peligrosos. herramienta de diálogo También se prohibirán las herramientas policiales predictivas utilizadas para predecir quién comete delitos.
Además, los sistemas de IA utilizados en categorías como el empleo y la educación que afectan el curso de la vida de una persona enfrentarán requisitos estrictos, como ser transparentes para los usuarios y tomar medidas para evaluar y reducir el riesgo de sesgo que plantean los algoritmos.
La mayoría de los sistemas de inteligencia artificial, como los videojuegos o los filtros de correo no deseado, entran en la categoría de bajo riesgo o sin riesgo, dijo la Comisión Europea.
Un área importante de controversia es el uso del reconocimiento facial. El Parlamento Europeo votó para prohibir el uso del reconocimiento facial en tiempo real, pero quedan dudas sobre si se deben permitir exenciones para la seguridad nacional y otros fines de aplicación de la ley. Otra regla prohibiría a las empresas extraer datos biométricos de las redes sociales para crear bases de datos.
El mismo día, un grupo de legisladores de derecha en el Parlamento Europeo intentó en el último minuto cancelar la prohibición del reconocimiento facial en tiempo real propuesta por el proyecto de ley, pero los legisladores lo rechazaron.
La aplicación de las reglas dependerá de los 27 estados miembros de la UE. Los reguladores podrían obligar a las empresas a retirar aplicaciones del mercado. En casos extremos, las infracciones pueden dar lugar a multas de hasta 30 millones de euros (alrededor de 33 millones de dólares) o el 6 % de los ingresos globales anuales de una empresa, y para empresas de tecnología como Google y Microsoft, las multas pueden ascender a miles de millones de dólares.
¿Cuál es la relación entre ** y ChatGPT? **
La medida inicial del proyecto de ley decía poco sobre los chatbots, solo requería que fueran etiquetados para que los usuarios supieran que estaban interactuando con una máquina. Posteriormente, los negociadores agregaron disposiciones para cubrir AGI populares como ChatGPT, lo que hace que la tecnología cumpla con algunos de los mismos requisitos que los sistemas de alto riesgo.
Una adición clave es que el proyecto de ley requiere una documentación exhaustiva de cualquier material con derechos de autor utilizado para entrenar a los sistemas de inteligencia artificial para generar texto, imágenes, video y música similares a las obras humanas. Esto les permitirá a los creadores de contenido saber si sus publicaciones de blog, libros electrónicos, artículos científicos o canciones se han utilizado para entrenar los algoritmos que alimentan sistemas como ChatGPT. Luego pueden decidir si su trabajo puede ser copiado y buscar una compensación.
Algunos expertos preocupados por los riesgos de seguridad que plantean los modelos de IA argumentan que el proyecto de ley no impone límites a la potencia informática que pueden utilizar los sistemas de IA. Con cada nueva versión, la cantidad de cómputo utilizada por un gran modelo de lenguaje como ChatGPT aumenta exponencialmente, lo que mejorará en gran medida sus capacidades y rendimiento. "Cuantos más cálculos se utilicen para entrenar un sistema de IA, más poderosa será la IA. Cuanto mayor sea la capacidad, mayor será el potencial de riesgo y peligro", Andrea Mee, directora de estrategia y gobernanza de la startup de seguridad de IA. Conjetura Andrea Miotti le dijo a Time.
Miotti señaló que es relativamente fácil para los investigadores medir la potencia informática total de un sistema porque los chips utilizados para entrenar la IA más avanzada son un recurso físico.
**¿Por qué es importante la regulación de la UE? **
"Time" señaló que la UE no es un actor importante en el desarrollo de inteligencia artificial de vanguardia. Este papel lo desempeñan Estados Unidos y China, pero la UE a menudo juega el papel de marcar la marea. Heraldos del poder corporativo .
El mero tamaño del mercado único de la UE, con 450 millones de consumidores, hace que sea más fácil para las empresas cumplir, en lugar de desarrollar diferentes productos para diferentes regiones, dicen los expertos. Al establecer reglas comunes para la IA, la UE también está tratando de hacer crecer el mercado infundiendo confianza entre los usuarios.
"Esta es una regulación aplicable y el hecho de que las empresas rindan cuentas es significativo", ya que lugares como EE. UU., Singapur y el Reino Unido solo han brindado "orientación y asesoramiento", dijo Chris Shree, miembro principal de la Comisión de Libertades Civiles de Irlanda. "Otros países pueden querer adaptar y copiar" las reglas de la UE, dijo Kris Shrisak, director ejecutivo del país.
Algunos otros países también están acelerando el ritmo de la regulación. Por ejemplo, el primer ministro británico, Rishi Sunak, planea celebrar una cumbre mundial sobre seguridad de IA este otoño. "Quiero que el Reino Unido no sea solo un hogar intelectual, sino un hogar geográfico para la regulación global de la seguridad de la IA", dijo Sunak en una conferencia tecnológica esta semana. sobre el "Marco multilateral".
Francine Bennett, directora en funciones del Instituto Ada Lovelace, dijo a The New York Times: "Las tecnologías que evolucionan rápidamente y se reutilizan rápidamente son, por supuesto, difíciles de regular porque incluso las empresas que desarrollan la tecnología no saben cómo se desarrollarán las cosas. Pero ciertamente será peor para todos nosotros si continúan operando sin una regulación adecuada".
Sin embargo, la Asociación de la Industria de la Computación y las Comunicaciones argumenta que la UE debe evitar una regulación demasiado amplia que sofocaría la innovación. Boniface de Champris, gerente de políticas europeas de la agencia, dijo: "Las nuevas reglas de IA de Europa deben abordar de manera efectiva los riesgos bien definidos al tiempo que brindan a los desarrolladores suficiente flexibilidad para entregar aplicaciones de IA en beneficio de los europeos".
**¿Que sigue? **
Podría tomar años para que el proyecto de ley entre en vigencia por completo. El siguiente paso son las conversaciones tripartitas que involucran a los estados miembros, el parlamento y la Comisión Europea, que podrían enfrentar más cambios antes de intentar acordar una redacción.
Durante la próxima fase del diálogo tripartito, se espera que el Consejo de Europa, que representa a los gobiernos de los estados miembros, defienda firmemente la exención de las herramientas de inteligencia artificial utilizadas por las fuerzas del orden y las fuerzas fronterizas del requisito de los sistemas de "alto riesgo", según Ruffo.
Se espera que el proyecto de ley reciba la aprobación final a fines de año, seguido de un período de gracia para que las empresas y organizaciones se adapten, generalmente alrededor de dos años. Pero Brando Benifei, un miembro italiano del Parlamento Europeo que lidera el trabajo sobre el proyecto de ley, dijo que impulsarán reglas que permitan una adopción más rápida de tecnologías de rápido crecimiento como la IA generativa.
Para llenar los vacíos antes de que la legislación entre en vigor, Europa y Estados Unidos están redactando un código de conducta voluntario que los funcionarios prometieron a fines de mayo redactar en unas semanas y potencialmente expandirlo a otros "países de ideas afines".