Nuevo acuerdo de la Unión Europea sobre inteligencia artificial


Hace unas semanas los parlamentarios y el Consejo de la Unión Europea llegaron a un acuerdo provisional para la futura Ley de Inteligencia Artificial. De esta forma, nos posicionamos como el primer continente en regular la IA, siendo referentes mundiales, como ya sucedió con el reglamento del RGPD.

Este acuerdo tiene como objetivo garantizar los derechos fundamentales, el Estado de derecho, la democracia y la sostenibilidad ambiental frente a la IA de alto riesgo, mientras fomenta la innovación y posiciona a Europa como el líder en este ámbito.

Os resumiremos los puntos a destacar de este acuerdo y las normas que han establecido para regular la IA según los riesgos y el grado de impacto:

¿Quién debe aplicar esta nueva ley?

El acuerdo aclara que no se aplica a áreas fuera del Derecho de la UE, ni afecta las competencias de los Estados miembros en seguridad nacional. Además, este reglamento no se aplicará a los sistemas de IA utilizados exclusivamente para militares, defensa, investigación e innovación. Como tampoco para las personas que usen la IA de forma no profesional.

Clasificación como alto riesgo y prácticas prohibidas:

Se deberán clasificar los sistemas de inteligencia artificial de alto riesgo y estos tendrán unas obligaciones específicas. De esta forma, se garantiza que no se incluyan en esta clasificación sistemas de la IA que no provocan violaciones graves de los derechos fundamentales, ni supongan otros riesgos.

Los sistemas de la IA que tengan un riesgo limitado tendrán obligaciones de transparencia muy leves, como, por ejemplo, dejar claro que el contenido se ha generado mediante IA.

Además, se prohibirá el uso de la inteligencia artificial cuando los riesgos se consideren inaceptables. Por ejemplo, usando la IA para la manipulación cognitiva conductual, el rastreo indiscriminado de imágenes faciales de internet, el reconocimiento de emociones, la categorización biométrica que deduce datos sensibles o la vigilancia policial predictiva.

¿Qué excepciones tiene el ámbito policial?

Dada la necesidad de las autoridades policiales de utilizar la IA en algunas labores esenciales, se acordaron varias modificaciones, sujetas a las salvaguardias oportunas, con el objetivo de respetar la confidencialidad de los datos operativos delicados que se tratan en sus actividades.

Por ejemplo, permiten que en un caso de urgencia los organismos policiales puedan desplegar una herramienta de IA de alto riesgo que no haya superado el procedimiento de evaluación de la conformidad.

También se acuerda hacer restricciones en la identificación biométrica remota en espacios públicos. Aunque esta se hace con excepciones en los casos de víctimas de delitos de prevención de amenazas reales, presentes o previsibles, como podrían ser atentados terroristas y de búsqueda de personas sospechosas de delitos muy graves.

Sistemas de IA de uso general y modelos fundacionales

En el acuerdo se añaden varias situaciones y casos específicos a tener en cuenta en las que los sistemas de IA de uso general se utilizan con diferentes fines.

A partir de unas normas específicas se regulan los sistemas de IA de uso general y los modelos fundacionales, que serían aquellos que son capaces de realizar muchas tareas como: la generación de textos, imágenes o vídeos, la conversión en lenguaje lateral, la informática o la generación de códigos informáticos.

Además, los modelos fundacionales deberán cumplir unas obligaciones específicas en materia de transparencia antes de introducirse al mercado.

También se establece un régimen más estricto para aquellos modelos fundacionales de gran impacto, que son entrenados con una cantidad muy elevada de datos y que son más complejos, y tienen capacidades avanzadas y resultados superiores.

Nueva estructura de gobernanza

Dada la necesidad de garantizar el cumplimiento de estas normas, se crea una oficina de IA en la Comisión para supervisar los modelos de IA más avanzados, fomentar que se cumplan las normas y se hagan las prácticas necesarias de ensayo.

Además, un panel científico de expertos independientes asesorará a la oficina de IA sobre los modelos de IA de uso general y sobre la aparición de modelos fundacionales de gran impacto y supervisando los posibles riesgos de seguridad.

También se creará un Comité de IA que está formado con representantes de los Estados miembros, y que será el encargado de aplicar el Reglamento en los diferentes Estados.

Por último, se creará un foro consultivo para los interesados, como pueden ser las pymes, representantes de la industria, empresas emergentes, sociedad civil o el mundo académico, que aportarán conocimientos técnicos al Comité de IA.

¿Qué sanciones puede haber?

Las multas por infringir el Reglamento de Inteligencia Artificial serán basadas en el porcentaje del volumen de negocios anual global de la empresa que haya cometido la infracción.

Estas sanciones podrían elevarse a 35 millones de euros, es decir, el 7% por las infracciones de aplicaciones de IA prohibidas, 15 millones de euros o el 3% por el incumplimiento de las obligaciones del Reglamento de Inteligencia Artificial y 7,5 millones de euros o el 1,5% por la presentación de información inexacta.

Evidentemente, habrá límites más proporcionados para las pymes y las empresas emergentes. Y se podrá presentar reclamaciones ante la autoridad de vigilancia del mercado pertinente.

Transparencia y protección de derechos fundamentales:

– Evaluación del impacto en derechos fundamentales antes de la introducción de sistemas de IA de alto riesgo.

– Mayor transparencia en el uso de sistemas de IA de alto riesgo.

– Determinados usuarios de un sistema de IA de alto riesgo estarán obligados a registrarse en la base de datos de la UE de sistemas de IA de alto riesgo.

– Los usuarios de un sistema de reconocimiento de emociones estarán obligados a informar a las personas físicas a las que se expongan a ese tipo de sistemas.

¿Cuándo entrará en vigor esta ley?

Este acuerdo establece que el Reglamento de Inteligencia Artificial deberá aplicarse dos años después de su entrada en vigor. Siempre teniendo en cuenta algunas excepciones.

Por lo tanto, entrará en vigor por completo en 2026, con una aplicación gradual.

¿Cuáles son las siguientes fases de esta ley?

Después del acuerdo provisional que se alcanzó hace unos días, durante las próximas semanas seguirán ultimando detalles. Y una vez terminados estos últimos trabajos se presentará el texto a los representantes de los Estados miembros.

Las dos instituciones deberán confirmar el texto y se someterá a una formalización jurídico-lingüística antes de adoptarlo formalmente.

 

Este acuerdo es un paso muy importante para la regulación de la IA y para respetar los derechos de los ciudadanos. En cuanto tengamos más información sobre ello, os informaremos con más detalle.

El equipo de Pyme Legal