Las 6 claves del Reglamento de Inteligencia Artificial de la UE

Reglamento europeo de Inteligencia Artificial: la respuesta legislativa a las nuevas realidades derivadas de la tecnología

Autora: Alazne Lete, IP & IT Lawyer, Legal Counsel de Ubilibet

El 9 de diciembre de 2023 marcó un hito significativo en la regulación global de la inteligencia artificial (IA) con la aprobación provisional del Reglamento de Inteligencia Artificial por parte del Parlamento y el Consejo Europeo.

Este reglamento, basado en un enfoque de gestión de riesgos, representa un paso crucial hacia la creación de un marco normativo integral cuyo propósito es asegurar que todos los sistemas de IA introducidos en el mercado europeo respeten los derechos fundamentales y los valores de la Unión Europea en las etapas desde su creación hasta en su uso, pasando por cualquier acción de desarrollo.

Más que simplemente ofrecer directrices, este reglamento demuestra el firme compromiso de la Unión Europea con la promoción de prácticas éticas y responsables en el ámbito de la IA, al tiempo que se fomentan sus beneficios aplicativos y se estimula la inversión y la innovación en IA en Europa.

En este artículo os explicamos las claves del Reglamento recién aprobado.

Las 6 claves del Reglamento de Inteligencia Artificial

1. Aplicación (y responsabilidad) universal

El Reglamento no solo se aplica a proveedores y usuarios de la Unión Europea, sino también a aquellos originarios de terceros países cuyos sistemas impacten en el mercado o los usuarios europeos.

Los proveedores y los comercializadores (incluyendo los importadores) de la tecnología IA están obligados a familiarizarse y cumplir con esta normativa en el grado de responsabilidad que se les exige. Asimismo, los usuarios comparten responsabilidades al garantizar que siguen instrucciones y procedimientos, especialmente en el caso de sistemas considerados de alto riesgo.

2. Ley a prueba de futuro

Una de las características distintivas del Reglamento es la amplitud de su definición legal de IA, que abarca el conjunto de tecnologías, sistemas y software que, procesando gran cantidad de datos para los objetivos definidos por los humanos, generen información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.

Se ha concebido como una ley “a prueba del futuro” que contenga la flexibilidad suficiente como para poder regular funciones o tecnologías hoy por hoy desconocidas, o para amoldarse a los cambios que experimenten las ya existentes.

3. A mayor riesgo, mayores obligaciones

El Reglamento se basa en un enfoque de riesgos; a mayor riesgo del sistema IA, mayores obligaciones para los involucrados.

Riesgo inaceptable

Quedarán totalmente prohibidos los «sistemas que desplieguen técnicas manipulativas que exploten vulnerabilidades de las personas o sean utilizados para usos intrusivos y discriminatorios».

En este grupo se incluyen expresamente la identificación biométrica en tiempo real en espacios públicos, como el reconocimiento facial en espacios públicos, los sistemas de puntuación social y las herramientas policiales predictivas, que se consideran una amenaza para las personas y sus derechos fundamentales. Los sistemas de identificación biométrica a distancia solo podrán utilizarse para el enjuiciamiento de delitos graves, por motivos de seguridad y solamente tras una autorización judicial.

Riesgo alto

Se hace referencia a aquellos sistemas de inteligencia artificial que se considera que entrañan un riesgo significativo para la salud, la seguridad o los derechos fundamentales de las personas físicas, por lo que se les exige una supervisión reforzada.

La normativa incorpora una lista de sistemas de IA en esta categoría cuyos riesgos ya se han manifestado o es probable que lo hagan en un futuro cercano, como es el caso de las IA destinadas a la toma de decisiones sobre las personas en el ámbito educativo o laboral, aquellas que evalúan la admisibilidad de las personas físicas para acceder a prestaciones y servicios de asistencia pública, o al crédito, entre otras. Sin embargo, esta configuración permite que la lista se ajuste a las realidades cambiantes en cada momento.

En este marco, los sistemas de IA de alto riesgo pueden acceder al mercado europeo, siempre y cuando cumplan con requisitos obligatorios y se sometan a una evaluación de conformidad previa. Todos estos sistemas deben cumplir con una serie de obligaciones, tales como llevar a cabo evaluaciones de riesgo a lo largo de todo su ciclo de vida, obtener aprobación mediante procedimientos adecuados antes de su uso y estar bajo la supervisión de personas físicas.

Riesgo limitado

Las inteligencias artificiales (IA) de riesgo limitado son sistemas de IA que, aunque pueden tener un impacto en diversos ámbitos, se considera que presentan riesgos controlados y manejables. Ejemplos de IA de riesgo limitado pueden incluir chatbots, asistentes virtuales y otras aplicaciones que, si bien utilizan algoritmos de inteligencia artificial, no representan amenazas significativas para la salud, seguridad o derechos fundamentales de las personas físicas.

En este contexto, se establecen obligaciones específicas de transparencia para garantizar que los usuarios estén informados sobre la naturaleza automatizada de la interacción. La transparencia en el funcionamiento de estos sistemas se enfoca en permitir que los usuarios reconozcan que están interactuando con una máquina, brindándoles la capacidad de tomar decisiones informadas sobre cómo proceder en la interacción con la inteligencia artificial.

Riesgo mínimo o nulo

Esta categoría abarca la mayoría de las aplicaciones de IA utilizados actualmente en la Unión Europea como pueden ser los algoritmos de recomendación, videojuegos habilitados para IA o filtros de spam. La propuesta respalda el uso libre de la inteligencia artificial de riesgo mínimo. En este contexto, se reconoce que estos sistemas no presentan riesgos significativos para la salud, seguridad o derechos fundamentales de las personas físicas.

La inclusión de las categorías de riesgo limitado y mínimo refleja la normativa mantiene una evaluación equilibrada y proporcionada del impacto de la IA como principio general, permitiendo la innovación y el desarrollo tecnológico sin imponer restricciones innecesarias cuando no se estimen necesario.

4. IA generativa: transparencia sobre los contenidos

La incorporación más reciente al reglamento se centra en la regulación de los sistemas de inteligencia artificial generativa. Estos sistemas emplean algoritmos avanzados y modelos de aprendizaje profundo diseñados para generar contenido original de manera autónoma, abarcando modelos como ChatGPT de OpenAI y Bard de Google. Inicialmente, la legislación no estaba diseñada para abordar este tipo de tecnologías, ya que no habían alcanzado una popularidad significativa cuando la propuesta fue presentada en abril de 2021. No obstante, debido al impacto destacado de ChatGPT el año pasado, las instituciones comunitarias han reconocido la imperiosa necesidad de legislar sobre estos sistemas.

La normativa incluye de manera explícita estas tecnologías en su ámbito de regulación, detallando sus características específicas y estableciendo criterios para identificar modelos que puedan representar un alto riesgo en determinados contextos. Asimismo, se exige a los desarrolladores implementar salvaguardias más rigurosas antes de lanzar estos sistemas al mercado.

En particular, se requiere que estos sistemas cumplan con criterios de transparencia, que involucran la obligación de especificar durante su generación y uso que el contenido ha sido creado mediante inteligencia artificial. Además, se garantiza que los datos utilizados para entrenar estos sistemas respeten los derechos de autor.

Estos criterios de transparencia aplican también a los usuarios de dichos servicios y aplicaciones (individuos y empresas) de generación de contenido, que tendrán la responsabilidad de indicar que el contenido ha sido creado usando esta tecnología.

Sin embargo, aún no se ha establecido cómo deben identificarse estos contenidos y tampoco quién será el responsable cuando no se haga o no se haga correctamente.

5. Autoridad de control y sanciones.

La norma prevé la creación de la Oficina Europea de Inteligencia Artificial, que coordinará el uso de la tecnología entre las autoridades nacionales y que estará asesorada por un panel de científicos y de organizaciones de la sociedad civil.

La participación en prácticas de IA prohibidas podría dar lugar a sanciones de hasta 35 millones de euros o el importe equivalente al 7 % de los ingresos anuales globales de una empresa, la cuantía que sea mayor. Esto supera la normativa europea sobre privacidad de datos. Además, el texto propone que los proveedores, distribuidores, importadores o cualquier otro tercero no puedan repartirse la carga de las sanciones y costas procesales.

6. Incentivos para la actividad innovadora

A pesar de las restricciones y de las cargas o quizá por motivo de corregir o contrarrestar estas, el Reglamento busca fomentar la innovación. En este sentido quizá la herramienta más prometedora es la implementación, junto a los estados miembros, de entornos de pruebas controlados para pymes, promoviendo la creación y uso responsable de nuevas tecnologías de IA.

Contrario a la opinión de sus detractores, esta norma no tiene como objetivo agregar complejidad y burocracia a los procesos de creación y adopción de la IA, sino que busca brindar certeza jurídica y robustez ética como las principales garantías para un uso racional y sostenible de esta, de acuerdo con nuestros valores compartidos.

¿Cuándo entra en vigor?

El primer trimestre de 2024 será clave para esta norma. Tendrá que ser adoptado formalmente tanto por el Parlamento Europeo como por el Consejo de la UE para convertirse en ley.

Su implementación, que según este calendario culminará en 2026 para el grueso de la norma se ejecutará de manera gradual; comenzando con la creación inmediata de la oficina europea que será seguida por la entrada en vigor de la prohibición de los sistemas de inteligencia artificial inaceptables en seis meses, y el establecimiento los requisitos para los sistemas y modelos de IA generativa se establecerán en los primeros 12 meses.

¿Necesitas consejo? Habla con nosotros

Si quieres contactar con Alazne y recibir asesoramiento legal, rellena este formulario y nos pondremos en contacto contigo.

Scroll al inicio