lunes, 26 de agosto de 2024

Reglamento (UE) 2024/1689 de Inteligencia Artificial (II): Prohibiciones, obligaciones y otros aspectos de su contenido

 

La estructura del contenido sustantivo del RIA está condicionada por su enfoque basado en establecer medidas proporcionales a los riesgos de los sistemas de IA. En consecuencia, su organización responde a la clasificación de riesgos de los sistemas de IA en que se funda: inadmisible (prácticas prohibidas en el capítulo II); alto (sometidos al conjunto elaborado de requisitos y obligaciones de su capítulo III); limitado (sometidos a las obligaciones de transparencia de su capítulo IV); y mínimo (que en principio no son objeto de un régimen específico). Por su parte, el capítulo V, añadido durante la tramitación legislativa, pues no figuraba en la Propuesta inicial de la Comisión, regula los modelos de IA de uso general, previendo obligaciones específicas para los proveedores de tales modelos que generen riesgos sistémicos. Los Capítulos VII a XII del RIA se encuentran dedicados, entre otras cuestiones, a los mecanismos de gobernanza y de aplicación del Reglamento.

 

I. Prohibición de las prácticas de IA que generan riesgos inadmisibles

           El Capítulo II RIA, integrado únicamente por el artículo 5, va referido a las prácticas de IA que por generar riesgos inadmisibles van en contra de “los valores de la Unión de respeto de la dignidad humana, la libertad, la igualdad, la democracia y el Estado de Derecho y de los derechos fundamentales consagrados en la Carta, como el derecho a la no discriminación, a la protección de datos y a la intimidad y los derechos del niño”. En consecuencia, el artículo 5 prohíbe las prácticas de IA que enumera en su apartado 1 por resultar especialmente peligrosas.

          Las prácticas prohibidas son las relativas a la introducción en el mercado, la puesta en servicio o la utilización de ciertos sistemas de IA, así como el uso de sistemas de identificación biométrica remota en determinadas circunstancias. En concreto son las siguientes.

                - Los sistemas de IA que se sirvan de técnicas subliminales -como estímulos de audio o video imperceptibles- o de técnicas deliberadamente manipuladoras o engañosas para alterar sustancialmente el comportamiento de personas, haciendo que tomen una decisión que de otro modo no habrían tomado, de un modo que pueda provocar perjuicios considerables (art. 5.1.a RIA). En lo relativo a las prácticas manipuladoras o engañosas, esta prohibición complementa las contenidas en la Directiva 2005/29 sobre prácticas comerciales desleales (cdo. 29 RIA).

                - Los sistemas de IA que exploten vulnerabilidades de personas físicas derivadas de su edad o discapacidad, o de una situación social o económica específica, con la finalidad o el efecto de alterar sustancialmente su comportamiento de un modo que pueda provocar perjuicios considerables (art. 5.1.b RIA).

                - Los sistemas de IA para evaluar o clasificar a personas físicas durante un período de tiempo atendiendo a su comportamiento social o a características personales, de forma que la puntuación resultante provoque un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos bien en contextos sociales que no guarden relación con aquellos en los que se generaron o recabaron los datos originalmente, bien en circunstancias en las que resulte injustificado o desproporcionado (art. 5.1.c RIA). Esta prohibición, que fundamentalmente pretende salvaguardar el derecho a la dignidad y a la no discriminación, no afecta a prácticas lícitas de evaluación de las personas físicas que se efectúen para un fin específico de conformidad con el Derecho de la Unión y nacional (cdo. 31).

                - Los sistemas de IA para realizar evaluaciones del riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona o en la evaluación de los rasgos y características de su personalidad, salvo que se trate de sistemas utilizados para apoyar la valoración humana de la implicación de una persona en una actividad delictiva que ya se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva (art. 5.1.d RIA). Se pretende salvaguardar la presunción de inocencia y asegurar que las personas físicas deben ser juzgadas basándose en su comportamiento real (cdo. 42 RIA).

                - Los sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de Internet o de circuitos cerrados de televisión (art. 5.1.e RIA).

                - Lo sistemas de IA para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos, excepto cuando el sistema se instale o introduzca por motivos médicos o de seguridad (art. 5.1.f RIA).

                - Los sistemas de IA de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos -como imágenes de la persona o huellas dactilares- para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida u orientación sexuales. El cdo. 30 y el artículo 5.1.g RIA precisan que esta prohibición no incluye el etiquetado o filtrado de conjuntos de datos biométricos adquiridos lícitamente basado en datos biométricos -como el color del pelo- ni la categorización de datos biométricos en el ámbito de la garantía del cumplimiento del Derecho.

                - El uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho se considera que genera riesgos especialmente graves para la vida privada, pudiendo provocar la sensación de estar bajo una vigilancia constante y disuadir del ejercicio de derechos fundamentales como el de reunión (cdo. 32). Por consiguiente, el artículo 5.1.h RIA prohíbe tales usos de esos sistemas, salvo y en la medida en que sean estrictamente necesarios para alguno de los siguientes objetivos: i) la búsqueda selectiva de víctimas concretas de determinadas actividades delictivas (secuestro, trata o explotación sexual) o de personas desaparecidas; ii) la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas o de una amenaza real de un atentado terrorista; iii) la localización o identificación de una persona sospechosa de haber cometido alguno de los delitos mencionados en el anexo II del RIA castigado con al menos cuatro años de privación de libertad. El artículo 5 RIA incorpora garantías y limitaciones adicionales en relación con estos usos en los supuestos excepcionales en los que pueden resultar admisibles, incluyendo el que todo uso de este tipo debe ser previamente -salvo puntualmente en situaciones de urgencia- autorizado de manera expresa y específica por una autoridad judicial o una autoridad administrativa independiente cuya decisión sea vinculante (art. 5.3 RIA). Además, debe tenerse en cuenta que la prohibición de estos usos de los sistemas de identificación biométrica para fines de garantía del cumplimiento del Derecho y sus excepciones, operan sin perjuicio de las restricciones que para el tratamiento de datos biométricos con fines distintos establece el artículo 9 RGPD, que prohíbe, entre otros, el tratamiento de determinadas categorías especiales de datos, incluidos los datos biométricos dirigidos a identificar de manera unívoca a una persona física, salvo en las circunstancias excepcionales establecidas en su apartado 2.

II. Régimen aplicable respecto de los sistemas de IA de alto riesgo

Los sistemas de riesgo alto son objeto de regulación en el Capítulo III, que constituye el componente principal del RIA, pues abarca los artículos 6 a 49 (que se acompañan de ciertos anexos) e incluyen el elaborado régimen de requisitos exigibles a tales sistemas y de obligaciones que deben ser cumplidas por los operadores implicados.

Los sistemas de IA de alto riesgo están permitidos en la Unión, pero sometidos al cumplimiento de ciertos requisitos y obligaciones, incluyendo una evaluación de conformidad con carácter previo a su introducción en el mercado, puesta en servicio y uso. Por ello, resulta de gran importancia, en primer lugar, la determinación de que sistemas de IA se consideran de alto riesgo y quedan sometidos al estricto marco de obligaciones y requisitos que establece el Capítulo III del RIA.

1. Clasificación de un sistema como de alto riesgo

La calificación como de alto riesgo se lleva a cabo en función del potencial lesivo del sistema de IA en la seguridad de las personas o respecto de sus derechos fundamentales, teniendo en cuenta no solo la función que el sistema de IA desempeña sino también las finalidades concretas para las que se contempla su uso.

Conforme a lo previsto en el artículo 6 RIA, la categoría de sistema de IA alto riesgo está integrada por dos grupos de sistemas de IA. Por una parte, los que están destinados a ser utilizados como componente de seguridad de los productos -o constituyen uno de dichos productos- que conforme a la legislación sectorial de la UE enumerada en el Anexo I del RIA están sometidos a una evaluación de conformidad con un organismo de evaluación de la conformidad de terceros para su introducción en el mercado o puesta en servicio (art. 6.1 RIA). Entre otros, los instrumentos de armonización enumerados en el Anexo I son relativos a productos como: máquinas, juguetes, embarcaciones de recreo, ascensores, equipos radioeléctricos, equipos a presión, instalaciones de transporte por cable, productos sanitarios, vehículos y aeronaves.

Por otra parte, conforme al artículo 6.2, con respecto a los sistemas de IA que no son componentes de seguridad de productos o productos en sí mismos comprendidos en su apartado 1, se clasifican como de alto riesgo si, a la luz de su finalidad prevista, presentan un alto riesgo de ser perjudiciales para la salud y la seguridad o los derechos fundamentales de las personas, lo que se traduce en la clasificación como de alto riesgo de los sistemas de IA contemplados en el Anexo III del RIA. Los sistemas de IA de alto riesgo aparecen organizados en el Anexo III en nueve ámbitos, y la enumeración refleja el criterio de que la clasificación como de alto riesgo toma también en consideración las finalidades concretas para la que se contempla el uso del sistema de IA en cuestión.

Así, en el ámbito de la biometría, en la medida en que su uso esté permitido, se consideran de alto riesgo los sistemas de identificación biométrica remota, salvo que se utilicen con fines de verificación para confirmar que una persona es quien afirma ser, así como los sistemas de IA destinados a ser utilizados para la categorización biométrica en función de atributos o características sensibles, y los sistemas de IA destinados a ser utilizados para el reconocimiento de emociones.

En el sector de las infraestructuras críticas, son de alto riesgo los sistemas de IA destinados a ser utilizados como componentes de seguridad en la gestión y el funcionamiento de tales infraestructuras, del tráfico rodado o del suministro de agua, gas, calefacción o electricidad. En el ámbito de la educación, se clasifican como de alto riesgo los sistemas de IA destinados a ser utilizados para determinar el acceso o la admisión a centros educativos o para evaluar los resultados del aprendizaje o el nivel de educación que recibirá una persona, así como los utilizados para el seguimiento y la detección de comportamientos prohibidos durante los exámenes. En el ámbito del empleo, el Anexo III considera de alto riesgo los sistemas de IA destinados a ser utilizados para la contratación o la selección de personas físicas, incluyendo el análisis y filtrado de las solicitudes de empleo y la evaluación de los candidatos, así como los destinados a ser utilizados para tomar decisiones sobre las condiciones de las relaciones laborales, la asignación de tareas a partir de comportamientos individuales o rasgos personales o para supervisar y evaluar el rendimiento y el comportamiento.

Con respecto al acceso a servicios privados esenciales y a servicios y prestaciones públicos esenciales y su disfrute, se consideran como sistemas de IA de alto riesgo los destinados a ser utilizados para evaluar la admisibilidad de las personas físicas para beneficiarse de tales servicios y prestaciones, así como para reducirlos; los destinados a ser utilizados para evaluar la solvencia de personas físicas o establecer su calificación crediticia, salvo los sistemas de IA utilizados al objeto de detectar fraudes financieros; los destinados a ser utilizados para la evaluación de riesgos y la fijación de precios en relación con las personas físicas en el caso de los seguros de vida y de salud; y los destinados a ser utilizados para la evaluación y la clasificación de las llamadas de emergencia y en sistemas de triaje de pacientes.

En el ámbito de la garantía del cumplimiento del Derecho, en la medida en que el uso de sistemas de IA esté permitido, se consideran de alto riesgo los destinados a ser utilizados por las autoridades para evaluar el riesgo de que una persona física sea víctima de delitos, la fiabilidad de las pruebas durante la investigación o el enjuiciamiento de delitos, el riesgo de que una persona física cometa un delito o reincida, o la elaboración de perfiles de personas físicas durante la detección, la investigación o el enjuiciamiento de delitos. En relación con la migración, asilo y gestión del control fronterizo, se consideran de alto riesgo los sistemas de IA destinados a ser utilizados por las autoridades competentes para evaluar un riesgo, por ejemplo, para la seguridad, la salud o de migración irregular, que plantee una persona; o para ayudar a examinar las solicitudes de asilo, visado o permiso de residencia y las reclamaciones conexas; o para detectar, reconocer o identificar a personas físicas.

En lo relativo a la “administración de justicia y procesos democráticos”, el Anexo III considera de alto riesgo los sistemas de IA destinados a ser utilizados para ayudar a una autoridad judicial -o en una resolución alternativa de litigios- en la investigación e interpretación de hechos y de la ley, así como en la garantía del cumplimiento del Derecho a un conjunto concreto de hechos. También se incluyen los destinados a ser utilizados para influir en el resultado de una elección o referéndum o en el comportamiento electoral de personas que ejerzan su derecho de voto.

            El artículo 6 RIA incluye presiones adicionales relevantes en relación con la clasificación de los sistemas de IA como de alto riesgo. Por una parte, prevé que los casos de uso enumerados en el Anexo III siempre se considerarán de alto riesgo cuando el sistema de IA efectúe la elaboración de perfiles de personas físicas. Por otra parte, sin perjuicio de lo anterior, como elemento de flexibilización, el artículo 6.3 RIA -objeto de aclaraciones relevantes en el cdo. 53- admite que pueden existir casos específicos en los que los sistemas de IA referidos en los ámbitos predefinidos en el Anexo III no entrañen un riesgo considerable de causar un perjuicio a los intereses jurídicos amparados, en particular, al no influir sustancialmente en la toma de decisiones o no perjudicar dichos intereses sustancialmente. Se considera que esta circunstancia concurre cuando el sistema de IA está destinado a cualquiera de las siguientes actividades: a) una tarea de procedimiento limitada (como la mera clasificación de los documentos recibidos o la detección de duplicados); b) mejorar el resultado de una actividad humana previamente realizada (por ejemplo, mejorar la redacción de un texto ya redactado); c) detectar ciertos patrones de toma de decisiones (por ejemplo, determinar si un evaluador se ha haberse desviado de su patrón de calificación); o d) una tarea preparatoria para una evaluación que sea pertinente a efectos de los usos enumerados en el anexo III (como la indexación o la búsqueda en archivos).

          Como elementos ilustrativos del carácter dinámico y susceptible de adaptación del RIA, cabe reseñar que se prevé la adopción por la Comisión de directrices que especifiquen la aplicación práctica del artículo 6 (art. 6.5 RIA), actos delegados que modifiquen su apartado 3 (art. 6.6 y 7 RIA), y también que modifiquen el anexo III mediante la adición o modificación de casos de uso de sistemas de IA de alto riesgo (art. 7 RIA).

2) Requisitos de los sistemas de IA de alto riesgo y obligaciones de los operadores          

La introducción en el mercado de la Unión, la puesta en servicio o la utilización de sistemas de IA de alto riesgo se supedita al cumplimiento de una serie de requisitos, con el objetivo de garantizar que tales sistemas no planteen riesgos inaceptables para intereses públicos importantes, así como que presentan un alto nivel de fiabilidad. Se trata de requisitos que complementan los establecidos en legislación de armonización de la Unión, en particular en la legislación sectorial enumerada en el Anexo I del RIA relativa a productos sometidos a una evaluación de conformidad con un organismo de evaluación de la conformidad de terceros para su introducción en el mercado o puesta en servicio, cuyos requisitos se refieren típicamente a riesgos distintos de los que trata de hacer frente el RIA. En todo caso, para evitar duplicidades y reducir las cargas adicionales, se contempla que los proveedores puedan integrar los procesos de prueba y presentación de información necesarios, y la información y la documentación que faciliten con respecto a su producto que contenga un sistema de IA en documentación y procedimientos que ya existan y exijan los actos legislativos de armonización de la Unión enumerados en el anexo I que les sean aplicables (art. 8.2 RIA).

Los requisitos exigidos a los sistemas de IA de alto riesgo, contenidos en la Sección 2 del Capítulo III del RIA, van referidos al establecimiento de un sistema de gestión de riesgos (art. 9); la calidad de los conjuntos de datos empleados (gobernanza de datos) (art. 10); la documentación técnica y conservación de registros (arts. 11 y 12); la transparencia y la divulgación de información a los responsables del despliegue (art. 13); la supervisión humana (art. 14); y la precisión, solidez y ciberseguridad del diseño (art. 15).

Estrechamente ligadas al cumplimiento de los requisitos reseñados, se encuentran las obligaciones de carácter horizontal que el RIA impone a los proveedores de sistemas de IA de alto riesgo (y sus representantes autorizados en situaciones en que el proveedor está establecido en un tercer país), los fabricantes de productos comprendidos en la relación del Anexo II.A, los importadores y los distribuidores (arts. 16 a 24). En concreto, con respecto a los proveedores de sistemas de IA de alto riesgo, el artículo 16 les impone, entre otras, las obligaciones de:  velar por que sus sistemas de ese tipo cumplan los requisitos establecidos en la sección 2 el Capítulo III; indicar en el sistema de IA de alto riesgo o, cuando no sea posible, en el embalaje o en la documentación que lo acompañe su nombre, marca registrada y dirección de contacto; contar con un sistema de gestión de la calidad conforme con el artículo 17; conservar la documentación prevista en el artículo 18 así como ciertos archivos (art. 19); asegurarse de que los sistemas de IA de alto riesgo sean sometidos al procedimiento pertinente de evaluación de la conformidad antes de su introducción en el mercado o puesta en servicio; elaborar una declaración UE de conformidad; colocar el marcado CE; cumplir ciertas obligaciones de registro; y demostrar, previa solicitud motivada de la autoridad nacional competente, la conformidad del sistema de IA de alto riesgo con los requisitos establecidos en la sección 2.

El artículo 25 RIA contempla las circunstancias en las que cualquier distribuidor, importador, responsable del despliegue o tercero puede llegar a ser considerado proveedor de un sistema de IA de alto riesgo a los efectos y estará sujeto a las obligaciones previstas en el artículo 16 (mucho más gravosas que las impuestas a los meros importadores -art. 23-, distribuidores -art. 24- o responsables del despliegue). En particular, esa equiparación al proveedor puede darse en el caso de que ese otro operador ponga su nombre o marca en un sistema de IA de alto riesgo previamente introducido en el mercado o puesto en servicio; cuando modifique sustancialmente un sistema de IA de alto riesgo que ya haya sido introducido en el mercado o puesto en servicio; o cuando modifiquen la finalidad prevista de un sistema de IA que no haya sido considerado de alto riesgo y ya haya sido introducido en el mercado o puesto en servicio, de tal manera que el sistema de IA se convierta en de alto riesgo. Por último, se imponen obligaciones específicas a los responsables del despliegue de sistemas de IA de alto riesgo, incluyendo algunas especificidades respecto a las entidades de crédito y el cumplimiento de la normativa sobre protección de datos personales (art. 26), así como en relación con ciertos supuestos en los que los responsables del despliegue sean organismos de Derecho público, o entidades privadas que prestan servicios públicos (art. 27)-

Por su parte, la Sección 4 del Capítulo V (arts. 28 a 39 RIA) se dedica básicamente a establecer el marco relativo a la participación de los organismos implicados en los procedimientos de evaluación de conformidad, incluyendo el régimen de las autoridades notificantes responsables de establecer y llevar a cabo los procedimientos para la evaluación, designación y notificación de los organismos de evaluación de la conformidad, así como de su supervisión. Por último, la Sección 5 del Capítulo V (arts. 40 a 49 RIA) detalla los procedimientos de evaluación de conformidad de los sistemas de IA de alto riesgo que deben seguirse antes de su introducción en el mercado o puesta en servicio (art. 43), la elaboración de la declaración UE de conformidad (art. 47 y anexo V), el marcado CE (art. 48) y ciertas obligaciones de registro (art. 49 y anexo VIII).

III. Sistemas de IA sometidos a obligaciones específicas de transparencia

           El Capítulo IV (art.  50 RIA) establece obligaciones de transparencia para determinados sistemas de IA con independencia de que sean de alto riesgo (en este caso operan con carácter cumulativo a las del Capítulo III) o no. En concreto, estas obligaciones van referidas a sistemas de IA destinados a interactuar con personas físicas o a generar contenidos que pueden plantear riesgos específicos de suplantación o engaño. Se trata de obligaciones de facilitar cierta información de manera clara a las personas físicas que interactúan o están expuestas a los sistemas de IA en cuestión, a más tardar con ocasión de la primera interacción o exposición.

         En concreto, el artículo 50.2 RIA exige a los proveedores de sistemas de IA destinados a interactuar directamente con personas físicas que garanticen que su diseño y desarrollo permiten que tales personas estén informadas de que están interactuando con un sistema de IA. Cuando se trate de sistemas de IA que generan contenido sintético de audio, imagen, vídeo o texto, se exige a sus proveedores que velen por que los resultados de salida estén marcados en un formato legible por máquina y que sea posible detectar que han sido generados o manipulados de manera artificial. Esta exigencia pretende dar respuesta a los riesgos de desinformación y manipulación asociados a la creciente dificultad para distinguir el contenido auténtico generado por seres humanos, lo que justifica requerir a los proveedores de ese tipo de sistemas que integren soluciones técnicas que permitan detectar los contenidos generados o manipulados por un sistema de IA (cdo. 133). Esta obligación no se aplica cuando el sistema de IA desempeña una función de apoyo a la edición estándar o no altera sustancialmente los datos de entrada, o cuando estén autorizados por ley para prevenir, investigar o enjuiciar delitos. Además, los responsables del despliegue de un sistema de reconocimiento de emociones o de un sistema de categorización biométrica deben informar del funcionamiento de ese sistema a las personas físicas expuestas a él (art. 50.3).

Se incluyen obligaciones adicionales en relación con los sistemas de IA que permitan generar “ultrasuplantaciones” o deep fakes. En concreto, el artículo 3.60 RIA define “ultrasuplantación” como “un contenido de imagen, audio o vídeo generado o manipulado por una IA que se asemeja a personas, objetos, lugares, entidades o sucesos reales y que puede inducir a una persona a pensar erróneamente que son auténticos o verídicos.” Se exige a los responsables del despliegue de un sistema de IA que genere o manipule contenidos que constituyan una ultrasuplantación que hagan público que tales contenidos han sido generados o manipulados de manera artificial, etiquetando los resultados de salida generados por la IA. Como excepción para no obstaculizar el derecho a la libertad de expresión y el derecho a la libertad de las artes y de las ciencias (cdo. 134), cuando el contenido en cuestión forme parte “de una obra o programa manifiestamente creativos, satíricos, artísticos, de ficción o análogos”, únicamente existe la obligación de hacer pública la existencia del contenido generado o manipulado artificialmente de una manera adecuada que no dificulte la exhibición o el disfrute de la obra” (art. 50.4 pfo. 1 RIA). Además, se impone una obligación de divulgación similar en relación con el texto generado o manipulado por una IA cuando se publique con el fin de informar al público sobre asuntos de interés público, salvo que ese contenido haya sido sometido a revisión humana o de control editorial y que una persona física o jurídica ejerza la responsabilidad editorial de la publicación del contenido (art. 50.4 pfo. 2 RIA). Como ya ha quedado señalado, la inclusión de este régimen de obligaciones específico tiene lugar sin perjuicio de la eventual prohibición de ciertos empleos de estas herramientas y de la eventual responsabilidad -incluso penal- derivadas de otras normas de nuestro ordenamiento jurídico.

IV. Modelos de IA de uso general

               Previamente se ha detallada cómo el RIA caracteriza los modelos de IA de uso general, objeto de regulación en su Capítulo V (arts. 51 a 56) y su distinción de los sistemas de IA. La introducción finalmente de normas específicas en este ámbito trata de responder a la peculiar posición estos modelos, que con frecuencia constituyen la base de diversos sistemas de IA que los integran, al tiempo que cuando reúnen determinadas características pueden generar riesgos de carácter sistémico.

           Todos los proveedores de modelos de IA de uso general comprendidos en el ámbito de aplicación territorial del RIA quedan sometidos a ciertas obligaciones de transparencia, que aparecen detalladas en su artículo 53. Sin perjuicio de excepciones puntuales para ciertos proveedores de modelos de IA que se divulguen con arreglo a una licencia libre y de código abierto, sus obligaciones incluyen elaborar documentación y mantenerla actualizada -que puede ser solicitada por la Oficina Europea de Inteligencia Artificial y las autoridades nacionales y cuyo contenido mínimo aparece detallada en los anexos XI y XII del RIA, susceptibles de modificación por la Comisión mediante actos delegados-, así como facilitar información sobre el modelo de IA de uso general para su uso por parte de los proveedores posteriores. Se exige, además, que establezcan directrices para cumplir el Derecho de la Unión en materia de derechos de autor y derechos afines (cuestión a la que se hará referencia específica más adelante), así como que pongan a disposición del público un resumen del contenido utilizado para el entrenamiento del modelo de IA de uso general. Se prevé que la Oficina Europea de Inteligencia Artificial proporcione un modelo de dicho resumen. Por su parte, el artículo 54 obliga a los proveedores establecidos en terceros Estados a nombrar, mediante un mandato escrito, a un representante autorizado que esté establecido en la Unión, antes de introducir en el mercado de la Unión un modelo de IA de uso general, lo que resulta de gran importancia de cara a asegurar la efectiva aplicación del RIA respecto de tales proveedores.

              Destinatarios de obligaciones específicas adicionales muy significativas son los proveedores de modelos de IA de uso general con riesgo sistémico, por lo que la determinación de qué concretos modelos quedan así clasificados reviste gran importancia práctica. Conforme al artículo 51.1 RIA, para ser clasificado como de riesgo sistémico basta con que el modelo de IA de uso general tenga “capacidades de gran impacto evaluadas a partir de herramientas y metodologías técnicas adecuadas” -para lo que el apdo. 2 proporciona una presunción cuando la cantidad acumulada de cálculo utilizada para su entrenamiento supera un determinado umbral- o que en virtud de una decisión de la Comisión se considere “tiene capacidades o un impacto equivalente”, tomando en consideración los criterios del anexo XIII (aunque por sí solo no es un elemento determinante, el anexo XIII prevé que se dará por supuesto que las repercusiones del modelo debido a su alcance son importantes para el mercado interior cuando se haya puesto a disposición de al menos 10.000 usuarios profesionales registrados establecidos en la Unión). Por su parte, el artículo 52 regula cuestiones de procedimiento en relación con la clasificación de un modelo de IA general como de riesgo sistémico, incluidas las relativas a la posibilidad de que el proveedor desvirtúe la presunción del artículo 51.2, demostrando que pese a superar ese umbral, excepcionalmente, no presenta riesgos sistémicos, debido a sus características específicas.

            Las obligaciones adicionales de los de los proveedores de modelos de IA de uso general con riesgo sistémico aparecen detalladas en el artículo 55 RIA. Básicamente, van referidas a la evaluación de los modelos de conformidad con protocolos y herramientas normalizados; la evaluación y mitigación de los posibles riesgos sistémicos a escala de la Unión de su desarrollo, introducción en el mercado o utilización; la vigilancia y comunicación a la Oficina Europea de Inteligencia Artificial y las autoridades nacionales competentes de información sobre incidentes graves y medidas correctoras para resolverlos; así como la protección de la ciberseguridad para el modelo de IA en cuestión y su infraestructura física.

V. Elementos adicionales

              El RIA incorpora en su Capítulo VI ciertas medidas destinadas a fomentar la innovación, entre las que se contempla la introducción por los Estados miembros de espacios controlados de pruebas para la IA, que se definen como un marco establecido por una autoridad que ofrece a los proveedores de sistemas de IA la posibilidad de desarrollar, entrenar, validar y probar un sistema de IA innovador, con arreglo a un plan del espacio controlado de pruebas y durante un tiempo limitado, bajo supervisión regulatoria (art. 3.55 RIA). Su establecimiento y funcionamiento son objeto de regulación en los artículos 57 a 59, con el propósito de facilitar su implantación con garantías. Además, se regula de forma específica la posibilidad en determinados supuestos de realizar pruebas de sistemas de IA de alto riesgo en condiciones reales fuera de los espacios controlados de pruebas para la IA (arts. 60 y 61). Además, se incluyen ciertas reglas y excepciones para tratar de favorecer la posición de las pymes y las microempresas (arts. 62 y 63).

Los Capítulos VII, VIII y IX del RIA se encuentran dedicados a los mecanismos de gobernanza y de aplicación del Reglamento. Respecto de la gobernanza, la Oficina Europea de Inteligencia Artificial (Oficina de IA), a través de la que la Comisión “desarrollará los conocimientos especializados y las capacidades de la Unión en el ámbito de la IA” (art. 64). La “Oficina de IA” se define en el art. 3.47 como “la función de la Comisión consistente en contribuir a la implantación, el seguimiento y la supervisión de los sistemas de IA y modelos de IA de uso general, y a la gobernanza de la IA”, precisando que las referencias hechas a la Oficina de IA se entenderán hechas a la Comisión. La Oficina de IA tiene atribuidas importantes funciones de supervisión en especial con respecto a las obligaciones de los de los proveedores de modelos de IA de uso general. Además, destaca la creación del Consejo Europeo de Inteligencia Artificial. Se trata de un órgano compuesto por representantes de los Estados miembros, con participación también del Supervisor Europeo de Protección de Datos y de la Oficina de IA (art. 65). El Consejo se concibe como una pieza clave para la coordinación de las autoridades nacionales de control. El artículo 66 detalla sus funciones de asesoramiento y asistencia a la Comisión y a los Estados miembros para facilitar la aplicación coherente del RIA.

Se prevé la designación por todos los Estados miembros de autoridades nacionales competentes para supervisar la aplicación del Reglamento. Para facilitar la actividad de control por parte de la Comisión y de las autoridades nacionales el Capítulo VIII (art. 71) contempla la creación de una base de datos específica en relación con sistemas independientes (no integrados en productos) de IA de alto riesgo (es decir, los contemplados en su anexo III de conformidad con el art. 6.2), que gestionará la Comisión con la información facilitada por los proveedores de esos sistemas a los que se exige registrarlos antes de introducirlos en el mercado o ponerlos en servicio (arts. 49 y 71).

El Capítulo IX regula las obligaciones de control e información de los proveedores de sistemas de IA tras su comercialización, en particular con respecto a incidentes y fallos de funcionamiento, así como el control de las autoridades, con una remisión a las competencias atribuidas por el Reglamento 2019/1020 relativo a la vigilancia del mercado y la conformidad de los productos y los procedimientos aplicables con respecto a los sistemas de IA que presentan un riesgo, sin perjuicio de ciertas previsiones específicas, entre otras, con respecto a los sistemas de IA de alto riesgo introducidos en el mercado, puestos en servicio o utilizados por entidades financieras, así como los sistemas de IA conformes que presenten un riesgo (arts. 74, 79 y 82 RIA). También se incluyen previsiones específicas con respecto a los modelos de uso general, su supervisión por parte de la Oficina de IA y la asistencia mutua con las autoridades de vigilancia del mercado pertinentes. En particular, cuando un sistema de IA se base en un modelo de IA de uso general y un mismo proveedor desarrolle tanto el modelo como el sistema, se faculta a la Oficina de IA para vigilar y supervisar el cumplimiento por dicho sistema de las obligaciones del RIA (art. 75.1).

El artículo 83 RIA prevé que cuando la autoridad de vigilancia del mercado de un Estado miembro constate un incumplimiento, exigirá al proveedor correspondiente que lo subsane dentro de un plazo. Los incumplimientos en cuestión son los relativos a la colocación del marcado CE (art. 48); la declaración UE de conformidad (art. 47); el registro en la base de datos de la UE (art. 71); la no designación, cuando proceda, de un representante autorizado; la ausencia de documentación técnica. En caso de que el incumplimiento persista, se prevé la adopción por la autoridad de vigilancia del mercado en cuestión de “medidas adecuadas y proporcionadas para restringir o prohibir la comercialización del sistema de IA de alto riesgo o para asegurarse de que se recupera o retira del mercado sin demora” (art. 83.2).

Como complemento de las previsiones contenidas en la Propuesta inicial de la Comisión, durante el procedimiento legislativo se incorporaron en el Capítulo IX previsiones adicionales en relación con las vías de recurso específicas derivadas del RIA para reforzar la posición de las personas afectadas. En concreto, el artículo 85 contempla el derecho de toda persona física o jurídica que tenga motivos para considerar que se ha infringido a presentar una reclamación ante una autoridad de vigilancia del mercado, “sin perjuicio de otras vías administrativas o judiciales de recurso”. Por su parte, el artículo 86 atribuye a toda persona que se vea afectada por una decisión que el responsable del despliegue adopte basándose en los resultados de salida de un sistema de IA de alto riesgo que figure en el anexo III, el derecho a obtener del responsable del despliegue “explicaciones claras y significativas acerca del papel que el sistema de IA ha tenido en el proceso de toma de decisiones y los principales elementos de la decisión”, salvo en ciertos supuestos excepcionales. A diferencia del RGPD, el RIA no incluye disposición alguna sobre el derecho a indemnización en situaciones en las que el sistema de IA infrinja lo previsto en el Reglamento. Sin perjuicio de que las disposiciones al respecto del RGPD serán relevantes también en relación con el uso de sistemas de IA cuando se produzca una infracción del RGPD, debe tenerse en cuenta que está previsto que el RIA se vea complementado por la Directiva relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA) y la nueva Directiva sobre responsabilidad por los daños causados por productos defectuosos.

Con respecto a los sistemas de IA cuyo riesgo está por debajo del nivel alto reviste importancia el Capítulo X, que establece un marco para la adopción de códigos de conducta con la idea de que esta vía voluntaria pueda facilitar la asunción por lo prestadores de sistemas de IA de ese tipo de compromisos de cumplir con requisitos que el Capítulo III impone para los sistemas de IA de riesgo alto (art. 95). También el Capítulo X contempla la elaboración por la Comisión de directrices sobre la aplicación práctica del RIA, con una relación meramente indicativa de las cuestiones que pueden ser abordadas, que incluyen aspectos del régimen sustantivo del Reglamento de especial relevancia, como la definición de sistema de IA, requisitos y obligaciones relativos a los sistemas de IA de alto riesgo, las prácticas prohibidas en el artículo 5, las obligaciones de transparencia establecidas en el artículo 50, la interacción entre el RIA y otras disposiciones del Derecho de la UE incluidas las enumeradas en el Anexo I del RIA. También de singular relevancia práctica en la aplicación del RIA es la delegación de poderes y la adopción de actos delegados por la Comisión, objeto del Capítulo XI (arts. 97 y 98).

El Capítulo XII RIA está dedicado a regular las posibles sanciones. Conforme al artículo 99, el establecimiento de las sanciones -efectivas, proporcionadas y disuasorias- y otras medidas de ejecución frente a las infracciones del Reglamento corresponde a los Estados, respetando las condiciones previstas en el mismo. Entre tales condicionantes, se prevé que la infracción de la prohibición de las prácticas de IA establecidas en el artículo 5 puede ser objeto de multas de hasta 35.000.000 de euros o, si el infractor es una empresa, de hasta el 7 % de su volumen de negocios mundial total en ejercicio financiero anterior. Además, se incluyen precisiones sobre los umbrales de las multas respecto de ciertas infracciones de obligaciones establecidas en los Capítulos III y IV, así como acerca de las circunstancias a tomar en cuenta al decidir la cuantía de las multas. Objeto de atención específica son las multas a proveedores de modelos de IA de uso general, cuya imposición compete a la Comisión. En concreto, se contempla que podrá imponerles multas que no superen el 3 % de su volumen de negocios mundial total anual correspondiente al ejercicio financiero anterior o de 15.000.000 de euros si esta cifra es superior (art. 101 RIA).