lunes, 26 de abril de 2021

Propuesta de Reglamento sobre inteligencia artificial

 

El miércoles pasado la Comisión Europea presentó un conjunto de medidas en el ámbito de la inteligencia artificial. Desde la perspectiva regulatoria, destaca su Propuesta de Reglamento en la materia: Proposal for a Regulation laying downharmonised rules on artificial intelligence (Artificial Intelligence Act) andamending certain Union legislative acts (todavía no disponible en español). Esta breve reseña de la prolija Propuesta, junto a una síntesis de sus fundamentos y contenido tal como han sido presentados por la propia Comisión, pretende aportar una primera reflexión acerca del ámbito de aplicación del nuevo instrumento, su interacción con otras disposiciones del Derecho de la Unión, los peculiares mecanismos previstos para su aplicación y ejecución, así como ciertas cuestiones en la materia que quedan al margen de la Propuesta.


I. Fundamentos

El marco normativo propuesto, según la Comisión, pretende tanto garantizar la tutela de los derechos fundamentales de las personas situadas en la Unión frente a las amenazas y riesgos ligados al desarrollo de herramientas de inteligencia artificial (IA), como reforzar la innovación en el seno de la UE en materia de IA. Se presenta además por la Comisión como “el primer marco jurídico sobre la IA de la historia” y como una de las medidas “destinada a convertir a Europa en el centro mundial de una IA digna de confianza”. En gran medida la Propuesta se construye sobre el modelo de la legislación preexistente relativa a la seguridad de los productos. Es cierto que a partir del conocido “efecto Bruselas” la normativa proyectada y los estándares que contempla cabe prever que tengan una significativa influencia y repercusión en otras zonas del mundo, en la línea paradigmática del Reglamento 2016/679 general de protección de datos (RGPD). Cuestión distinta –y menos estudiada- es si ese liderazgo normativo y en el establecimiento de estándares internacionales no impedirá tampoco en esta ocasión -tal vez por los costes inherentes a algunas de sus exigencias y las carencias en su aplicación efectiva a operadores de terceros Estados- que el liderazgo empresarial en el desarrollo  y  explotación de estas herramientas y en la prestación de los servicios relacionados se localice, por el contrario, en otras regiones del mundo.

La Propuesta de Reglamento contempla el establecimiento de un marco regulatorio horizontal –no limitado a sectores concretos-, basado en dar una respuesta proporcional al riesgo generado por los sistemas de IA, de modo que se limita a regular aquellos que generan elevados riesgos, sin establecer normas vinculantes para el resto, respecto de los que trata de favorecer las adopción de códigos de conducta. El enfoque horizontal determina que este instrumento esté llamado a proyectarse sobre el conjunto de sectores en los que se utilicen los sistemas de inteligencia artificial, desplazando o condicionando la incipiente normativa sectorial, por ejemplo, en el ámbito de las relaciones laborales.

El enfoque horizontal de la Propuesta se refuerza con una definición amplia de sistema de IA con el propósito de asegurar la neutralidad tecnológica y la adaptación del marco normativo a la continua evolución en este ámbito. De hecho, la Propuesta se basa en un concepto de sistema de IA dinámico, pues abarca cualquier programa de ordenador desarrollado con una o más de las técnicas y enfoques enumerados en su Anexo I y que respecto de un conjunto dado de “human-defined objectives” genera resultados como contenido, predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúa (art. 3.1). Reflejo del carácter abierto y dinámico de la definición de sistemas de IA es que se atribuye a la Comisión la posibilidad de modificar la relación de técnicas y enfoques enumerados en el Anexo I (“machine learning approaches”, “Logic- and knowledge-based approaches”, “Statistical approaches”…) mediante la adopción de actos delegados que actualicen esa lista en atención a la evolución de la tecnología y del mercado (art. 4).

II. Contenido

               El contenido y objeto de la Propuesta de Reglamento aparecen sintetizados en su artículo 1. En concreto, el nuevo instrumento establece reglas armonizadas relativas a la introducción en el mercado, la puesta en servicio y el uso de sistemas de IA en la Unión Europea; la prohibición de un reducido conjunto de usos de la IA que se considera que generan riesgos inadmisibles; requisitos específicos para los sistemas de IA de alto riesgo así como obligaciones a los proveedores de tales sistemas; obligaciones específicas de transparencia respecto de ciertos sistemas de IA que generan un riesgo limitado; y normas para garantizar su cumplimiento.

               La estructura de la Propuesta de Reglamento está condicionada por la clasificación de riesgos en que se funda: inadmisible; alto; limitado y mínimo. El Título II (art. 5) está dedicado a la prohibición de sistemas de IA que se considera que generan riesgos inadmisibles por contravenir los valores de la Unión, en particular al facilitar la vulneración de derechos fundamentales. Comprende, entre otros, el empleo de técnicas subliminales que pueden conducir a la manipulación de personas generando el riesgo de causar daños físicos o psicológicos a la persona en cuestión o terceros; los sistemas que pretenden aprovecharse de la especial vulnerabilidad de determinados grupos de personas; ciertos sistemas de puntuación social por parte de autoridades públicas; y determinaos sistemas de identificación biométrica remota en directo en espacios públicos con fines policiales. La prohibición va referida a la introducción en el mercado, la puesta en servicio y el uso de los sistemas de IA en cuestión en el conjunto de la Unión.

               Los sistemas de riesgo alto son objeto de regulación en el Título III de la Propuesta, que constituye su componente principal, pues abarca los artículos  6 a 51 y sus correspondientes anexos. La calificación como de alto riesgo se lleva a cabo en función de su potencial lesivo en la seguridad de las personas o respecto de sus derechos fundamentales, teniendo en cuenta no solo la función que el sistema de IA desempeña sino también las finalidades concretas para las que se contempla su uso. De este modo, los sistemas de IA destinados a ser utilizados en la gestión de infraestructuras críticas, como el tráfico por carretera, el suministro de agua o electricidad son clasificados como de alto riesgo; al igual que los utilizados en el ámbito educativo para la calificación de las personas en la medida en que pueden afectar a su desarrollo académico y profesional; así como los empleados en el ámbito de las relaciones laborales, tanto para tomar decisiones acerca de la contratación de trabajadores como para decidir sobre su promoción; los utilizados en relación con el acceso o disfrute por las personas de ciertos beneficios o servicios públicos o privados esenciales, como la evaluación en relación con el ofrecimiento de servicios de crédito o prestaciones sociales; los empleados para la gestión de las migraciones, asilo y control de fronteras; y los utilizados en la administración de justicia para asistir a las autoridades judiciales en la investigación e interpretación de hechos y de normas y en la aplicación de éstas a hechos concretos. También los sistemas de identificación biométrica remota no prohibidos se consideran de riesgo alto y están sometidos a requisitos estrictos.

Esta categoría de riesgo alto está integrada por dos grupos de sistemas de IA: los componentes de seguridad de los productos que conforme a la legislación sectorial de la UE enumerada en el Anexo II de la Propuesta están sometidos a una evaluación de conformidad por terceros –maquinaria, juguetes, equipos de protección, dispositivos médicos…-; y los sistemas enumerados en el Anexo III de la Propuesta, que puede ser modificado por la Comisión mediante la adopción de actos delegados.

Los sistemas de alto riesgo están permitidos en la Unión, pero sometidos al cumplimiento de ciertos requisitos y una evaluación de conformidad con carácter previo a su introducción en el mercado, puesta en servicio y uso. Los requisitos exigidos van referidos al establecimiento de un sistema de gestión de riesgos (art. 9); la calidad de los conjuntos de datos empleados (art. 10); la documentación y registro (arts. 11 y 12); la transparencia y la divulgación de información a los usuarios (art. 13); la supervisión humana (art. 14); y la solidez, la precisión y ciberseguridad (art. 15). Se considera que tales obligaciones se corresponden en lo esencial con el estándar resultante de las recomendaciones en la materia y aplicado ya por muchos prestadores diligentes. Estrechamente ligadas al cumplimiento de los requisitos reseñados, se encuentran las obligaciones de carácter horizontal que la Propuesta impone a los proveedores de esta categoría de sistemas (y sus representantes autorizados en situaciones en que el proveedor está establecido en un Estado tercero), los fabricantes de productos comprendidos en la relación del Anexo II. A, los importadores y los distribuidores (arts. 16 a 28). También se imponen obligaciones específicas a los usuarios de sistemas de IA de alto riesgo (art. 29), con algunas especificidades respecto a las entidades de crédito y el cumplimiento de la normativa sobre protección de datos personales. En todo caso, debe destacarse que, conforme al artículo 3.4 de la Propuesta quien utilizan un sistema de IA en el marco de una actividad personal y no profesional no tiene la consideración de usuario a los efectos del Reglamento, de modo que éste no le resulta de aplicación en tales casos. Por su parte, los artículos 30 a 39 se dedican básicamente a establecer el marco relativo a la participación de los organismos implicados en los procedimientos de evaluación de conformidad. Por último, los artículos 40 a 51 detallan los procedimientos de evaluación de conformidad de los sistemas de IA que deben seguirse.

La tercera categoría de sistemas de IA, los de riesgo limitado, están regulados en el Título IV de la Propuesta (art. 52), y comprende básicamente ciertos sistemas que interactúan con personas, se emplean para detectar emociones o realizar asociaciones mediante categorías basadas en datos biométricos (como es característico de los robots conversacionales), o que son susceptibles de generar o manipular contenido, como en el caso de los llamados “deep fakes”, si bien en este caso se prevé que la libertad de expresión puede justificar que el régimen previsto no resulte de aplicación. Con respecto a estos sistemas de riesgo limitado, básicamente la Propuesta impone ciertos requisitos de transparencia a los proveedores de sistemas de IA y a sus usuarios acerca de la utilización de sistemas de IA para evitar manipulaciones.

Los sistemas de IA que no se hallan comprendidos en ninguna de las tres categorías anteriores, se consideran de riesgo mínimo o nulo, que son la mayoría, de modo que no son objeto de regulación por la Propuesta.

La Propuesta incorpora en su Título V ciertas medidas destinadas a fomentar la innovación, entre las que se contempla el establecimiento por los Estados miembros de espacios controlados para el desarrollo, prueba y aceptación de sistemas de IA innovadores (en concreto, los artículos 53 a 55 se ocupan de los “IA regulatory sandboxes”, facilitando la implantación en este ámbito de esa figura previamente utilizada en el ámbito de la innovación en los mercados financieros). Los Títulos VI, VII y VIII se encuentran dedicados a los mecanismos de gobernanza y de aplicación del Reglamento. Respecto de la gobernanza tiene especial relevancia la creación del European Artificial Intelligence Board o Comité Europeo de Inteligencia Artificial, compuesto por representantes de los Estados miembros, de la Comisión y el Supervisor Europeo de Protección de Daros. El Comité será una pieza clave para la coordinación de las autoridades nacionales de control. Ciertamente, se prevé la designación por todos los Estados miembros de autoridades de control para supervisar la aplicación del Reglamento. Para facilitar la actividad de control por parte de la Comisión y de las autoridades nacionales el Título VII contempla la creación de una base de datos específica en relación con sistemas independientes (no integrados en productos) de IA de alto riesgo, que gestionará la Comisión con la información facilitada por los prestadores de esos sistemas a los que se exige registrarlos antes de introducirlos en el mercado o ponerlos en servicio. El Título VIII regula las obligaciones de control e información de los proveedores de sistemas de IA tras su comercialización, en particular con respecto a incidentes y fallos de funcionamiento, así como el control de las autoridades, con una remisión a las competencias atribuidas por el Reglamento 2019/1020 relativo a la vigilancia del mercado y la conformidad de los productos.

               Con respecto a los sistemas de IA cuyo riesgo está por debajo del nivel alto reviste importancia el Título IX, que establece un marco para la adopción de códigos de conducta con la idea de que esta vía voluntaria pueda facilitar la asunción por lo prestadores de sistemas de IA de ese tipo de compromisos de cumplir con requisitos que el Título III de la Propuesta de Reglamento prevé para los sistemas de IA de riesgo alto.

III. Ámbito de aplicación

               El artículo 2 de la Propuesta regula en su primer apartado el ámbito de aplicación territorial. En concreto, contempla la aplicación del Reglamento a: a) los prestadores que introducen en el mercado o ponen en servicio sistemas de AI en la Unión, con independencia de si están establecidos en la Unión o en un tercer país; b) los usuarios de sistemas de IA situados en la Unión; c) los prestadores y usuarios de sistemas de IA que están situados en un tercer país cuando el resultado producido por el sistema se utiliza en la Unión.

               De esas tres situaciones la tercera parece reclamar especial atención. Su justificación, según el considerando 11, se encontraría en las peculiares dificultades inherentes a las situaciones en las que desde terceros Estados se prestan servicios digitales basados en sistemas de IA. El considerando 11 destaca que en tales situaciones está justificado que el Reglamento pueda resultar de aplicación respecto de sistemas de IA que no son introducidos en el mercado, puestos en servicio ni siquiera utilizados en la Unión. Para hacer frente a esas situaciones se introduce el criterio de que el Reglamento será siempre de aplicación cuando el resultado producido se utiliza en la Unión. Se trata de un enfoque razonable pero cuya concreción no está exenta de dificultades.

Hacer depender la aplicación del Reglamento en su conjunto de que el usuario decida emplear el resultado producido en la Unión parece apropiado en relación con la posición –y obligaciones- del usuario, pero puede resultar cuestionable con respecto a la posición del proveedor del sistema de IA, cuando esa circunstancia le resulta no solo desconocida sino imprevisible. El criterio de que el proveedor (en línea) de un sistema de IA controla dónde va a ser utilizado por el usuario del mismo el resultado producido por el sistema no parece corresponderse con la realidad.

Lo anterior no impide constatar que cuando quepa apreciar que el prestador en cuestión ofrece sus servicios para ser utilizados en la Unión (en la línea de lo previsto en el art. 3.2.a RGPD) ciertamente el sometimiento al Reglamento en su conjunto estará plenamente justificado. Si ese es el caso, en realidad cabría entender que cuando el sistema de IA se ofrece digitalmente para su empleo en la Unión se trata de situaciones en las que la posición del prestador de servicio debería ser equiparada a la de quienes introducen en el mercado o ponen en servicio tales sistemas en la Unión.

Por el contrario, las situaciones en las que el prestador de servicios digitales que hace posible la utilización del sistema de IA no ofrece esos servicios en la UE pese a lo cual usuarios –cabe entender que de manera aislada- utilizan esos servicios y los resultados generados por su sistema de AI en la UE, parece que deberían recibir una respuesta parcialmente diferente. Al margen del sometimiento al Reglamento del usuario que emplea los resultados en la Unión, puede resultar excesivo considerar que el Reglamento en su conjunto es de aplicación al proveedor del sistema de IA cuando el uso de sus resultados en la Unión fuera imprevisible para él. Lo anterior no impide apreciar que respecto de ese prestador podría estar justificado que se adoptaran medidas, por ejemplo para bloquear el acceso desde la Unión a sus servicios. Medidas de este tipo respecto de prestadores establecidos en Estados terceros resultan especialmente apropiadas para la eficaz protección en la Unión de los derechos que la nueva legislación trata de salvaguardar.

IV. Interacción con otros instrumentos

               Al valorar el contenido de la Propuesta y su impacto sobre el régimen jurídico de la inteligencia artificial es esencial tener en cuenta que responde al enfoque adelantado por la Comisión en su Libro Blanco sobre esta materia, en el sentido de que, sin perjuicio de lo dispuesto en el nuevo instrumento, con respecto a la inteligencia artificial resulta aplicable el acervo comunitario relevante, muy especialmente el RGPD, y el resto de las disposiciones aplicables de nuestro ordenamiento. A modo de ejemplo, la caracterización de sistemas de IA que hacen posible generar “deep fakes” como de riesgo limitado y la eventual aplicación de las normas relevantes de la Propuesta sobre transparencia no excluyen la eventual aplicación a esas actividades de otras normas de nuestro ordenamiento, como por ejemplo, cuando proceda, las de la LO 1/1982 de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen.

En particular, un conjunto de normas muy relevantes del ordenamiento de la Unión actualmente en vigor resultan típicamente de aplicación en relación con el desarrollo de herramientas de inteligencia artificial, como es el caso de la normativa reguladora de ciertos derechos fundamentales, especialmente a la protección de datos personales y a la no discriminación, la legislación sobre protección de los consumidores, los instrumentos sobre seguridad de productos y servicios, la legislación de la Unión en materia de responsabilidad por productos, así como la normativa sectorial en ámbitos como la salud o el transporte. Además, resulta razonable que la regulación del empleo de herramientas de inteligencia artificial incorporadas en productos debe tener lugar básicamente en el marco de la normativa preexistente sobre seguridad de los productos, lo que tiene reflejo en el artículo 2.2 de la Propuesta de Reglamento. Además, cabe recordar que la estrategia digital de la UE se funda en el criterio de que para evitar discriminaciones las actividades en línea no se encuentran en principio al margen del sometimiento a las normas que se aplican al entorno “offline”, lo que tiene especial trascendencia en relación con ciertos sectores que no son objeto de la Propuesta de Reglamento pero sí se proyectan sobre la utilización de herramientas de inteligencia artificial, como sucede con la legislación sobre prácticas restrictivas de la competencia o propiedad industrial e intelectual.

Por consiguiente, la Propuesta de Reglamento se funda en el criterio de limitar la intervención a los supuestos en los que estas nuevas tecnologías suscitan riesgos no resueltos de manera adecuada por el acervo actualmente existente. A modo de ejemplo, con respecto a la prohibición en el artículo 5 de la Propuesta de ciertas técnicas subliminales que pueden conducir a la manipulación de personas generando el riesgo de causar daños físicos o psicológicos a la persona en cuestión o terceros, resulta ilustrativo que en la explicación de esa disposición de la Propuesta se señale expresamente que otras prácticas de manipulación que pueden verse facilitadas por sistemas de IA pueden quedar cubiertas por las normas vigentes en materia de protección de datos personales, protección de consumidores o servicios digitales. Ciertamente, normas como el artículo 22 RGPD o algunas de las contenidas en la Directiva (UE) 2019/2161 relativa a la mejora de la aplicación y la modernización de las normas de protección de los consumidores de la Unión serán relevantes a esos efectos. Esa interacción también será intensa con algunos de los otros instrumentos actualmente en fase de elaboración, como las Propuestas de Reglamentos relativas a la Ley de Servicios Digitales y a la Ley de Mercados Digitales. Por su parte, el artículo 2.5 de la nueva Propuesta establece que el nuevo Reglamento no afecta a la aplicación de las reglas sobre limitación de responsabilidad de los prestadores de servicios de la sociedad de la información intermediarios, de modo que en el futuro habrá de estarse a lo dispuesto en la Ley de Servicios Digitales cuando reemplace a la Directiva 2000/31 sobre el comercio electrónico.

V. Cumplimiento y ejecución

               La Propuesta de Reglamento contempla la introducción de un nuevo entramado jurídico público tendente a asegurar el cumplimiento y la efectividad de la nueva normativa, que incluye la creación de un Comité Europeo de Inteligencia Artificial y la designación de autoridades nacionales de supervisión, a las que se atribuyen, entre otras funciones de vigilancia del mercado. Aunque algunos elementos presentan similitudes con el entramado establecido en el RGPD, como el establecimiento de un Comité Europeo o la obligación de notificación de incidentes graves o disfunciones que supongan una violación del Derecho de la UE (art. 62), se trata de un modelo mucho menos elaborado, en gran medida como consecuencia de la remisión que lleva a cabo al régimen del Reglamento (UE) 2019/1020 relativo a la vigilancia del mercado y la conformidad de los productos. Además, en ámbitos concretos, en particular cuando el empleo de los sistemas de IA tiene lugar por instituciones financieras, la supervisión no se atribuye a la autoridad nacional en materia de IA sino a la autoridad de supervisión en el ámbito financiero (art. 63.4).

La imposición de sanciones administrativas y la cuantía de las mismas son objeto de regulación en el artículo 71. Ahora bien, en la Propuesta de Reglamento presenta singular interés la eventual adopción de medidas para la retirada de productos infractores del mercado y la prohibición o restricción de la puesta a disposición de un sistema de IA (especialmente, arts. 65 a 67).

VI. Otras cuestiones

               A diferencia del RGPD, la Propuesta de Reglamento no incluye disposición alguna sobre el derecho a indemnización en situaciones en las que el sistema de IA infrinja lo previsto en el Reglamento. Sin perjuicio de que las disposiciones al respecto del RGPD serán relevantes también en relación con el uso de sistemas de IA cuando se produzca una infracción del RGPD, la ausencia de cualquier previsión al respecto en la nueva Propuesta de Reglamento se corresponde con la opción de la Comisión de dejar al margen de esta iniciativa las cuestiones en el ámbito de la responsabilidad civil relevantes en relación con los sistemas de IA.

               Ello pese a que la Comisión ha puesto de relieve en reiteradas ocasiones que ciertas características de la IA pueden menoscabar la eficacia de la normativa actual en materia de responsabilidad civil. En concreto, la eficacia tanto de la Directiva sobre responsabilidad por los daños causados por productos defectuosos –por ejemplo, con respecto a la delimitación del concepto de “producto” respecto de ciertos sistemas de IA-, como las de los regímenes nacionales complementarios no armonizados, en cuestiones como la determinación de la relación causal entre una conducta humana y los daños sufridos o la relevancia e interpretación del concepto de culpa en este entorno (Comisión Europea, “Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica”, COM(2020) 64 final, pp. 14-17). En todo caso, la presentación de la Propuesta de Reglamento ha ido unida al anuncio de la intención de la Comisión de revisar la Directiva sobre responsabilidad por los daños causados por productos defectuosos para adaptarla a las exigencias de las nuevas tecnologías, incluida la IA (Comisión Europea, “Fostering a European approach to Artificial Intelligence” COM(2021) 205 final, p. 2).