lunes, 11 de diciembre de 2017

Plataformas en línea: principios y directrices de la Comisión sobre contenidos ilícitos

             Tenía pendiente referirme a la Comunicación publicada hace varias semanas por la Comisión Europea en la que proporciona principios y directrices a las plataformas en línea para que intensifiquen su lucha contra los contenidos ilícitos, COM(2017) 555 final. Se trata de un interesante documento que refleja las insuficiencias del Derecho de la Unión en este ámbito. La nueva Comunicación proporciona pautas de actuación a los operadores de dichas plataformas que habrán de prestar especial atención a estas directrices. No obstante, el enfoque adoptado en algún aspecto clave parece presentar carencias, incluso desde la perspectiva de la situación actual del Derecho europeo, en relación con el objetivo pretendido según el propio título del documento, encaminado a la exigencia de una mayor responsabilidad (“enhanced responsibility”, en la versión en inglés, “responsabilité accrue”, en la versión francesa) de las plataformas en línea. Me limitaré en esta reseña a hacer algunas referencias al contenido básico de este documento, su potencial significado y algunas carencias de su enfoque.


Como inciso previo cabe dejar constancia de que, a diferencia de lo que es propio de los documentos de la Unión, su traducción en español presenta deficiencias relevantes, aunque puntuales. A modo de ejemplo, el uso en el título de la expresión “mayor responsabilidad” habría resultado más acertado que “mayor responsabilización”. Asimismo, al fijar el alcance de la Comunicación es reseñable que se limita a los contenidos ilícitos, como categoría contrapuesta a otros contenidos que pueden resultar nocivos o perjudiciales pero no ilícitos (sin perjuicio de que en ocasiones el ofrecimiento de algunos de estos contenidos a determinadas personas –típicamente, menores- o en determinada forma puedan dar lugar a algún ilícito). Esa contraposición entre contenidos ilícitos y contenidos potencialmente perjudiciales es clara en la versión francesa e inglesa, en un párrafo en el que la versión española con gran confusión dice: “No cabe duda de que los contenidos despiertan inquietudes de interés público, no solo porque sean ilícitos, sino por el daño que puedan causar, como sería el caso de las noticias falsas o de contenidos perjudiciales para los menores”.

Pasando ya al fondo del documento, destaca precisamente su carácter horizontal, en el sentido de que pretende abarcar todas la categorías de contenidos ilícitos, desde los vinculados con el terrorismo, la incitación al odio, la pornografía infantil… hasta los que implican el menoscabo de derechos de la personalidad, la vulneración de derechos de propiedad intelectual o la realización de prácticas comerciales desleales. Este enfoque se corresponde con el adoptado por el Derecho de la UE al establecer normas sobre limitación de responsabilidad de los prestadores de servicios de la sociedad de la información intermediarios en la Directiva 2000/31/CE sobre el comercio electrónico (en adelante, DCE). Típicamente, las diversas plataformas en línea son proveedores de servicios de alojamiento (en el sentido del art. 14 DCE) o proveedores de motores de búsqueda y  enlaces (asimilados a los anteriores en su tratamiento por la legislación española de transposición, conforme al artículo 17 de la Ley 34/2002 o LSSICE). La heterogeneidad de los contenidos ilícitos se vincula con la necesidad de diferenciar a la hora de establecer la eventual responsabilidad de las plataformas en línea según los tipos de contenidos, por ejemplo, en atención a la mayor o menor claridad del carácter ilícito de los contenidos. La Comunicación no aporta precisiones adicionales sobre la determinación de qué contenidos son ilícitos, lo que ha de establecerse en función de la legislación aplicable. También el concepto de plataforma en línea es deliberadamente muy amplio, destacándose que, entre otros, incluye motores de búsqueda, redes sociales, páginas de microblogs o plataformas de distribución de vídeos, de modo que comprende una multitud de proveedores que no solo prestan servicios diversos –que implican el alojamiento de contenidos, en el que se centra la Comunicación- sino que lo hacen a través de modelos heterogéneos, lo que debe ser valorado al apreciar su eventual responsabilidad y las medidas que les son exigibles.

Tras dar breve cuenta de ciertas iniciativas previas por parte de la Unión en este ámbito y de que el marco jurídico general en relación con la supresión de todo tipo de contenidos ilícitos es el establecido en los artículos 14 y 15 DCE, la Comunicación se centra en proporcionar directrices con pautas de actuación para las plataformas. En primer lugar, dichas pautas de actuación van referidas a la detección rápida de contenidos ilícitos. Cabe agrupar en tres –modificando ligeramente la división propuesta en la Comunicación- las vías a través de las cuales las plataformas pueden tener conocimiento de la presencia de contenidos ilícitos en sus servicios: i) mandamientos judiciales, decisiones administrativas y comunicaciones de otras autoridades competentes; ii) comunicaciones de organismos especializados (alertadores fiables o trusted flaggers), de titulares de derechos de propiedad intelectual o de meros usuarios, y iii) a través de la investigación de las propias plataformas.

Con respecto a la primera de esas vías, la Comunicación establece que las plataformas deben cooperar estrechamente con las fuerzas de seguridad y las autoridades competentes, velando especialmente porque éstas puedan ponerse en contacto rápidamente con ellas en relación con las solicitudes de retirada de contenidos ilícitos, al tiempo que recoge la necesidad de que las plataformas alerten en caso de detectar actividades delictivas. Para ello prevé que deben designar puntos de contacto eficaces en la Unión y desarrollar interfaces técnicas que faciliten la interacción y cooperación con las fuerzas de seguridad y las autoridades competentes.

En lo relativo a las comunicaciones de los llamados alertadores fiables y de los usuarios, las principales actuaciones por parte de las plataformas que contempla el documento son las siguientes. La Comisión destaca la importancia de que las plataformas proporcionen un canal fluido a través del cual los alertadores fiables puedan llevar a cabo sus notificaciones relativas a la presencia de contenidos ilícitos, que deben ser evaluadas por la plataforma de manera acelerada, de cara a decidir sobre su eventual eliminación. En todo caso, aspectos como la delimitación de quiénes pueden ser considerados alertadores fiables, la eventual fijación de requisitos de calidad en sus notificaciones u otros criterios comunes son aspectos en los que se incorpora una mera remisión a futuros acuerdos de autorregulación o a su fijación en el marco de la normalización en el seno de la Unión.

Con respecto a las comunicaciones de los usuarios, la Comisión establece que “(l)as plataformas en línea deben establecer un mecanismo fácilmente accesible y de fácil manejo que permita a sus usuarios notificar contenidos albergados por aquellas que consideren ilícitos”, de modo que hagan posible de manera sencilla la notificación por vía electrónica (COM(2017) 555 final, pág 10). Asimismo, precisa que cuando se trata de contenidos accesibles al público, los mecanismos de comunicación de contenidos ilícitos deben estar disponibles para el público en general, sin limitar el acceso a los mismos al registro como usuario del servicio. También proporciona la Comisión directrices sobre pautas de comportamiento de las plataformas para facilitar la calidad de las comunicaciones de terceros relativas a la presencia de contenidos ilícitos en sus servicios, de modo que la plataforma pueda actuar con rápidamente ante la presencia del contenido ilícito.

Estas pautas, recogidas en la página 11 de la Comunicación, contienen indicaciones relativamente precisas acerca de cómo las plataformas han de diseñar dichas vías de comunicación. Así, se incluye el deber de “instaurar mecanismos eficaces que faciliten la presentación de comunicaciones de forma suficientemente precisa y motivada”, posibilitando el envío de “comunicaciones que incluyan una exposición de las razones por las que su autor considera que el contenido es ilícito, así como la localización de los contenidos”. Se detalla que tales mecanismos de comunicación “deben ser visibles, fácilmente accesibles, fáciles de usar y contextuales”, permitiendo comunicar distintos tipos de contenidos y teniendo en cuenta que el nivel de detalle necesario para que las plataformas puedan adoptar medidas informadas sin demora puede variar considerablemente según el tipo de contenido. Para no disuadir las comunicaciones, se prevé que los usuarios que las lleven a cabo no tendrían que estar obligados a identificarse, salvo cuando la información sobre su identidad sea necesaria para determinar la ilicitud, por ejemplo, al invocar la titularidad de derechos eventualmente infringidos. Lo anterior se complementa con la previsión de que quien lleva a cabo una notificación de la presencia de contenidos eventualmente ilícitos debe tener la posibilidad de proporcionar voluntariamente sus datos de contacto, teniendo en tal caso la plataforma que remitirle “un acuse de recibo y un comunicado que informe del curso dado a la notificación”, que pueden servir “como prueba en procedimientos judiciales o extrajudiciales de acuerdo con las normas aplicables a dichos procedimientos”.

Tras la detección y notificación de contenidos ilícitos a partir de la comunicación por terceros, la Comisión se centra en proporcionar pautas con respecto a la adopción por parte de las plataformas de medidas proactivas eficaces para detectar y retirar contenidos ilícitos de sus servicios. Adopta sobre el particular un enfoque susceptible de ser considerado un tanto obsoleto y poco ambicioso, de modo que la Comisión analiza en primer lugar cómo en su opinión la adopción de medidas proactivas de detección y retirada de contenidos ilícitos no implica la pérdida por la plataforma de la exención de responsabilidad establecida en el artículo 14 DCE. Punto de partida correcto –que la Comisión funda en la STJUE de 12 de julio de 2011, C-324/09, L’Oreal-, es que la aplicación de medidas de ese tipo no implica que la plataforma adopte una posición activa con respecto al ofrecimiento de esos contenidos que almacena y que le pueda privar de la exención. Ahora bien, en el estado de evolución de Internet y de los servicios ofrecidos por muchas de esas plataformas cabe sostener que incluso con el actual marco normativo no solo eso es así sino que, en determinadas circunstancias, la adopción de tales medidas proactivas puede resultar una exigencia para que ciertas plataformas se beneficien de la exención de responsabilidad. Se trata de un aspecto que el documento de la Comisión no desarrolla, si bien incluye la afirmación de que “(l)as plataformas en línea deben hacer todo lo posible para, de forma proactiva, detectar, identificar y retirar los contenidos ilícitos en línea” (pág. 15), y sobre el que volveré al final de esta reseña. Con respecto a las medidas proactivas que la Comisión insta a las plataformas a adoptar, el documento hace referencia a las tecnologías de detección automática y filtrado, con mención de la práctica ya existente de recurrir “al uso de algún tipo de algoritmos de emparejamiento basados en diferentes tecnologías, desde el simple filtrado de metadatos a las funciones hash y la huella digital” (pág. 13), así como genéricamente a la conveniencia de que el sector “introduzca de forma efectiva innovaciones que contribuyan a incrementar la eficiencia y eficacia de los procedimientos de detección automáticos” (pág. 14).

Otros dos aspectos son objeto de atención en este documento de la Comisión: la retirada por las plataformas de los contenidos ilícitos y la prevención de la reaparición de tales contenidos, ámbito este último en el que se contempla el deber de las plataformas de adoptar medidas que disuadan la publicación repetida de contenidos ilícitos así como la recomendación de un mayor empleo de tecnologías tendentes a prevenir su reaparición. En relación con el primero de esos aspectos, la retirada de contenidos ilícitos, se incluyen también directrices en materia de transparencia que proporcionan pautas específicas acerca del contenido de las condiciones generales o términos de uso de las plataformas. La retirada con prontitud de los contenidos en cuanto las plataformas tengan conocimiento de su ilicitud es una exigencia para que puedan acogerse a la exención de responsabilidad del artículo 14 DCE (art. 16 LSSI). La Comisión constata que la apreciación de dicha ilicitud y la rapidez exigible en la retirada de contenidos puede variar en función del tipo de los contenidos y de las concretas circunstancias, incluidas las relativas a la vía de conocimiento de la ilicitud. En lo relativo a la posibilidad de recurrir a terceros –como organismos de autorregulación o autoridades- en casos en los que la ilicitud resulte dudosa, se limita a poner de relieve la existencia de prácticas diversas en los Estados miembros. También destaca la Comisión la importancia de que la retirada de contenidos no perjudique la investigación de los delitos, poniendo de relieve el deber de las plataformas de informar a las fuerzas de seguridad.

Las obligaciones de transparencia se traducen en la exigencia de que las plataformas hagan “una exposición clara, comprensible y suficientemente detallada de su política de contenidos en las condiciones de utilización de sus servicios”, que debe reflejar tanto el tratamiento de los contenidos ilícitos como de aquellos no respeten las condiciones de uso de los servicios (pág. 18). Cabe reseñar que esta última categoría es más amplia y que en la práctica de los operadores resulta de utilidad como fuente de flexibilidad, al facilitar que la eventual supresión de ciertos contenidos no se supedite a su ilicitud que puede resultar incierta, si bien es importante que esa flexibilidad no redunde en un menoscabo injustificado de la libertad de expresión e información. Además de sobre las condiciones de uso de sus servicios, las obligaciones en materia de transparencia van referidas también a la publicación de informes periódicos por las plataformas con “información detallada del número y el tipo de notificaciones recibidas y de medidas adoptadas” (pág. 18).

Las pautas relativas a la retirada de contenidos incluyen directrices con garantías contra las retiradas abusivas, particularmente el ofrecimiento por parte de la plataforma a quienes hubieran aportado los contenidos de la posibilidad de oponerse a su retirada mediante un procedimiento de “contranotificación” sencillo en línea. En caso de que en el marco de ese procedimiento se aporten razones que justifiquen que los contenidos notificados no son ilícitos, se restablecerán o se permitirá al usuario que los publique de nuevo, sin perjuicio de las condiciones de uso de la plataforma, que, como ha quedado reseñado antes, pueden contemplar la retirada de ciertas categorías de contenidos aunque no sean ilícitos.

Con respecto al significado y eficacia de estas pautas o directrices, su adopción en el marco de una mera Comunicación de la Comisión implica que en principio no son directamente vinculantes ni van dirigidas a ser incorporadas en las legislaciones de los Estados miembros, en coherencia con la naturaleza de un instrumento de este tipo. La ausencia de desarrollo legislativo transcurridos más de 17 años desde la adopción de las normas sobre limitación de responsabilidad de la DCE es indudablemente una carencia del Derecho de la Unión, en particular si se tiene en cuenta que ya la propia DCE previó en el artículo 21, relativo a su reexamen, “la necesidad de presentar propuestas relativas a la responsabilidad de los proveedores de hipervínculos y servicios de instrumentos de localización, a los procedimientos de «detección y retirada» y a la imputación de responsabilidad tras la retirada del contenido”. Se trataba de una previsión acorde con el limitado contenido de la DCE en contraste ya con el mayor desarrollo sobre este particular de la legislación estadounidense sobre derechos de autor.  Entre sus pautas y directrices la nueva Comunicación de la Comisión formula como deberes de las plataformas ciertas conductas en esos ámbitos, pero parece renunciar, al menos de momento, a establecer un marco normativo con obligaciones específicas mediante un instrumento que dé lugar a normas directamente vinculantes.

Lo anterior no impide apreciar que algunas de las pautas y directrices reseñadas en esta entrada es de prever que resulten de gran relevancia cuando tribunales de los Estados miembros deban determinar la eventual responsabilidad de las plataformas, en particular, para establecer si en un caso concreto se benefician de la limitación de responsabilidad del artículo 14 DCE. Ello es así porque cabe esperar que el incumplimiento de algunas de esas pautas y directrices por parte de una plataforma –u otro prestador de servicios de intermediación semejante- puede ser considerado un elemento relevante a la hora de apreciar que no ha respetado el nivel de diligencia exigible para poder apreciar que no tenía conocimiento efectivo de la presencia del contenido ilícito en sus servicios a los efectos del artículo 14 DCE.


Por otra parte, cabe insistir en que pese a que la Comunicación de la Comisión apenas atribuya relevancia a esta idea, lo cierto es que en el contexto actual –muy distinto al de finales del siglo XX en el que se elaboró la DCE- las características de ciertos servicios de alojamiento prestados por estas plataformas –así como los riesgos que generan los modelos de negocio por los que sus proveedores han optado- pueden ser determinantes para apreciar que existe conocimiento  por parte del intermediario incluso sin notificación previa y exigir la puesta en marcha de mecanismos preventivos o de supervisión, que puedan resultar compatibles con la prohibición general de supervisión contenida en el artículo 15 DCE, como presupuesto para que la plataforma pueda beneficiarse de la limitación de responsabilidad del artículo 14 DCE. Este enfoque se corresponde con las exigencias que derivan de la evolución de Internet, donde la proliferación de servicios que permiten el alojamiento de datos de terceros y la expansión de modelos de negocio que se basan precisamente en la difusión de contenidos alojados (gratuitamente) por los usuarios, exige un análisis de las circunstancias concretas para valorar si el prestador de servicios de alojamiento que invoca su ausencia de conocimiento y su falta de control sobre los contenidos puede beneficiarse de la exención de responsabilidad. Cabe recordar que ya conforme al considerando 48 del Preámbulo de la DCE, ésta “no afecta a la posibilidad de que los Estados miembros exijan a los prestadores de servicios, que proporcionan alojamiento de datos suministrados por destinatarios de su servicio, que apliquen un deber de diligencia, que cabe esperar razonablemente de ellos y que esté especificado en el Derecho nacional, a fin de detectar y prevenir determinados tipos de actividades ilegales”. 

A este respecto tampoco está de más recordar cómo la jurisprudencia del TEDH ha puesto de relieve que en la ponderación entre los derechos fundamentales de los artículos 8 y 10 (libertad de expresión e información) del Convenio Europeo de Derechos Humanos resulta apropiado que la eventual responsabilidad de los prestadores de servicios de la sociedad de la información por contenidos ilícitos introducidos por terceros se vincule con los riesgos que para los derechos de las potenciales víctimas generan los concretos servicios a través de los cuales se introducen esos comentarios, lo que viene determinado básicamente por la configuración y modo de funcionamiento de tales servicios. Esta jurisprudencia del TEDH destaca cómo la expansión de servicios que permiten difundir comentarios de manera anónima es un factor muy relevante de riesgo en atención también al grado de anonimato, que condiciona la eventual dificultad para la exigencia de responsabilidad por parte de las víctimas a los autores de los comentarios lesivos. En consecuencia, cuando son muy elevados los riesgos para los derechos de terceros que el servicio genera, medidas que en otras situaciones podrían ser suficientes –como un filtrado previo automático más un mecanismo de detección y retirada a partir de avisos de los afectados o de usuarios- pueden no bastar para considerar que quien facilita a terceros un cauce para difundir esos contenidos actúa con la diligencia exigible (para beneficiarse de la exención de responsabilidad del artículo 14 DCE) y no incurre él mismo en responsabilidad. Para no hacer más larga esta reseña, me remito a tres entradas que dediqué en su momento a la jurisprudencia del TEDH al respecto: aquí, aquí y aquí.