Tenía
pendiente referirme a la Comunicación publicada hace varias semanas por la
Comisión Europea en la que proporciona principios y directrices a las
plataformas en línea para que intensifiquen su lucha contra los contenidos
ilícitos, COM(2017) 555 final. Se
trata de un interesante documento que refleja las insuficiencias del Derecho de
la Unión en este ámbito. La nueva Comunicación proporciona pautas de actuación
a los operadores de dichas plataformas que habrán de prestar especial atención
a estas directrices. No obstante, el enfoque adoptado en algún aspecto clave
parece presentar carencias, incluso desde la perspectiva de la situación actual
del Derecho europeo, en relación con el objetivo pretendido según el propio
título del documento, encaminado a la exigencia de una mayor responsabilidad (“enhanced responsibility”, en la versión
en inglés, “responsabilité accrue”,
en la versión francesa) de las plataformas en línea. Me limitaré en esta reseña
a hacer algunas referencias al contenido básico de este documento, su potencial
significado y algunas carencias de su enfoque.
Como inciso
previo cabe dejar constancia de que, a diferencia de lo que es propio de los
documentos de la Unión, su traducción en español presenta deficiencias
relevantes, aunque puntuales. A modo de ejemplo, el uso en el título de la
expresión “mayor responsabilidad” habría resultado más acertado que “mayor
responsabilización”. Asimismo, al fijar el alcance de la Comunicación es
reseñable que se limita a los contenidos ilícitos, como categoría contrapuesta
a otros contenidos que pueden resultar nocivos o perjudiciales pero no ilícitos
(sin perjuicio de que en ocasiones el ofrecimiento de algunos de estos
contenidos a determinadas personas –típicamente, menores- o en determinada
forma puedan dar lugar a algún ilícito). Esa contraposición entre contenidos
ilícitos y contenidos potencialmente perjudiciales es clara en la versión
francesa e inglesa, en un párrafo en el que la versión española con gran
confusión dice: “No cabe duda de que los contenidos despiertan inquietudes de
interés público, no solo porque sean ilícitos, sino por el daño que puedan
causar, como sería el caso de las noticias falsas o de contenidos perjudiciales
para los menores”.
Pasando ya al
fondo del documento, destaca precisamente su carácter horizontal, en el sentido
de que pretende abarcar todas la categorías de contenidos ilícitos, desde los
vinculados con el terrorismo, la incitación al odio, la pornografía infantil…
hasta los que implican el menoscabo de derechos de la personalidad, la
vulneración de derechos de propiedad intelectual o la realización de prácticas
comerciales desleales. Este enfoque se corresponde con el adoptado por el
Derecho de la UE al establecer normas sobre limitación de responsabilidad de
los prestadores de servicios de la sociedad de la información intermediarios en
la Directiva 2000/31/CE sobre el comercio electrónico (en adelante, DCE).
Típicamente, las diversas plataformas en línea son proveedores de servicios de
alojamiento (en el sentido del art. 14 DCE) o proveedores de motores de
búsqueda y enlaces (asimilados a los
anteriores en su tratamiento por la legislación española de transposición,
conforme al artículo 17 de la Ley 34/2002 o LSSICE). La heterogeneidad de los
contenidos ilícitos se vincula con la necesidad de diferenciar a la hora de
establecer la eventual responsabilidad de las plataformas en línea según los
tipos de contenidos, por ejemplo, en atención a la mayor o menor claridad del
carácter ilícito de los contenidos. La Comunicación no aporta precisiones
adicionales sobre la determinación de qué contenidos son ilícitos, lo que ha de
establecerse en función de la legislación aplicable. También el concepto de
plataforma en línea es deliberadamente muy amplio, destacándose que, entre
otros, incluye motores de búsqueda, redes sociales, páginas de microblogs o
plataformas de distribución de vídeos, de modo que comprende una multitud de
proveedores que no solo prestan servicios diversos –que implican el alojamiento
de contenidos, en el que se centra la Comunicación- sino que lo hacen a través
de modelos heterogéneos, lo que debe ser valorado al apreciar su eventual
responsabilidad y las medidas que les son exigibles.
Tras dar breve
cuenta de ciertas iniciativas previas por parte de la Unión en este ámbito y de
que el marco jurídico general en relación con la supresión de todo tipo de
contenidos ilícitos es el establecido en los artículos 14 y 15 DCE, la
Comunicación se centra en proporcionar directrices con pautas de actuación para
las plataformas. En primer lugar, dichas pautas de actuación van referidas a la
detección rápida de contenidos ilícitos. Cabe agrupar en tres –modificando
ligeramente la división propuesta en la Comunicación- las vías a través de las
cuales las plataformas pueden tener conocimiento de la presencia de contenidos
ilícitos en sus servicios: i) mandamientos judiciales, decisiones
administrativas y comunicaciones de otras autoridades competentes; ii)
comunicaciones de organismos especializados (alertadores fiables o trusted flaggers), de titulares de derechos
de propiedad intelectual o de meros usuarios, y iii) a través de la
investigación de las propias plataformas.
Con respecto a
la primera de esas vías, la Comunicación establece que las plataformas deben
cooperar estrechamente con las fuerzas de seguridad y las autoridades
competentes, velando especialmente porque éstas puedan ponerse en contacto
rápidamente con ellas en relación con las solicitudes de retirada de contenidos
ilícitos, al tiempo que recoge la necesidad de que las plataformas alerten en
caso de detectar actividades delictivas. Para ello prevé que deben designar
puntos de contacto eficaces en la Unión y desarrollar interfaces técnicas que
faciliten la interacción y cooperación con las fuerzas de seguridad y las
autoridades competentes.
En lo relativo
a las comunicaciones de los llamados alertadores fiables y de los usuarios, las
principales actuaciones por parte de las plataformas que contempla el documento
son las siguientes. La Comisión destaca la importancia de que las plataformas
proporcionen un canal fluido a través del cual los alertadores fiables puedan
llevar a cabo sus notificaciones relativas a la presencia de contenidos
ilícitos, que deben ser evaluadas por la plataforma de manera acelerada, de
cara a decidir sobre su eventual eliminación. En todo caso, aspectos como la
delimitación de quiénes pueden ser considerados alertadores fiables, la
eventual fijación de requisitos de calidad en sus notificaciones u otros
criterios comunes son aspectos en los que se incorpora una mera remisión a
futuros acuerdos de autorregulación o a su fijación en el marco de la
normalización en el seno de la Unión.
Con respecto a
las comunicaciones de los usuarios, la Comisión establece que “(l)as
plataformas en línea deben establecer un mecanismo fácilmente accesible y de
fácil manejo que permita a sus usuarios notificar contenidos albergados por
aquellas que consideren ilícitos”, de modo que hagan posible de manera sencilla
la notificación por vía electrónica (COM(2017) 555 final, pág 10). Asimismo, precisa
que cuando se trata de contenidos accesibles al público, los mecanismos de
comunicación de contenidos ilícitos deben estar disponibles para el público en
general, sin limitar el acceso a los mismos al registro como usuario del
servicio. También proporciona la Comisión directrices sobre pautas de
comportamiento de las plataformas para facilitar la calidad de las
comunicaciones de terceros relativas a la presencia de contenidos ilícitos en
sus servicios, de modo que la plataforma pueda actuar con rápidamente ante la
presencia del contenido ilícito.
Estas pautas,
recogidas en la página 11 de la Comunicación, contienen indicaciones
relativamente precisas acerca de cómo las plataformas han de diseñar dichas
vías de comunicación. Así, se incluye el deber de “instaurar mecanismos
eficaces que faciliten la presentación de comunicaciones de forma
suficientemente precisa y motivada”, posibilitando el envío de “comunicaciones
que incluyan una exposición de las razones por las que su autor considera que
el contenido es ilícito, así como la localización de los contenidos”. Se
detalla que tales mecanismos de comunicación “deben ser visibles, fácilmente
accesibles, fáciles de usar y contextuales”, permitiendo comunicar distintos
tipos de contenidos y teniendo en cuenta que el nivel de detalle necesario para
que las plataformas puedan adoptar medidas informadas sin demora puede variar
considerablemente según el tipo de contenido. Para no disuadir las
comunicaciones, se prevé que los usuarios que las lleven a cabo no tendrían que
estar obligados a identificarse, salvo cuando la información sobre su identidad
sea necesaria para determinar la ilicitud, por ejemplo, al invocar la
titularidad de derechos eventualmente infringidos. Lo anterior se complementa
con la previsión de que quien lleva a cabo una notificación de la presencia de
contenidos eventualmente ilícitos debe tener la posibilidad de proporcionar
voluntariamente sus datos de contacto, teniendo en tal caso la plataforma que
remitirle “un acuse de recibo y un comunicado que informe del curso dado a la
notificación”, que pueden servir “como prueba en procedimientos judiciales o
extrajudiciales de acuerdo con las normas aplicables a dichos procedimientos”.
Tras la
detección y notificación de contenidos ilícitos a partir de la comunicación por
terceros, la Comisión se centra en proporcionar pautas con respecto a la
adopción por parte de las plataformas de medidas proactivas eficaces para detectar
y retirar contenidos ilícitos de sus servicios. Adopta sobre el particular un
enfoque susceptible de ser considerado un tanto obsoleto y poco ambicioso, de
modo que la Comisión analiza en primer lugar cómo en su opinión la adopción de
medidas proactivas de detección y retirada de contenidos ilícitos no implica la
pérdida por la plataforma de la exención de responsabilidad establecida en el
artículo 14 DCE. Punto de partida correcto –que la Comisión funda en la STJUE
de 12 de julio de 2011, C-324/09, L’Oreal-,
es que la aplicación de medidas de ese tipo no implica que la plataforma adopte
una posición activa con respecto al ofrecimiento de esos contenidos que
almacena y que le pueda privar de la exención. Ahora bien, en el estado de
evolución de Internet y de los servicios ofrecidos por muchas de esas
plataformas cabe sostener que incluso con el actual marco normativo no solo eso
es así sino que, en determinadas circunstancias, la adopción de tales medidas
proactivas puede resultar una exigencia para que ciertas plataformas se
beneficien de la exención de responsabilidad. Se trata de un aspecto que el documento
de la Comisión no desarrolla, si bien incluye la afirmación de que “(l)as
plataformas en línea deben hacer todo lo posible para, de forma proactiva, detectar,
identificar y retirar los contenidos ilícitos en línea” (pág. 15), y sobre el
que volveré al final de esta reseña. Con respecto a las medidas proactivas que
la Comisión insta a las plataformas a adoptar, el documento hace referencia a
las tecnologías de detección automática y filtrado, con mención de la práctica
ya existente de recurrir “al uso de algún tipo de algoritmos de emparejamiento
basados en diferentes tecnologías, desde el simple filtrado de metadatos a las
funciones hash y la huella digital” (pág. 13), así como genéricamente a la
conveniencia de que el sector “introduzca de forma efectiva innovaciones que
contribuyan a incrementar la eficiencia y eficacia de los procedimientos de
detección automáticos” (pág. 14).
Otros dos
aspectos son objeto de atención en este documento de la Comisión: la retirada
por las plataformas de los contenidos ilícitos y la prevención de la
reaparición de tales contenidos, ámbito este último en el que se contempla el
deber de las plataformas de adoptar medidas que disuadan la publicación
repetida de contenidos ilícitos así como la recomendación de un mayor empleo de
tecnologías tendentes a prevenir su reaparición. En relación con el primero de
esos aspectos, la retirada de contenidos ilícitos, se incluyen también
directrices en materia de transparencia que proporcionan pautas específicas
acerca del contenido de las condiciones generales o términos de uso de las
plataformas. La retirada con prontitud de los contenidos en cuanto las
plataformas tengan conocimiento de su ilicitud es una exigencia para que puedan
acogerse a la exención de responsabilidad del artículo 14 DCE (art. 16 LSSI). La
Comisión constata que la apreciación de dicha ilicitud y la rapidez exigible en
la retirada de contenidos puede variar en función del tipo de los contenidos y
de las concretas circunstancias, incluidas las relativas a la vía de
conocimiento de la ilicitud. En lo relativo a la posibilidad de recurrir a
terceros –como organismos de autorregulación o autoridades- en casos en los que
la ilicitud resulte dudosa, se limita a poner de relieve la existencia de
prácticas diversas en los Estados miembros. También destaca la Comisión la
importancia de que la retirada de contenidos no perjudique la investigación de
los delitos, poniendo de relieve el deber de las plataformas de informar a las
fuerzas de seguridad.
Las
obligaciones de transparencia se traducen en la exigencia de que las
plataformas hagan “una exposición clara, comprensible y suficientemente
detallada de su política de contenidos en las condiciones de utilización de sus
servicios”, que debe reflejar tanto el tratamiento de los contenidos ilícitos
como de aquellos no respeten las condiciones de uso de los servicios (pág. 18).
Cabe reseñar que esta última categoría es más amplia y que en la práctica de
los operadores resulta de utilidad como fuente de flexibilidad, al facilitar
que la eventual supresión de ciertos contenidos no se supedite a su ilicitud
que puede resultar incierta, si bien es importante que esa flexibilidad no
redunde en un menoscabo injustificado de la libertad de expresión e
información. Además de sobre las condiciones de uso de sus servicios, las
obligaciones en materia de transparencia van referidas también a la publicación
de informes periódicos por las plataformas con “información detallada del
número y el tipo de notificaciones recibidas y de medidas adoptadas” (pág. 18).
Las pautas
relativas a la retirada de contenidos incluyen directrices con garantías contra
las retiradas abusivas, particularmente el ofrecimiento por parte de la
plataforma a quienes hubieran aportado los contenidos de la posibilidad de
oponerse a su retirada mediante un procedimiento de “contranotificación”
sencillo en línea. En caso de que en el marco de ese procedimiento se aporten
razones que justifiquen que los contenidos notificados no son ilícitos, se
restablecerán o se permitirá al usuario que los publique de nuevo, sin
perjuicio de las condiciones de uso de la plataforma, que, como ha quedado
reseñado antes, pueden contemplar la retirada de ciertas categorías de
contenidos aunque no sean ilícitos.
Con respecto
al significado y eficacia de estas pautas o directrices, su adopción en el
marco de una mera Comunicación de la Comisión implica que en principio no son
directamente vinculantes ni van dirigidas a ser incorporadas en las
legislaciones de los Estados miembros, en coherencia con la naturaleza de un
instrumento de este tipo. La ausencia de desarrollo legislativo transcurridos
más de 17 años desde la adopción de las normas sobre limitación de
responsabilidad de la DCE es indudablemente una carencia del Derecho de la
Unión, en particular si se tiene en cuenta que ya la propia DCE previó en el artículo
21, relativo a su reexamen, “la necesidad de presentar propuestas relativas a
la responsabilidad de los proveedores de hipervínculos y servicios de
instrumentos de localización, a los procedimientos de «detección y retirada» y
a la imputación de responsabilidad tras la retirada del contenido”. Se trataba
de una previsión acorde con el limitado contenido de la DCE en contraste ya con
el mayor desarrollo sobre este particular de la legislación estadounidense
sobre derechos de autor. Entre sus
pautas y directrices la nueva Comunicación de la Comisión formula como deberes
de las plataformas ciertas conductas en esos ámbitos, pero parece renunciar, al
menos de momento, a establecer un marco normativo con obligaciones específicas
mediante un instrumento que dé lugar a normas directamente vinculantes.
Lo anterior no
impide apreciar que algunas de las pautas y directrices reseñadas en esta
entrada es de prever que resulten de gran relevancia cuando tribunales de los
Estados miembros deban determinar la eventual responsabilidad de las
plataformas, en particular, para establecer si en un caso concreto se
benefician de la limitación de responsabilidad del artículo 14 DCE. Ello es así
porque cabe esperar que el incumplimiento de algunas de esas pautas y
directrices por parte de una plataforma –u otro prestador de servicios de
intermediación semejante- puede ser considerado un elemento relevante a la hora
de apreciar que no ha respetado el nivel de diligencia exigible para poder
apreciar que no tenía conocimiento efectivo de la presencia del contenido
ilícito en sus servicios a los efectos del artículo 14 DCE.
Por otra
parte, cabe insistir en que pese a que la Comunicación de la Comisión apenas
atribuya relevancia a esta idea, lo cierto es que en el contexto actual –muy
distinto al de finales del siglo XX en el que se elaboró la DCE- las
características de ciertos servicios de alojamiento prestados por estas
plataformas –así como los riesgos que generan los modelos de negocio por los
que sus proveedores han optado- pueden ser determinantes para apreciar que
existe conocimiento por parte del
intermediario incluso sin notificación previa y exigir la puesta en marcha de
mecanismos preventivos o de supervisión, que puedan resultar compatibles con la
prohibición general de supervisión contenida en el artículo 15 DCE, como
presupuesto para que la plataforma pueda beneficiarse de la limitación de
responsabilidad del artículo 14 DCE. Este enfoque se corresponde con las
exigencias que derivan de la evolución de Internet, donde la proliferación de
servicios que permiten el alojamiento de datos de terceros y la expansión de
modelos de negocio que se basan precisamente en la difusión de contenidos
alojados (gratuitamente) por los usuarios, exige un análisis de las
circunstancias concretas para valorar si el prestador de servicios de
alojamiento que invoca su ausencia de conocimiento y su falta de control sobre
los contenidos puede beneficiarse de la exención de responsabilidad. Cabe
recordar que ya conforme al considerando 48 del Preámbulo de la DCE, ésta “no
afecta a la posibilidad de que los Estados miembros exijan a los prestadores de
servicios, que proporcionan alojamiento de datos suministrados por
destinatarios de su servicio, que apliquen un deber de diligencia, que cabe esperar
razonablemente de ellos y que esté especificado en el Derecho nacional, a fin
de detectar y prevenir determinados tipos de actividades ilegales”.
A este
respecto tampoco está de más recordar cómo la jurisprudencia del TEDH ha puesto
de relieve que en la ponderación entre los derechos fundamentales de los
artículos 8 y 10 (libertad de expresión e información) del Convenio Europeo de Derechos
Humanos resulta apropiado que la eventual responsabilidad de los prestadores de
servicios de la sociedad de la información por contenidos ilícitos introducidos
por terceros se vincule con los riesgos que para los derechos de las
potenciales víctimas generan los concretos servicios a través de los cuales se
introducen esos comentarios, lo que viene determinado básicamente por la
configuración y modo de funcionamiento de tales servicios. Esta jurisprudencia
del TEDH destaca cómo la expansión de servicios que permiten difundir
comentarios de manera anónima es un factor muy relevante de riesgo en atención
también al grado de anonimato, que condiciona la eventual dificultad para la
exigencia de responsabilidad por parte de las víctimas a los autores de los
comentarios lesivos. En consecuencia, cuando son muy elevados los riesgos para
los derechos de terceros que el servicio genera, medidas que en otras
situaciones podrían ser suficientes –como un filtrado previo automático más un
mecanismo de detección y retirada a partir de avisos de los afectados o de
usuarios- pueden no bastar para considerar que quien facilita a terceros un
cauce para difundir esos contenidos actúa con la diligencia exigible (para
beneficiarse de la exención de responsabilidad del artículo 14 DCE) y no
incurre él mismo en responsabilidad. Para no hacer más larga esta reseña, me
remito a tres entradas que dediqué en su momento a la jurisprudencia del TEDH
al respecto: aquí, aquí y aquí.