Tanto el alcance material como el territorial de
las medidas de cesación susceptibles de ser adoptadas frente a prestadores de
servicios de la sociedad de la información en relación con contenidos ilícitos
alojados por terceros en sus servicios resultan cuestiones controvertidas. En
lo relativo al alcance material de las medidas
que pueden adoptarse, es conocido que la ponderación entre los derechos fundamentales
afectados (según los casos, el derecho al honor, el derecho a la protección de
datos, la libertad de expresión, la libertad de información, el derecho de
propiedad intelectual, el derecho a la libertad de empresa, etc.) exigen en la
práctica un análisis casuístico, lo que se proyecta sobre la interpretación de
las inmunidades de las que se benefician los intermediarios conforme a lo
dispuesto en la Directiva 2000/31 sobre el comercio electrónico (DCE) y la Ley
34/2002 o LSSI, a lo que hay que sumar la incertidumbre existente acerca de las
implicaciones precisas en el contexto actual de la prohibición de imponer a tales intermediarios obligaciones generales de supervisión que establece el artículo 15.1 DCE. Son
cuestiones que han dado lugar ya a una notable jurisprudencia del TJUE e
incluso del TEDH, y a las que ya me he referido, entre otras, en las reseñas
aquí realizadas a SSTJUE como las pronunciadas en en los asuntos L’Oréal, SABAM, Scarlet Extended, UPC Telekabel Wien, o Mc Fadden y a SSTEDH como las recaídas
en los asuntos Delfi c. Estonia o Magyar Jeti Zrt c. Hungria. De cara al futuro, revisten gran interés las cuestiones planteadas al Tribunal de
Justicia en el asunto C‑18/18, Eva
Glawischnig-Piesczek contra Facebook Ireland Limited, en el que el Abogado
General Szpunar acaba de presentar
sus conclusiones, que suscitan consideraciones de interés tanto en relación con el alcance material de las medidas de retirada como con su alcance territorial, si bien este último aspecto lo dejaré para la siguiente entrada.
En
síntesis, el asunto C‑18/18 tiene su origen en el litigio surgido a raiz de la
petición a Facebook Ireland Ltd. de eliminación de un comentario humillante
sobre la demandante que había sido incluido por un usuario que había compartido
a través de la red social un artículo de una publicación relativo a la
actividad política de la demandante junto con una imagen de esa persona.
Básicamente, el Tribunal Supremo austriaco, en relación con el alcance de las
medidas provisionales que han de adoptar los tribunales austriacos en ese litigio,
plantea cuestiones acerca de la compatibilidad con el artículo 15.1. DCE de la
imposición al proveedor de la red social de obligaciones de retirar no solo el
contenido inicialmente publicado por el usuario en cuestión y declarado ilícito
sino también de otros contenidos idénticos o similares. Además, plantea si esa
obligación de retirada puede ir referida a todo el mundo o solo al Estado
miembro de que se trate. Asimismo, también duda de si la obligación de retirada
de esos otros datos puede adoptarse solo con respecto al contenido del usuario
en cuestión.
I. Facebook ¿prestador
intermediario?
En primer lugar, las
conclusiones dejan al margen, con base en que no resulta una cuestión
controvertida para el órgano remitente, un aspecto de indudable interés, cual
es si una red social como Facebook es realmente un prestador de servicios de
alojamiento de datos en el sentido del artículo 14 DCE. Es claro
que en la medida en que la red social permite a los usuarios que carguen contenidos se trata de un
proveedor de servicios de alojamiento, pero lo que puede suscitar duda es si lo
es en el sentido del artículo 14 de la DCE. Cabe recordar que conforme a la jurisprudencia del TJUE, en particular su sentencia L’Oréal, y el considerando 42 de la propia DCE, tan solo cuando la actividad del prestador de servicios “es de naturaleza meramente
técnica, automática y pásiva” puede ser calificado como un prestador de servicios de
alojamiento de datos a esos efectos.
En la medida en que el proveedor de una red social
determina, mediante la aplicación de sus algoritmos, qué contenidos alojados en sus servicios se muestran
a sus usuarios, puede dudarse de que su intervención sea “meramente, automática y pasiva”, a la luz por ejemplo del criterio establecido por el Tribunal de Justicia en el apartado 116 de la sentencia L’Oréal. Cabe destacar que en esas situaciones el prestador de la red social interviene en la selección, a partir de los criterios de
relevancia sobre los que opera su algoritmo, de los concretos contenidos que el usuario
visualiza. Al valorar esta circunstancia
será además preciso tener en cuenta el significativo cambio producido desde la
adopción de los artículos 14 y 15 DCE. Esas disposiciones fueron adoptadas en una época en la que los
destinatarios de servicios de alojamiento típicamente pagaban por esos
servicios (con todo lo que ello implica también en relación con la
identificación precisa del usuario frente al prestador y el uso responsable del
servicio). Ese contexto social contrasta profundamente con el existente a partir de la expansión del modelo de negocio
sobre el que se funda una red social como Facebook y los riesgos de vulneración
de derechos de terceros mediante la difusión de contenidos cargados por sus usuarios
inherente a su modelo.
En todo caso, pese a la capital trascendencia de
esta cuestión, previsiblemente no será abordada por el TJUE en su sentencia en
este asunto, en caso de seguir el criterio de las conclusiones. En concreto, considera el Abogado general que “de la petición de decisión prejudicial se desprende que el órgano
jurisdiccional remitente considera acreditado que Facebook Ireland es un
prestador de servicios de alojamiento de datos cuyo comportamiento se ciñe al
de un prestador intermediario”, si bien apunta que tal calificación puede
resultar controvertida (apdo. 30 de las conclusiones).
II.
Prohibición de obligaciones generales de supervisión en virtud del artículo 15
DCE
Según el planteamiento del
Abogado General, el fundamento de esa prohibición se vincula con que daría
lugar a una actividad de control por parte del prestador de servicios de
alojamiento incompatible con la condición de intermediario (apdos. 35 a 40 de las conclusiones). Ahora
bien, no debe perderse de vista que, de hecho, ciertas redes sociales ejercen
una labor de supervisión –incluso censura- respecto de la práctica totalidad de
contenidos almacenados, por ejemplo, para evitar la presencia de contenidos que
pudieran ser considerados pornográficos, sin que se considere que por ello
ejercen un control sobre esos contenidos incompatible con su posición de
intermediarios (lo que contrasta con la posición expresada en los apartados 35
a 40 y 51 de las conclusiones). En realidad, a mi modo de ver, el fundamento de
la prohibición del artículo 15.1 DCE tiene más que ver con asegurar el adecuado
funcionamiento de ese tipo de servicios y el carácter tradicionalmente abierto
de Internet, rechazando obligaciones de control previo de alcance general incompatibles
con ello.
Por consiguiente, a la hora de concretar lo que
supone que la prohibición del artículo 15.1 DCE no excluye la imposición de
obligaciones de supervisión activa por parte del intermediario, en la medida en
que no se trate de una “obligación general”, debe resultar determinante la
disponibilidad por parte de la red social de mecanismos técnicos para llevar a
cabo esa supervisión sin incurrir en costes excesivos ni menoscabar de manera
desproporcionada los derechos fundamentales (libertad de empresa, libertad de
información, libertad de expresión, entre otros) con los que hay que ponderar
los derechos de la víctima lesionados por la información ilícita de que se
trate.
III. Alcance material de los
requerimientos judiciales de retirada de contenidos ilícitos
Habida cuenta de la
licitud de las medidas de supervisón en casos específicos, el Abogado General
afirma la posibilidad de obligar mediante orden judicial a una red social “a
buscar e identificar todos los datos idénticos a aquellos que hayan sido
declarados ilícitos por ese órgano jurisdiccional” (apdo. 57), pese a que ello
suponga que la obligación de supervisión se proyecte sobre cualquier usuario
del servicio del que procedan esos contenidos idénticos (típicamente mediante reproducciones
exactas o funciones de reproducción automatizada que puede facilitar la propia
red social) (apdos. 58-59). No queda tan claro el fundamento de su criterio de
que toda obligación de supervisión deba ser limitada en el tiempo (apdo. 49)
que en el supuesto del litigio principal considera satisfecha por el carácter
de medida provisional de la resolución en la que se incluye el requerimiento
(apdo. 60). Ahora bien, no debe descartarse que al resolver sobre el fondo del
asunto se confirme una medida de ese tipo, eventualmente sin limitación
temporal, si ello está justificado a la luz de las circunstancias del caso.
Sí es importante el
criterio, basado en la ponderación entre derechos fundamentales, al que recurre
el Abogado General al avalar la admisibilidad de ese tipo mandamientos
referidos a la retirada por la red social de los contenidos idénticos a los
declarados ilícitos, en el sentido de que su aplicación típicamente no requiere
medios técnicos que supongan una lesión excesiva del derecho a la libertad de
empresa de la red social (apdo. 63) y resulta apropiada para combatir los
riesgos para los derechos de la víctima, habida cuenta de la facilidad para
reproducir contenidos en Internet (apdo. 64).
Más dudas puede suscitar
el planteamiento acerca de los límites a los mandamientos de retirada por parte
de la red social de contenidos no idénticos sino similares a los declarados
ilícitos. Básicamente, el Abogado General concluye que un requerimiento
judicial puede obligar al prestador de servicios de alojamiento de datos a
buscar e identificar datos similares a los declarados ilícitos únicamente de
entre los datos difundidos por el usuario que publicó tales datos. Es decir, el
requerimiento no puede ir referido a datos similares a los declarados ilícitos
que procedan de otros usuarios. Destaca a estos efectos el Abogado General que:
“a diferencia de lo que sucede con los datos idénticos a los declarados
ilícitos, un prestador de servicios de alojamiento de datos no puede
identificar los datos similares a los declarados ilícitos sin recurrir a
soluciones sofisticadas”. Añade, que en tal caso “el papel que desempeña el
prestador que ejerce una supervisión general dejaría de ser neutro, al no tener
carácter meramente técnico, automático y pasivo” y “además, dicho prestador, al
aplicar una forma de censura, pasaría a contribuir de forma activa en dicha
plataforma” (apdo. 73). A continuación destaca que ello podría suponer una
limitación excesiva de la libertad de expresión y de información (apdo. 74).
Ahora bien, sin desconocer
que los mandamientos de retirada que se extiendan a contenidos similares (a
los declarados ya ilícitos) cargados por otros usuarios requieren un
tratamiento específico, que impide su equiparación con las medidas que se
limitan a contenidos idénticos o a contenidos similares pero del mismo usuario,
cabe sostener que la exclusión con carácter general de tales medidas puede
resultar excesiva. Al apreciar si el mandamiento impone la adopción por la red
social de lo que el Abogado General denomina “soluciones sofisticadas” y su
significado en la ponderación entre derechos fundamentales, parece razonable
tener en cuenta, junto a otros elementos como los relativos a la libertad de
expresión e información, los extraordinarios medios y recursos de los que esos
prestadores disponen para controlar los contenidos introducidos por sus
usuarios, así como los singulares riesgos que el lucrativo modelo de negocio
por el que han optado genera para los derechos de terceros. No cabe excluir que
en ocasiones medidas de retirada relativas a “contenidos similares” de “otros
usuarios” puedan ser precisas y estar configuradas de manera que no impongan
soluciones excesivamente costosas ni menoscaben de manera excesiva la libertad
de expresión. Por ejemplo, en situaciones en las que el mandamiento judicial vaya
referido a la retirada de la plataforma de todos los contenidos que incluyan
determinados términos difamatorios (presentes en el contenido declarado
ilícito) junto con la fotografía de la víctima (incluida también en el contenido
declarado ilícito).