Operadores de plataforma obligados a borrar según fallo del OLG Frankfurt
Cuando se publican contenidos ilegales en las redes sociales, los operadores de las plataformas son responsables de ello. Así lo ha decidido el OLG Frankfurt en el fallo del 25 de enero de 2024 (Az.: 16 U 65/22). Según esto, los proveedores de alojamiento deben eliminar dichos posts si tienen conocimiento de ellos.
Las publicaciones insultantes, discriminatorias y falsas en las redes sociales son un tema muy debatido. Sin embargo, los afectados no están indefensos ante esto, según el bufete de abogados MTR Legal Rechtsanwälte, que, entre otras cosas, asesora en derecho IT. Los afectados tienen la posibilidad de oponerse a contenidos ilegales, como muestra la sentencia del OLG Frankfurt del 25 de enero de 2024.
Meme con cita falsa
El motivo para el procedimiento fue un llamado meme, que se publicó sobre una política en una plataforma social. Se mostró una imagen de la política con su nombre y una supuesta cita de ella. Sin embargo, la cita era completamente inventada.
La política emprendió acciones al respecto y tuvo éxito con su demanda de cese. Ya en primera instancia, el Tribunal Regional de Frankfurt obligó a la operadora de la plataforma a eliminar el meme y a abstenerse de hacer accesibles públicamente contenidos idénticos o esencialmente iguales en la plataforma. Además, el tribunal condenó a la demandada a pagar una indemnización de 10,000 euros.
La empresa de internet apeló contra la sentencia, pero tuvo poco éxito. El OLG Frankfurt solo revocó la compensación monetaria, pero confirmó la obligación de cese.
Violación del derecho a la personalidad
El Tribunal Superior de Justicia de Frankfurt dejó claro que la cita falsa representaba una intervención ilegal en el derecho general de personalidad de la demandante y violaba su derecho sobre su propia palabra. Sin embargo, estaba en disputa la pregunta de qué debe hacer el operador de la plataforma para prevenir la publicación de tales contenidos ilegales. El OLG dejó claro que el conocimiento concreto de un post ilegal obliga al proveedor a prevenir también la publicación de posts iguales en palabras o equivalentes en significado.
Proveedor de alojamiento como perturbador indirectamente responsable
Como una llamada perturbadora indirectamente responsable, la operadora demandada de la plataforma es responsable de eliminar también todas las demás publicaciones idénticas o equivalentes en sentido al post, dejó claro el OLG Frankfurt. En el caso presente, la demandada eliminó el primer meme dentro del plazo establecido tras conocerlo. Sin embargo, cuando volvió a aparecer varias veces en la plataforma, la demandada actuó solo tras una nueva advertencia. Eso fue demasiado tarde, ya que el primer conocimiento del post ilegal además de la obligación de eliminar también activó otras obligaciones de revisión. Especialmente porque la demandante también dejó claro lo que entiende por posts equivalentes en sentido. Este conocimiento debería haber activado en la demandada una obligación de revisión y comportamiento respecto a la existencia de posts equivalentes en sentido, que también deberían haber sido eliminados, continuó explicando el OLG.
Aunque la Directiva de Comercio Electrónico no impone a la demandada una obligación general de supervisión o una obligación de investigación activa respecto a contenidos ilegales, en el caso concreto existía un conocimiento concreto de la violación de derechos. Por ello, la demandada está obligada a prevenir tales perturbaciones en el futuro, dejó claro el tribunal. No es necesario que se trate de publicaciones con el mismo contenido en palabras. Basta con que los mensajes sean total o parcialmente equivalentes en contenido.
La investigación debe ser razonable
La investigación de tales declaraciones equivalentes en sentido no debe ser irrazonable, limitó el OLG Frankfurt. Según la jurisprudencia del TJUE, debe ser posible con técnicas y medios automatizados. Prácticamente eso significa que el reconocimiento de los posts debe ser posible a través de algoritmos. En general, esto también es el caso, señaló el tribunal. No se opone el hecho de que también puede ser necesario un análisis semántico de los posts por parte de personas. Una evaluación caso por caso con intervención humana es razonable en combinación con procedimientos técnicos, dejó claro el OLG Frankfurt. Además, mediante el uso de sistemas de IA se puede llevar a cabo una preselección automática.
El fallo aún no es definitivo, el OLG Frankfurt ha permitido la revisión ante el BGH.
Para preguntas sobre la obligación de eliminación y otros temas de derecho IT MTR Legal Rechtsanwälte está a su disposición.
Póngase en contacto con nosotros!