Operadores de plataformas obligados a eliminar contenido tras fallo del OLG Frankfurt
Cuando se publican contenidos ilegales en las redes sociales, los operadores de las plataformas son responsables de ellos. Así lo decidió el OLG Frankfurt en el fallo del 25 de enero de 2024 (Az.: 16 U 65/22). Según esto, los proveedores de alojamiento deben eliminar tales publicaciones cuando tengan conocimiento de ellas.
Las publicaciones insultantes, discriminatorias y falsas en las redes sociales son un tema muy discutido. Sin embargo, los afectados no están indefensos ante esto, según el bufete de abogados empresariales MTR Legal Rechtsanwälte, que asesora, entre otros, en derecho informático. Los afectados tienen la posibilidad de defenderse contra contenidos ilegales, como lo muestra el fallo del OLG Frankfurt del 25 de enero de 2024.
Meme con cita falsa
El motivo del procedimiento fue un llamado meme que fue publicado sobre una política en una plataforma social. Se mostró una imagen de la política con su nombre y una supuesta cita de ella. Sin embargo, la cita era totalmente inventada.
La política emprendió acciones contra esto y tuvo éxito con su demanda de cesación. Ya en primera instancia, el Tribunal Regional de Frankfurt obligó a la operadora de la plataforma demandada a eliminar el meme y a abstenerse de hacer accesibles al público en la plataforma contenidos idénticos o con el mismo núcleo. Además, el tribunal condenó a la demandada a pagar una indemnización por daños de 10.000 euros.
La corporación de internet apeló el fallo, pero casi no tuvo éxito. El OLG Frankfurt solo anuló la compensación económica, pero confirmó la obligación de cesación.
Violación del derecho a la personalidad
El Tribunal Superior de Justicia de Frankfurt dejó claro que la falsa cita constituye una intervención ilegal en el derecho general de la personalidad de la demandante y viola su derecho a la propia palabra. No obstante, la cuestión en disputa fue qué debe hacer el operador de la plataforma para prevenir la publicación de tales contenidos ilegales. El OLG aclaró que tener conocimiento concreto de un post ilegal obliga al proveedor a prevenir también la publicación de posts idénticos o con el mismo significado.
Proveedor de alojamiento como perturbador responsable indirecto en la responsabilidad
Como una supuesta perturbadora responsable indirecta, la operadora demandada de la plataforma es responsable de eliminar todas las publicaciones adicionales idénticas o con el mismo sentido que el post, aclaró el OLG Frankfurt. En el presente caso, la demandada eliminó el primer meme después de tener conocimiento dentro del plazo establecido. Sin embargo, cuando posteriormente volvió a aparecer varias veces en la plataforma, la demandada solo reaccionó después de una nueva notificación. Eso fue demasiado tarde, ya que el primer conocimiento del post ilegal desencadenó no solo la obligación de eliminar, sino también obligaciones adicionales de revisión. Especialmente porque la demandante también aclaró qué entiende por publicaciones con el mismo sentido. Este conocimiento debería haber desencadenado en la demandada una obligación de revisión y conducta respecto a la existencia de publicaciones con el mismo sentido, que también debían haber sido eliminadas, añadió el OLG.
Según la directiva de comercio electrónico, la demandada no está sujeta a una obligación general de supervisión o una obligación de investigación activa respecto a contenidos ilegales. En el caso concreto, sin embargo, había un conocimiento concreto de la infracción. Por lo tanto, la demandada está obligada a prevenir tales perturbaciones en el futuro, siguió aclarando el tribunal. No es necesario que se trate de publicaciones con contenido idéntico. Es suficiente que las comunicaciones tengan un contenido completamente o incluso parcialmente idéntico en su sentido.
La investigación debe ser razonable
La investigación de tales expresiones con el mismo sentido no debe ser irrazonable, limitó el OLG Frankfurt. Según la jurisprudencia del TJUE, debe ser posible mediante técnicas y medios automatizados. En la práctica, esto significa que el reconocimiento de los posts debe ser posible mediante algoritmos. Pero, en general, este también es el caso, según el tribunal. No se opone a que también pueda ser necesaria la interpretación del sentido de las publicaciones por parte de humanos. Una evaluación manual y humana de casos individuales es razonable en combinación con procedimientos técnicos, aclaró el OLG Frankfurt. Sobre todo, mediante el uso de sistemas de inteligencia artificial, se puede realizar un filtro previo automático.
El fallo aún no es definitivo, el OLG Frankfurt ha permitido la revisión al BGH.
Para consultas sobre la obligación de eliminar y otros temas de derecho informático MTR Legal Rechtsanwälte está disponible.
Póngase en contacto con nosotros!