Les opérateurs de plateformes obligés de supprimer selon le jugement de l’OLG Francfort
Lorsque des contenus illicites sont publiés via les réseaux sociaux, les opérateurs des plateformes en portent la responsabilité. C’est ce qu’a décidé l’OLG Francfort par jugement du 25 janvier 2024 (réf. : 16 U 65/22). Ainsi, les hébergeurs doivent supprimer de tels posts dès qu’ils en ont connaissance.
Les posts insultants, discriminatoires et faux sur les réseaux sociaux sont un sujet largement discuté. Les personnes concernées ne sont cependant pas dépourvues de moyens de défense, selon le cabinet d’avocats d’affaires MTR Legal Rechtsanwälte, qui conseille, entre autres, en droit informatique. Les personnes concernées ont la possibilité de se défendre contre des contenus illicites, comme le montre le jugement de l’OLG Francfort du 25 janvier 2024.
Meme avec fausse citation
Le motif de la procédure était un soi-disant meme publié sur une plateforme sociale à propos d’une politicienne. Une image de la politicienne avec son nom et une citation prétendue d’elle y figuraient. Toutefois, la citation était entièrement inventée.
La politicienne a intenté une action contre cela et a remporté sa demande d’injonction. Dès la première instance, le tribunal régional de Francfort a obligé l’opératrice de la plateforme à supprimer le meme et à s’abstenir de rendre accessibles au public des contenus identiques ou substantiellement similaires sur la plateforme. En outre, le tribunal a condamné la défenderesse à payer des dommages-intérêts de 10 000 euros.
Le géant de l’Internet a fait appel du jugement, mais avec peu de succès. L’OLG Francfort a seulement annulé la compensation monétaire, mais a confirmé l’obligation d’injonction.
Violation du droit à la personnalité
La Cour d’appel de Francfort a clairement précisé que la fausse citation constituait une intrusion illicite dans le droit général à la personnalité de la demanderesse et violait son droit à sa propre parole. Toutefois, la question en litige était de savoir ce que l’opérateur de la plateforme devait faire pour empêcher la publication de tels contenus illicites. L’OLG a précisé que la connaissance concrète d’un post illicite obligeait le fournisseur à empêcher également la publication de posts identiques ou ayant le même sens.
Fournisseur d’hébergement en tant que perturbateur indirectement responsable en responsabilité
En tant que soi-disant perturbateur indirectement responsable, l’opératrice de la plateforme est responsable de s’assurer qu’elle supprime également toutes autres publications identiques ou semblables au post, a précisé l’OLG Francfort. Dans le cas présent, la défenderesse avait bien supprimé le premier meme après en avoir pris connaissance, dans le délai fixé. Cependant, lorsqu’il est réapparu plusieurs fois sur la plateforme, la défenderesse n’a réagi qu’après un nouveau signalement. C’était trop tard, car la première connaissance du post illicite avait déclenché, en plus de l’obligation de suppression, d’autres obligations de vérification. De plus, la demanderesse avait clairement indiqué ce qu’elle entendait par posts similaires. Cette connaissance aurait dû entraîner chez la défenderesse une obligation de vérification et de comportement concernant l’existence de posts similaires, qui auraient également dû être supprimés, a poursuivi l’OLG.
Selon la directive sur le commerce électronique, la défenderesse n’est certes pas tenue d’assurer une surveillance générale ou un devoir de recherche active concernant les contenus illicites. Dans le cas concret, cependant, il existait une connaissance concrète de la violation de droits. Par conséquent, la défenderesse est obligée de prévenir de telles perturbations à l’avenir, a ajouté le tribunal. Il n’est pas nécessaire qu’il s’agisse de publications au contenu identique. Il suffit que les communications soient entièrement ou uniquement en partie de même contenu dans le sens.
La recherche doit être raisonnable
Toutefois, la recherche de telles expressions similaires ne doit pas être déraisonnable, a restreint l’OLG Francfort. Selon la jurisprudence de la CJUE, elle doit être possible avec des techniques et moyens automatisés. Pratiquement, cela signifie que la reconnaissance des posts doit être possible par des algorithmes. En principe, c’est le cas, a noté le tribunal. Cela n’empêche pas qu’une interprétation des posts par des humains puisse également être nécessaire. Une évaluation individuelle manuelle par des humains combinée avec des procédures techniques est raisonnable, a indiqué l’OLG Francfort. Surtout, l’usage de systèmes d’IA permettrait un filtrage préliminaire automatique.
Le jugement n’est pas encore définitif, l’OLG Francfort a autorisé la révision devant la Cour fédérale de justice.
Pour toute question sur l’obligation de suppression et d’autres thèmes liés au droit informatique MTR Legal Rechtsanwälte sont à votre disposition.
Prenez contact avec nous !