Les exploitants de plateformes obligés de supprimer selon le jugement de l’OLG Francfort
Lorsque des contenus illicites sont publiés via les réseaux sociaux, les exploitants des plateformes en sont responsables. Cela a été décidé par l’OLG Francfort dans un jugement du 25 janvier 2024 (Az.: 16 U 65/22). Ainsi, les hébergeurs doivent supprimer ces publications s’ils en ont connaissance.
Les publications insultantes, discriminatoires et fausses sur les réseaux sociaux sont un sujet largement débattu. Toutefois, les personnes concernées ne sont pas sans défense, comme le souligne le cabinet d’avocats MTR Legal, qui conseille notamment en droit des technologies de l’information. Les personnes concernées ont la possibilité de s’opposer aux contenus illicites, comme le montre le jugement de l’OLG Francfort du 25 janvier 2024.
Mème avec fausse citation
La procédure a été motivée par un soi-disant mème, posté sur une plateforme sociale, à propos d’une femme politique. Une photo de la politicienne avec son nom et une citation supposée d’elle y était présentée. Cependant, la citation était totalement inventée.
La femme politique a pris des mesures à l’encontre de cela et a réussi avec sa demande d’injonction. Dès la première instance, le tribunal de grande instance de Francfort avait contraint l’exploitant de la plateforme à supprimer le mème et à s’abstenir de rendre le meme ou tout contenu identique ou similaire accessible au public sur la plateforme. De plus, le tribunal avait condamné le défendeur à verser des dommages et intérêts de 10 000 euros.
Le géant de l’Internet a fait appel du jugement, mais a eu peu de succès. L’OLG Francfort n’a annulé que l’indemnisation monétaire, mais a confirmé l’obligation d’injonction.
Atteinte au droit à la personnalité
La Cour d’appel de Francfort a clairement indiqué que la fausse citation constituait une atteinte illicite au droit général à la personnalité de la plaignante et portait atteinte à son droit à sa propre parole. Toutefois, la question en litige était de savoir ce que l’exploitant de la plateforme doit faire pour empêcher la publication de tels contenus illicites. L’OLG a précisé que la connaissance concrète d’un post illicite oblige le fournisseur à empêcher également la publication de posts identiques ou similaires dans l’esprit.
Hébergeur responsable en tant que perturbateur indirectement
En tant que perturbetur indirecte, l’exploitant de la plateforme défendeur est tenu de supprimer également toutes les autres publications identiques ou similaires en termes de sens, a précisé l’OLG Francfort. Dans le cas présent, le défendeur avait supprimé le premier mème après en avoir eu connaissance, et ce, dans le délai imparti. Toutefois, lorsque le mème est réapparu plusieurs fois sur la plateforme par la suite, le défendeur n’a réagi qu’après avoir été de nouveau informé. C’était trop tard, car la première connaissance du post illicite avait non seulement déclenché l’obligation de le supprimer, mais aussi d’autres obligations de vérification. De plus, la plaignante avait clairement indiqué ce qu’elle entendait par posts similaires en termes de sens. Cette connaissance aurait dû déclencher pour le défendeur une obligation de vérification et de comportement concernant l’existence de posts similaires en termes de sens, qui auraient également dû être supprimés, a poursuivi l’OLG.
Selon la directive sur le commerce électronique, le défendeur n’a pas d’obligation générale de surveillance ou d’obligation de recherche active concernant les contenus illicites. Dans le cas concret, la connaissance concrète de la violation du droit existait néanmoins. Par conséquent, le défendeur était obligé d’empêcher de telles perturbations à l’avenir, a poursuivi le tribunal. Il n’est pas nécessaire qu’il s’agisse de publications au contenu strictement identique. Il suffit que les messages soient identiques en termes de sens, en totalité ou en partie.
L’enquête doit être raisonnable
Toutefois, la recherche de telles déclarations similaires ne doit pas être déraisonnable, a restreint l’OLG Francfort. Selon la jurisprudence de la CJUE, elle doit être possible par des techniques et des moyens automatisés. En pratique, cela signifie que l’identification des posts doit être possible par des algorithmes. Fondamentalement, c’est le cas, a précisé le tribunal. Cela n’exclut pas qu’une interprétation par les humains soit également nécessaire. Une évaluation individuelle humaine à la main est réalisable en combinaison avec des procédés techniques, a souligné l’OLG Francfort. D’autant plus qu’une préfiltration automatique peut être effectuée par l’utilisation de systèmes d’IA.
Le jugement n’est pas encore définitif, l’OLG Francfort a autorisé le pourvoi en cassation devant la Cour fédérale de justice.
Pour toute question concernant l’obligation de suppression et d’autres sujets de droit des technologies de l’information , MTR Legal est à votre disposition.
Prenez contact avec nous !