[Interview] "Le DSA répond à une volonté de lutter contre les contenus illicites, favoriser la protection des mineurs et renforcer les obligations en matière de transparence", Maître Haas
Publié par Maëlle Chetal Gaillard le - mis à jour à
Le Digital Service Act (DSA) entré en vigueur le 16 novembre 2022 mais dont les obligations ne seront applicables qu'à compter de février 2024, accentue la surveillance des algorithmes et renforce la lutte contre les articles contrefaits ainsi que la protection des mineurs. Son principal objectif est de créer un environnement plus sûr et plus transparent pour les utilisateurs en ligne en responsabilisant davantage les plateformes. Rencontre avec Maître Haas, avocat à la Cour, spécialiste en droit numérique et de la propriété intellectuelle.
Comment le DSA fait évoluer la législation en matière de régulation des services numériques ?
Maître Haas : Thierry Breton, commissaire européen pour le marché intérieur, rappelait que ce qui est illégal hors ligne doit être illégal en ligne. Le 4 octobre 2022, après deux ans de négociations, un texte est approuvé par le Conseil de l'Union européenne pour réguler les contenus en ligne. Le 27 octobre 2022, la version définitive du DSA est publiée au journal officiel. L'entrée en vigueur est fixée au 16 novembre 2022. Quant aux obligations, elles ne seront applicables qu'à compter du 17 février 2024.
Le DSA répond à une volonté de mise à jour de la directive e-commerce 2000 et à l'harmonisation européenne des règles applicables aux responsabilités applicables aux acteurs du numérique afin de remplir trois objectifs : lutter contre les contenus illicites, favoriser la protection des mineurs et renforcer les obligations en matière de transparence. Le DSA ne remplace cependant aucune réglementation sectorielle mais fixe des règles horizontales applicables à tous les services et à tous les types de contenus y compris les biens et services.
Qui est concerné par cette législation ?
Le DSA concerne toutes les plateformes, quelle que soit leur taille. Plusieurs acteurs apparaissent concernés par cette réglementation : le DSA définit ce qu'est un service intermédiaire, c'est-à-dire les services numériques jouant un rôle intermédiaire dans la mise en relation des consommateurs avec les biens, les services et les contenus. Il définit également ce qu'est une plateforme en ligne et ce qu'est un moteur de recherche en ligne. Il donne également la définition de ce qu'est un destinataire actif. Ce texte renforce en outre les responsabilités applicables aux acteurs numériques dont les marketplaces et les réseaux sociaux en maintenant le principe de "responsabilité limitée ou conditionné" (lorsqu'il y a une connaissance effective de l'activité ou de l'information illicite, et en l'absence de non-retrait d'un contenu).
La notion de "contenu illicite" ne fait pas l'objet d'une définition claire à l'échelle européenne, cela revient à dire que les plateformes vont devoir faire du cas par cas pour chaque pays ?
Me Haas : Il n'existe en effet pas de définition précise de la notion de "contenu illicite". Cette notion apparaît en réalité définie par d'autres législations à l'échelle de l'Union européenne ou au niveau national. Par exemple, si une plateforme fait la promotion de produits stupéfiants dans des pays tels que la Belgique ou l'Espagne ou la Hollande où la vente est autorisée, elle ne pourra pas être épinglée. En France, en revanche, un tel contenu apparaît totalement illégal. Ces contenus illicites concernent également les questions de pédopornographique, les idées complotistes, terroristes, définies au niveau national par chaque membre de l'UE.
Quels mécanismes de signalement des contenus illicites sont prévus par le DSA ?
Me Haas : Dès lors qu'il y a une plateforme en ligne, l'hébergeur reçoit une notification du contenu illicite. Le DSA ne reprend pas le formalisme lourd, tel que nous le connaissons en France dans la loi pour la confiance dans l'économie numérique. Le formalisme a été basculé du signaleur à l'hébergeur, faisant apparaître une présomption de connaissance de contenu illicite par l'hébergeur. Un formulaire de signalement doit alors permettre aux utilisateurs de fournir une explication suffisamment détaillée des raisons pour lesquelles ce contenu est considéré comme illicite, les coordonnées de la personne le signalant. Le texte ajoute également la notification de soupçon d'infraction pénale obligeant l'hébergeur à informer les autorités concernées de tout élément faisant craindre la commission d'une infraction pénale présentant une menace pour la vie ou la sécurité des personnes. À ce moment-là, soit l'hébergeur intervient et supprime le contenu, soit il refuse. Attention tout de même à l'obligation pour la plateforme de veiller à ce que ces décisions soient prises par des collaborateurs dûment qualifiés et non uniquement par des moyens automatisés.
Comment le DSA contribue à lutter contre les articles contrefaits et renforce la protection des mineurs ?
Me Haas : De manière générale, toutes les sociétés exerçant en ligne sont tenues de respecter les règles sinon il y a des sanctions importantes librement déterminées par les États membres dans le plafond de 6 % du chiffre d'affaires mondial annuel. Avec le DSA, les plateformes en ligne sont obligées de renforcer leurs contrôles pour lutter contre les contrefaçons et veiller à la protection de leurs utilisateurs mineurs. Elles doivent le faire, elles n'ont pas le choix si elles veulent exister sur le marché européen. Protéger les mineurs et traquer les contrefaçons apparaissent d'ailleurs comme des garanties pour leurs clients et les utilisateurs en général.