« L’entrée en vigueur du Digital Services Act se concrétise : quels changements pour les plateformes numériques et comment anticiper la mise en conformité ? » Par Jean-Sébastien MARIEZ et Laura GODFRIN

Droit des marques Droit des nouvelles technologies Propriété industrielle

Les travaux sur le « Digital Services Act » (DSA), règlement sur les services numériques, sont avant tout motivés par la volonté de dépoussiérer le système de responsabilité applicable aux plateformes numériques. Plus précisément, la naissance du DSA part du double postulat suivant : d’une part, les plateformes ont pris une place primordiale dans notre société, tant dans la vie économique que dans le débat citoyen, d’autre part, la directive E-commerce 2000/31 du 8 juin 2000 qui encadrait jusqu’ici le régime de responsabilité des plateformes ne serait plus adaptée aux services et modèles d’affaires qui se sont développés depuis son adoption.

Présenté en décembre 2020 par la Commission européenne, le DSA a été définitivement voté par le Parlement européen le 5 juillet 2022. Dernière étape avant sa publication au Journal Officiel de l’Union européenne et son entrée en vigueur : le texte doit encore être officiellement adopté par le Conseil en septembre prochain.

Le DSA s’appliquera ensuite 15 mois après son entrée en vigueur ou à partir du 1er janvier 2024, la date la plus tardive étant retenue. Le calendrier est toutefois abrégé pour les « très grandes plateformes » et les « très grands moteurs de recherche » puisque le DSA s’appliquera à ces opérateurs 4 mois après leur désignation par la Commission européenne.

Vue d’avion du DSA :

Premièrement, il est important de noter que le règlement s’appliquera à tous les intermédiaires en ligne qui offrent leurs services sur le marché européen, peu important que ces intermédiaires soient établis en Europe ou ailleurs dans le monde. Sont concernés les hébergeurs, moteurs de recherche, les places de marché en ligne, les plateformes d’économie collaborative ou encore les plateformes de médias sociaux.

Deuxièmement, sans remettre en cause le régime de responsabilité limitée des intermédiaires hérité de la directive E-commerce, le DSA introduit tout un panel de nouvelles obligations visant à lutter contre la diffusion de contenus illicites et produits illégaux, graduées en fonction de la taille et de la nature des fournisseurs de services en ligne.

En particulier, la nouvelle règlementation impose des obligations plus contraignantes aux « très grandes plateformes en ligne » et « très grands moteurs de recherche », définis comme les services comptant plus de 45 millions d’utilisateurs actifs par mois dans l’UE et dont la liste sera publiée par la Commission européenne. A contrario, les micro et petites entreprises (moins de 50 salariés et dont le chiffre d’affaires n’excède pas 10 millions d’euros) seront quant à elles exemptées de certaines obligations.

A noter que le DSA prévoit à son Article 5(3) une exception importante à l’irresponsabilité de l’hébergeur s’il a délivré une information de manière à laisser croire au consommateur que le produit ou service faisant l’objet de la transaction est fourni par lui ou par une personne agissant sous son contrôle.

Troisièmement, malgré la volonté de plusieurs Etats membres (dont la France) de remettre en cause le principe du pays d’origine, celui-ci est finalement préservé. Les opérateurs ne seront donc soumis, à quelques aménagements près, qu’au seul contrôle des autorités de leur pays d’origine. Chaque État membre désignera à cet égard une autorité chargée d’assurer le respect du règlement, laquelle bénéficiera du statut de « Coordinateur des services numériques » (probablement l’ARCOM en France).

Pour assurer une application cohérente et efficace du DSA, le texte prévoit la possibilité, pour ces coordinateurs, de coopérer au sein d’un « comité européen des services numériques » qui pourra mener des enquêtes conjointes dans plusieurs Etats et émettre des recommandations.

De plus, par exception au principe de la compétence exclusive de l’État membre d’établissement, c’est à la Commission qu’est confié le pouvoir de superviser et de contrôler les obligations incombant aux « très grandes plateformes en ligne » et « très grands moteurs de recherche en ligne ».

Quatrièmement, s’agissant des sanctions, celles-ci pourront atteindre jusqu’à 6 % du revenu ou du chiffre d’affaires annuel mondial de la société.

Panel d’obligations nouvelles pour les plateformes : qu’est-ce que cela implique concrètement ?

Tous les opérateurs concernés devront désigner un point de contact unique ou, s’ils sont établis hors UE, un représentant légal. Ils devront également coopérer avec les autorités nationales en cas d’injonction et auront l’obligation d’informer proactivement les autorités de l’État membre concerné en cas de suspicion d’infractions pénales susceptibles de constituer une menace grave pour la vie, ou la sécurité d’une personne.

Le DSA prévoit en outre tout un panel de mesures, graduées selon les acteurs en ligne et leur rôle, dont les principales impliquent les actions suivantes :

  • Aménagement du dispositif de « notice & takedown » :

Actuellement, les procédures de signalement des contenus illicites peuvent être différentes d’un Etat membre à l’autre. Le DSA impose donc la mise en place d’un outil harmonisé, permettant aux utilisateurs de notifier aux plateformes les contenus et produits illicites qu’elles hébergent. Contrairement à ce que prévoit jusqu’ici l’article 6 de la LCEN, c’est désormais aux plateformes de faciliter la notification des contenus. Elles devront pour cela mettre en place un formulaire permettant la transmission des informations visées à l’Article 14§2.

Les plateformes sont également tenues de rendre plus transparentes leurs décisions en matière de modération des contenus et devront prévoir un système interne de traitement des réclamations permettant aux utilisateurs dont le contenu a été retiré ou le compte a été suspendu de contester cette décision.

L’Article 19 du DSA prévoit en outre l’obligation pour les plateformes de coopérer avec des « signaleurs de confiance » (ou « trusted flaggers » en anglais), dont les notifications seront traitées en priorité. Ce statut sera attribué dans chaque pays à des entités ou organisations en raison de leur expertise et de leurs compétences.

  • Revue des Terms & Conditions :

Les plateformes doivent mettre à la disposition des utilisations des CGU rédigés en des termes clairs et compréhensibles, lesquelles devront notamment permettre d’informer les utilisateurs sur :

  • la politique de modération adoptée (la mise en œuvre d’une modération algorithmique, les règles internes pour le traitement des plaintes etc.) ;
  • mais également le fonctionnement des systèmes de recommandation de contenus, autrement dit le fonctionnement des algorithmes qui permettent de renforcer la visibilité de certains contenus pour un utilisateur en fonction de ses intérêts personnels.

 

  • Revue des pratiques en matière de publicité :

Dès lors qu’elles apparaissent sur des plateformes, les publicités devront être présentées comme telles. Les utilisateurs devront pouvoir identifier aisément, à partir de toute publicité, la personne au nom de laquelle l’annonce est diffusée ainsi que les principaux paramètres utilisés pour viser les utilisateurs et la manière de les modifier.

La publicité ciblée pour les mineurs sera interdite pour toutes les plateformes, de même que la publicité basée sur des données sensibles (par ex. la religion ou l’orientation sexuelle).

  • Prohibition des « dark patterns » :

Les « dark patterns », qui sont des techniques conçues « pour déformer ou altérer la capacité des destinataires de services à prendre une décision ou à faire un choix libre, autonome et informé », sont désormais interdits. Dans une certaine mesure, elles peuvent être liées à des pratiques commerciales déloyales prohibées par le code de la consommation.

La Commission devrait publier des lignes directrices permettant d’éclairer cette notion. En attendant, la lecture des lignes directives adoptées en mars 2022 par le CEPD pour identifier et éviter les pratiques de dark patterns dans les interfaces des plateformes de médias sociaux s’avèrent éclairantes en ce qu’elles permettent d’identifier les principaux exemples de dark patterns.

  • Préparation des rapports de transparence

Les plateformes ont l’obligation de publier au moins une fois par an un rapport des procédures de modération engagées, incluant une liste d’informations détaillée aux Articles 13 et 23 (le nombre d’injonction reçues de la part des Etats membres, le nombre de signalements, de litiges extrajudiciaires, de suspension…).

  • Les marketplaces, visées par des obligations complémentaires :

Les marketplaces font l’objet d’obligations particulières :

  • Elles devront afficher un certain nombre d’informations relatives aux produits et services qu’elles vendent et proposer une interface sur laquelle permettant aux vendeurs de se conformer aux obligations qui leur incombent en vertu du droit de l’UE.
  • Elles devront également détenir des informations permettant de tracer les vendeurs de biens et services illicites.
  • Enfin, si la place de marché a connaissance qu’un produit ou un service illégal est proposé par le biais de ses services, celle-ci a l’obligation d’en informer les destinataires du service qui ont acquis le produit ou souscrit au service dans les 6 derniers mois.

Quelles obligations complémentaires pour les très grands acteurs ?

Enfin, le DSA crée un régime propre aux très grandes plateformes et très grands moteurs de recherche afin de prévenir les risques « systémiques » qu’ils sont susceptibles d’engendrer. Ils sont ainsi soumis à des obligations additionnelles en matière de publicité : d’une part, ces grands acteurs ont ainsi l’obligation de proposer aux utilisateurs un système de recommandation alternatif non fondé sur leur profilage et, d’autres part, ils sont soumis à des obligations de transparence renforcées et devront à cet égard mettre à disposition du public un registre des publicités contenant diverses informations (qui a parrainé l’annonce, quels paramètres de ciblage sont utilisés etc.). Ces grands acteurs ont également l’obligation de publier des rapports de transparence enrichis.

Mais surtout, ils devront, pour se conformer au DSA :

  • analyser chaque année les risques systémiques qu’ils génèrent (sur la haine en ligne, les droits fondamentaux, la santé publique…) ;
  • prendre les mesures pour atténuer ces risques ;
  • effectuer tous les ans des audits indépendants de réduction des risques, sous le contrôle de la Commission européenne.

Ces grands acteurs devront enfin coopérer dans le cadre d’un protocole de crise touchant la sécurité ou la santé publique, se soumettre à des obligations d’accès aux données (soit aux fins de contrôle soit aux fins de recherches) et, pour faciliter les échanges, désigner un délégué

« L’entrée en vigueur du Digital Services Act se concrétise : quels changements pour les plateformes numériques et comment anticiper la mise en conformité ? » Par Jean-Sébastien MARIEZ et Laura GODFRIN, Momentum Avocats

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.