Ce mercredi, peu avant 18h30, les députés ont adopté la proposition de loi contre la cyberhaine. Dans une assemblée conquise au groupe LREM, la députée n’a pas eu de grande difficulté à faire passer son texte. Next INpact vous l'explique, ligne par ligne.

Et ce texte va bien plus loin, lorsqu’on soulève son couvercle. Les députés l'ont adopté ce mercredi en nouvelle lecture ( sa version PDF ). Que prévoit-il ? Sans revenir sur l’ensemble des versions, nous vous en proposons une analyse ligne par ligne qui devrait vous permettre de mieux en comprendre les rouages.

Mais entre 2004 et 2019, il y a un monde. Les réseaux sociaux ont pris l’ampleur que l’on sait, avec un rôle social fondamental, où évidemment les abus existent puisqu’ils ne sont finalement que le miroir de notre société. La proposition de loi Avia est arrivée dans ce contexte. L’idée ? Isoler une série d’infractions qui devra être retirée non « promptement » mais dans les 24 heures, et pas une seconde de plus !

Ce régime opère un équilibre subtil entre plusieurs plateaux : la protection du commerce électronique et de la liberté d’entreprendre, la nécessaire lutte contre les infractions et la tout aussi précieuse consécration des libertés (d’expression, d’information et de communication).

Lorsque notre intermédiaire technique est face à un contenu manifestement illicite, il doit le supprimer « promptement ». Pas dans six mois. Pas après un dixième de seconde. L’agenda de cette suppression dépend des circonstances, sous l’œil des tribunaux qui ne se gênent évidemment pas pour sanctionner celui qui aurait trop tardé à réagir.

En l’occurrence, a-t-il détaillé, l’illicéité dont il est ici question ne peut être que manifeste. On parle de « manifestement illicite ». Depuis 2004, la jurisprudence s’est longuement penchée sur cet adverbe pour aiguiser peu à peu un édifice : le droit de la responsabilité des hébergeurs techniques.

Lorsque le Conseil constitutionnel a ausculté cette loi, il a toutefois introduit une réserve d’interprétation. Une technique juridique permettant de déclarer un texte conforme, mais seulement s’il est lu sous un angle précis.

L’article 6 de cette fameuse LCEN organise une responsabilité naturelle : un hébergeur comme YouTube ou Twitter n’est pas responsable des infractions commises par les internautes sur ses machines. Mais il le devient si, alors qu’alerté par un autre internaute par exemple, il décide de maintenir une vidéo, un texte, une photo, une musique problématique. Il sait que ce contenu est illicite, mais assume sa persistance. Et donc devient responsable comme son auteur.

Le texte concentre son attention sur une loi de 2004 fondamentale. La loi sur la confiance dans l'économie numérique (LCEN). C'est elle qui orchestre la responsabilité des « hébergeurs » en opposition avec celle d’« éditeurs ». Si ces derniers contrôlent et savent ce qu’ils diffusent au plus grand nombre (un site de presse, par exemple, sait ce qu'il diffuse), l’hébergeur ne contrôle pas a priori et ne sait donc pas ce que l’internaute va transférer sur ses infrastructures.

Rendu en mai 2019, l’avis du Conseil d’État avait suggéré plusieurs modifications que la députée s’était empressée d’engager. Mais ce parapluie juridique ne fut pas absolu puisque la Commission européenne a malgré tout repéré de lourdes indélicatesses avec le droit européen. Et pas des moindres, comme l'existence d'un filtrage généralisé, en pleine contrariété avec la directive de 2000 sur le e-commerce (voir ces « observations » , révélées dans nos colonnes).

Et pour cause, lutter contre la haine en ligne, c’est inexorablement toucher à la liberté de communication, d’information et d’expression. S’il s’agit certes d’en dénoncer les abus, cela revient aussi à opposer les expressions citoyennes énervées au franchissement du seuil infractionnel. Pas simple.

Une proposition de loi, texte d’origine parlementaire, est dénuée d’étude d’impact contrairement aux projets de loi gouvernementaux. Elle se passe également de l’avis du Conseil d’État. Pour le coup, la députée LREM l’avait tout de même transmis 1, Place du Palais Royal pour solidifier juridiquement sa construction tant le sujet est sensible.

La proposition de loi contre la cyberhaine avait été déposée en mars 2019. Sans surprise, c’est désormais un réflexe, le gouvernement actionnait la procédure dite accélérée afin de limiter le nombre de navettes entre Assemblée et Sénat.

Le blocage administratif en 1 heure des sites « pédo » et « terro »

Cette disposition de tête a été introduite par amendement gouvernemental quelques heures avant la séance. Comme un cheveu sur la soupe. Il met à jour une disposition de l'article 6-1 de la LCEN, celle instaurant le blocage administratif des sites diffusant des contenus « pédo », faisant l’apologie ou incitant au terrorisme.

Jusqu’à présent, ce blocage sans juge laissait 24 heures aux éditeurs des sites et aux hébergeurs pour supprimer le contenu signalé par la police. Le gouvernement a souhaité ramener ce délai à... 60 minutes.

Si le site ne réagit pas, il risquera une condamnation voire un blocage par les fournisseurs d’accès qui interviendront sur ordre des mêmes autorités. La mesure n’est pas neutre : d’une part, qualifier une apologie du terrorisme est parfois très complexe. De deux, le délai d’une heure impose que l’éditeur ou l’hébergeur soit accessible 24 heures sur 24 et 365 jours par an (notre actualité).

Le retrait des contenus haineux en 24 heures

« C'est le cœur du texte », comme nous le soulignait la députée Laetitia Avia. L'obligation de retrait pèse sur les plateformes et les moteurs. Autant, on voit ce qu'est un moteur, mais une plateforme ?

La notion est définie par le Code de la consommation. Ce sont tous les sites « proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur la mise en relation de plusieurs parties en vue de la vente d'un bien, de la fourniture d'un service ou de l'échange ou du partage d'un contenu, d'un bien ou d'un service ».

Une définition donc très large qui englobe des pans entiers du statut de l’hébergeur ! Pour éviter de faire tomber tout le Web dans cette définition, et donc la future loi Avia, seules seront concernées les plateformes dépassant un seuil. Quel seuil ? On ne le sait pas puisqu’il sera déterminé par un décret à venir.

Ces acteurs devront en tout cas retirer ou rendre inaccessible, dans un délai de 24 heures après réception d’une notification adressée par un ou plusieurs internautes, « tout contenu contrevenant manifestement » à une série d’infractions. La liste est (très) longue :

Apologie des crimes d’atteinte volontaire à la vie, d’atteinte volontaire à l’intégrité de la personne, d’agression sexuelle, de vol aggravé, d’extorsion, de destruction, de dégradation ou détérioration volontaire dangereuse pour les personnes, des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou des crimes et délits de collaboration avec l’ennemi, y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs

Provocation à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion

Provocation à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l’égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du Code pénal

Contestation de l'existence des crimes contre l'humanité, négation, minoration ou banalisation des crimes de génocides, des crimes de réduction en esclavage ou des crimes de guerre

Injure commise par les mêmes moyens envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée

Injure commise dans les mêmes conditions envers une personne ou un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap

Harcèlement sexuel

Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d’image pornographique d’un mineur ; consultation habituelle ou en contrepartie d’un paiement d’un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs

Fabrication, transport, diffusion ou commerce de message pornographique susceptible d’être vu ou perçu par un mineur

Provocation directe à des actes de terrorisme ou apologie publique de ces actes

En clair, quand Twitter recevra une notification signalant un tweet se rattachant manifestement à l’une de ces infractions, il devra appuyer sur le bouton « Supprimer ». Et Google, Bing ou Qwant devront gommer ces mêmes contenus de la page des résultats, en réponse à une requête.

Hier, lors des débats en nouvelle lecture, les députés ont ajusté le périmètre de ces infractions. Par exemple, la version antérieure intégrait les contenus violents « susceptibles » d’être vus par les mineurs. La mention a désormais disparu.

Crédits : Marc Rees (licence CC-BY-SA 3.0)

Les contenus devront « contrevenir manifestement » ces dispositions, disait-on. La violation devra donc être flagrante. Voilà pourquoi Laetitia Avia a dit plusieurs fois que les contenus « gris », ceux dont le statut illicite n’est donc pas aussi évident, pourront être maintenus. Seulement, séduisante sur le papier, cette présentation d’une logique implacable souffre lors du basculement dans la complexité de la réalité.

Par exemple, quand finit l’érotisme et où débute la pornographie ? Qu’est-ce qu’un contenu « susceptible d’être vu ou perçu par un mineur » ? Et l’injure envers une personne à raison du sexe ? Entre l’humour gras, celui de comptoir et la vraie injure infractionnelle, la frontière peut être floue, mais Twitter devra se débrouiller.

En cas de doute, la députée assure que la plateforme pourra toujours saisir un tribunal. Sauf qu’on imagine mal une telle procédure lorsque des milliers de notifications sont réceptionnées, au surplus au regard des moyens dévolus à la Justice.

Lorsque de tels faits sont auscultés par un tribunal, celui-ci pèse les éléments en présence, va interpréter le droit pénal strictement et rendre une décision. Bref, rendre justice. Cette fois, Twitter, Instagram, Facebook, YouTube, Google et les autres n’auront que 24 heures pour se déterminer.

Et s’ils ne suppriment pas un contenu qui aurait dû être pulvérisé, chacun risquera 250 000 euros. Par oubli.

On comprend sans mal la crainte soulevée par la proposition de loi : par précaution, les plateformes et moteurs pourraient supprimer à tour de bras, même des contenus gris, ce pour limiter le risque de condamnation. Le texte ne prévoit pas en effet d'équivalence des formes, à savoir l'infraction pénale pour cause de retrait abusif d’un contenu qui aurait dû être maintenu.

Une mention a été toutefois ajoutée selon laquelle « le caractère intentionnel de l’infraction (…) [pourra] résulter de l’absence d’examen proportionné et nécessaire du contenu notifié ». L’infraction sera donc intentionnelle. Il faudra démontrer cette volonté, mais elle pourra être déduite de l’absence d’examen sérieux des notifications adressées par un ou plusieurs internautes. Délicat.

Des contenus remplacés en surface, conservés en coulisse

Les acteurs qui suppriment un contenu devront remplacer ces pixels vides par « un message indiquant qu’il a été retiré ». L'effacement ne sera que de surface. En arrière-plan, plateformes et moteurs devront conserver ces propos haineux « pendant le délai de prescription de l’action publique pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales ». Cette obligation ne concernant que le message, restera à savoir si la conservation vaudra aussi pour les données de connexion qui sont en principe conservées « seulement » un an (dont l’adresse IP).

Le filtrage exigé par une décision de justice

Une disposition (que l’on retrouve déjà dans la LCEN ou dans le Code de la propriété intellectuelle) prévoit qu’un tribunal pourra prescrire en référé ou sur requête aux plateformes et moteurs « toutes mesures propres à prévenir ou faire cesser un dommage occasionné par un contenu » manifestement rattaché à la liste des infractions.

Prévenir un dommage, c’est orchestrer un filtrage des contenus. Mais comme celui-ci sera ciblé à une expression, et sans doute sur une période limitée, il devrait passer entre les griffes de l’interdiction de la surveillance généralisée inscrite dans la directive de 2000 sur le commerce électronique.

L’intervention des associations de défense

Des associations luttant contre l’esclavage, le racisme, les discriminations, défendant les déportés, les victimes de guerre, etc. âgées d’au moins cinq ans pourront exercer les droits des victimes des infractions identifiées dans la liste noire.

Sanction des dénonciations fallacieuses

La personne qui dénoncera aux plateformes ou aux moteurs un contenu ou une activité comme étant illicite « dans le but d’en obtenir le retrait ou d’en faire cesser la diffusion alors qu’elle sait cette information inexacte » risquera un an d’emprisonnement et 15 000 euros d’amende. Il faudra toutefois démontrer qu’elle savait l’information inexacte, ce qui ne sera pas si simple. Une infraction similaire existe déjà dans la LCEN, rédigée dans des termes similaires.

Enfin, le texte étend la liste des infractions pour lesquelles les hébergeurs « doivent concourir à la lutte contre la diffusion des infractions » en particulier en mettant en place « un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données ». Ils doivent aussi informer « promptement les autorités publiques compétentes » et rendre publics les moyens consacrés contre ces activités. Bref, les députés ont rajouté à cette liste l'incitation à la haine à l’égard des personnes à raison de leur « identité de genre ».

Le formalisme des notifications

Pour qu’un hébergeur soit en situation de connaissance quant à l’existence d’un contenu manifestement illicite, la proposition de loi Avia réécrit le formalisme attendu de ces signalements.

On se souvient que dans une version précédente, la députée avait tenté de supprimer l’obligation de préciser la localisation du contenu litigieux. Les grondements de la Commission européenne l’ont remis sur le droit chemin. Et pour cause, si la plateforme ne sait pas où est le contenu posant souci, comment peut-elle être en situation de connaissance ?

En substance, lorsque le notifiant sera une personne physique, il devra comme aujourd’hui préciser ses nom, prénom, adresse, électronique, etc. Il faudra aussi spécifier « les motifs légaux pour lesquels le contenu litigieux devrait être retiré ou rendu inaccessible ». Toutefois, cette condition sera réputée satisfaite dès lors que le site dispose d’un formulaire « proposant d’indiquer la catégorie d’infraction à laquelle peut être rattaché ce contenu litigieux ».

Dans la LCEN, le notifiant doit impérativement contacter préalablement l’auteur ou l’éditeur du contenu en cause. Cette obligation disparaît pour plusieurs infractions « haineuse », afin d’éviter qu’une victime n'ait à se confronter davantage à son auteur plus qu'indélicat.

Les associations et les mineurs

Les associations dont l’objet comporte la protection des enfants, constituées depuis au moins cinq ans pourront être saisies par un mineur pour notifier une plateforme ou un moteur.

Elle devra informer ce mineur des suites et, « selon des modalités adaptées à l’intérêt de l’enfant, ses représentants légaux ». Ce dernier point a été contesté (vainement) par le député MoDem Philippe Latombe, craignant par exemple que les parents découvrent par la même occasion l’orientation sexuelle de leur adolescente.

L’association pourra enfin contester le défaut de retrait du contenu.

Le devoir de coopération des plateformes dans la lutte contre les contenus haineux

Les articles 2 et 3 prévoient une série d’obligations de moyens que devront respecter les plateformes. Elles devront être mises en œuvre proportionnellement au regard de l’atteinte susceptible d’être portée à la dignité humaine par un contenu. La disposition fait entrer sur la scène le CSA, nouveau gendarme de la haine en ligne.

Quelles sont ces obligations ?

Mettre en place d’un dispositif de notification uniforme directement accessible, facile d’utilisation et en français

Accuser réception de toutes les notifications, sans délai

Informer l’auteur d’une notification des suites et des motifs de la décision dans les 24 heures

Mettre en œuvre les procédures et les moyens humains et, le cas échéant, technologiques proportionnés pour garantir le traitement de ces notifications, leur examen et la prévention des risques de retrait injustifié. Derrière ces moyens, se cacheront évidemment des traitements algorithmiques que devront utiliser les intermédiaires pour absorber les demandes de retrait

Mettre en place des recours internes, afin de permettre à l’internaute à l’origine de la publication de faire un recours contre la décision (situation qui sera généralement impossible pour les moteurs), et à l’auteur de la notification de contester le défaut de retrait

Fournir une information accessible sur la liste noire des infractions à retirer en 24 heures, avec les sanctions encourues y compris en cas de dénonciations fallacieuses, et enfin les recours

Rendre compte des moyens humains et technologies pour réguler ces contenus

Fournir une information spécifique pour les mineurs de moins de 15 qui voudraient s’inscrire à leur service.

Informer « promptement » les autorités publiques compétentes des activités ayant justifié un retrait en moins de 24 heures

Désigner un représentant légal en France. Il sera chargé de recevoir les demandes de la justice ou du CSA

Rédiger clairement leurs CGU

Last but not least, les opérateurs devront se conformer aux délibérations prises par le Conseil supérieur de l’audiovisuel (et demain l’Arcom) pour fixer les règles permettant d’assurer le respect de toutes ces obligations. C’est donc cette autorité qui fixera le cap structurel de la régulation.

Sanction en hausse dans la LCEN

La violation de la disposition phare de la LCEN sur la responsabilité des intermédiaires est aujourd’hui sanctionnée à hauteur de 75 000 euros. Demain, le montant sera de 250 000 euros pour les personnes physiques. Et 1,25 million d’euros pour les personnes morales. Montant décidé par un tribunal.

Rôle du CSA dans la lutte contre les contenus haineux en ligne

Le rôle du CSA dans l’application des obligations précitées est consacré. Dans une logique de proportionnalité, il ne pourra faire peser les mêmes contraintes sur les opérateurs. Il prendra en compte « la pluralité des modèles (…) et l’adéquation des moyens mis en œuvre par chacun d’eux à la lutte contre la diffusion de contenus haineux en ligne ».

En somme, celui qui traine la patte devra s’attendre à une attention plus soutenue. Il examinera le suivi des obligations et dressera un bilan applicatif chaque année. Le rapport sera publié. Il pourra recueillir auprès des opérateurs « toutes les informations nécessaires au contrôle des obligations ».

L’opérateur qui ne satisferait pas l’une d’elles pourra être mis en demeure. Les surcensures (les retraits excessifs) pourront peser dans l’appréciation du CSA lorsqu’il grondera la plateforme sur les moyens humains et technologiques déployés.

Celui qui ne se conforme pas à une mise en demeure risquera jusqu’à 20 millions d’euros ou une amende de 4 % du chiffre d'affaires mondial. Bien entendu, cette amende administrative, prévue dans le cadre d’une obligation de moyen, devra être proportionnée et donc dépendre de la part de marché occupée en France. Le Conseil supérieur de l’audiovisuel pourra rendre publiques ces mises en demeure et les sanctions.

Les encouragements du CSA

Un volet « encouragement » et donc d'accompagnement est aussi attendu du Conseil. Partage d’information dans un format ouvert entre les opérateurs, mise en œuvre d’outils permettant de stopper la viralité d’un contenu manifestement haineux… Les plateformes et les moteurs pourront ignorer ces suggestions comme les respecter religieusement.

Pour l'accomplissement de ses missions, le CSA pourra en tout cas recueillir auprès de ces structures « toutes les informations nécessaires au contrôle des obligations ». Il aura notamment accès « aux principes et méthodes de conception des algorithmes ainsi qu’aux données utilisées par ces algorithmes pour se conformer ». Ce n’est pas un accès total aux algorithmes, mais on s’y approche.

Au détour d’une disposition, la proposition de loi Avia effectue un changement de casquettes dans le contrôle des mesures de blocage administratif. Si aujourd’hui c’est une personnalité qualifiée de la CNIL qui contrôle les contenus épinglés par l’OCLCTIC, demain, cette personnalité sera choisie par le Conseil supérieur de l’audiovisuel.

Amélioration de la lutte contre la diffusion de contenus haineux en ligne

Le blocage des sites miroirs

L’article 6 de la loi orchestre une mesure pour lutter contre les sites miroirs. Lorsqu’une décision de justice ordonnera le blocage d’un site hébergeant des contenus raccrochés aux infractions « haineuses », les policiers de l’OCLCTIC pourront demander aux FAI d’étendre le blocage à d’autres sites « reprenant le contenu du service visé par ladite décision en totalité ou de manière substantielle ». Cette demande pourra être adressée aux moteurs, annuaires et autres services de référencement. S’ils refusent, l’office central pourra saisir la justice pour espérer une extension du blocage.

Une liste noire tenue à disposition de l’univers de la publicité

Une liste noire de ces sites sera tenue à jour par ces mêmes policiers. Elle sera mise à disposition des annonceurs et des services d'achat, de stockage et de diffusion de messages publicitaires, de contrôle publicitaire et de mesures de performance ainsi par les services de gestion et de transmission de données relatives aux utilisateurs.

L’idée ? Que l’univers de la pub ferme les robinets pour asphyxier financièrement les sites diffusant ces contenus « haineux » déjà épinglés par la justice dans une décision de blocage. Ces acteurs seront de plus tenus de révéler au minimum une fois par an sur leurs sites Internet l’existence de relations avec ces sites, et d’en faire l’écho également dans leur éventuel rapport annuel. On nage en plein Name and Shame.

Renforcement de l’efficacité de la réponse pénale à l’égard des auteurs

L’article 6 bis A créé un tribunal judiciaire et un parquet spécialisé ayant compétence concurrente avec les juridictions habituelles. Une juridiction pourra au besoin interdire à une personne « d’adresser des messages à la victime, de façon directe ou indirecte, par tout moyen, y compris par voie électronique. »

Toujours sur le terrain des procédures, le délit de refus de retrait d’un message manifestement illicite pourra être jugé par le tribunal correctionnel est composé d’un seul magistrat.

Prévention de la diffusion de contenus haineux en ligne

Le Code de l’éducation est mis à jour pour assurer que les établissements d’enseignement (écoles, collèges et lycées, etc.) assurent une mission d'information sur les violences « y compris en ligne ». Les instituts nationaux supérieurs du professorat et de l'éducation qui préparent les futurs enseignants devront organiser des formations de sensibilisation à la lutte contre la diffusion de contenus haineux.

Dispositions finales, des articles appliqués à partir de juillet 2020

Un observatoire de la haine en ligne est créé. Il jaugera le suivi et l’analyse de l’évolution des contenus « haineux » en ligne. Il travaillera avec les opérateurs, les associations, les administrations et les chercheurs « concernés par la lutte et la prévention contre ces infractions ». Il sera placé auprès du Conseil supérieur de l’audiovisuel.

Enfin, il est prévu un calendrier pour l’entrée en vigueur de certaines dispositions. Les obligations de moyen listées aux articles 2 et 3 entreront par exemple le 1er juillet 2020, tout comme les dispositions relatives au rôle du CSA.

Le texte n’a toutefois pas terminé son long parcours législatif. Il revient en commission des lois au Sénat le 5 février, puis le 26 en séance où ces élus pourront revenir à la charge. Une charge sans doute vaine puisque les députés ont le dernier mot dans la procédure législative française.

Laetitia Avia est donc assurée de pouvoir maintenir les principales dispositions face à un hémicycle où le groupe LREM est en majorité. Viendra enfin l'examen du Conseil constitutionnel, si du moins celui-ci est saisi.