Comment réguler les réseaux sociaux et par qui ?

Haine en ligne : des obligations de transparence pour les réseaux sociaux

Le gouvernement a saisi l’occasion du projet de loi « confortant les principes de la République » pour proposer un amendement qui vise à soumettre les plates-formes à des règles en matière de modération. 

Par Alexandre PiquardPublié le 18 janvier 2021 à 12h00  

https://www.lemonde.fr/politique/article/2021/01/18/haine-en-ligne-des-obligations-de-transparence-pour-les-reseaux-sociaux_6066656_823448.html

Temps de Lecture 2 min. 

Comment réguler les réseaux sociaux après la sèche censure par le Conseil constitutionnel de la loi Avia sur les contenus haineux sur Internet, en juin 2020 ? Comment imposer des règles en France à Facebook, Twitter ou YouTube, alors qu’est discuté depuis mi-décembre un projet de régulation au niveau européen ? Face à ce double défi, le gouvernement a choisi de saisir l’opportunité du projet de loi « confortant les principes de la République » : il y a introduit, vendredi 15 janvier, un amendement soumettant les plates-formes numériques à des obligations en matière de modération des contenus haineux en ligne.

 Lire aussi  Projet de loi contre les « séparatismes » : la majorité se divise et les oppositions se cherchent

« La seule urgence, c’est celle de l’efficacité contre la haine en ligne, qui explose dans toutes les démocraties », justifie Cédric O, le secrétaire d’Etat au numérique. Le gouvernement a voulu « apporter une réponse » après l’affaire Samuel Paty, cet enseignant décapité le 16 octobre. D’où l’idée de légiférer avant le vote du texte européen Digital Services Act, pas attendu avant 2022.

Le nouvel amendement gouvernemental cherche-t-il à ressusciter la controversée Avia ? Pas vraiment. « La différence, c’est l’absence d’objectif de résultat imposant un retrait dans un certain délai », reconnaît Cédric O. On a écarté la disposition la plus polémique : l’injonction faite aux réseaux sociaux de supprimer sous vingt-quatre heures les contenus haineux manifestement illicites. Car celle-ci aurait poussé les plates-formes à censurer de nombreux contenus légaux, comme l’a rappelé le Conseil constitutionnel.

Lire aussi  La loi Avia contre la haine en ligne largement retoquée par le Conseil constitutionnel

Moins répressive et moins clivante, la nouvelle proposition « colle au futur texte européen », note le secrétaire d’Etat. En effet, l’amendement vise surtout à imposer aux réseaux sociaux « des obligations de moyens et de transparence ». Ceux-ci seront tenus de décrire leur politique de modération des contenus haineux : combien de contenus retirés, dans quel délai, pour quel motif, etc.

« Impunité »

Les plates-formes devront y consacrer des « moyens humains et technologiques proportionnés ». Et respecter certains points de procédure, comme la possibilité pour l’utilisateur de déposer un recours, notamment pour les cas les plus graves, comme la résiliation d’un compte.

Enfin, les plates-formes devront améliorer leur coopération avec la justice, en répondant aux demandes d’identification d’auteurs de propos haineux et en conservant temporairement les contenus retirés « aux fins de les mettre à disposition de l’autorité judiciaire ». Il s’agit de lutter contre l’« impunité » des auteurs, estime la députée LRM Laetitia Avia.

La supervision de ces obligations est confiée au Conseil supérieur de l’audiovisuel (CSA), qui était déjà chargé de la surveillance des plates-formes dans d’autres textes, dont la loi de lutte contre la manipulation de l’information, dite « fake news », de fin 2018. Dans son premier rapport d’application, le CSA avait, toutefois, regretté que les réseaux sociaux ne soient pas assez transparents, notamment sur leurs algorithmes de modération automatisée. Désormais, le régulateur pourra prononcer des sanctions allant jusqu’à « 6 % du chiffre d’affaires mondial de la plate-forme ».

Alexandre Piquard

La suspension des comptes de Donald Trump et le débat sur la régulation des réseaux sociaux

Des politiques de tous bords voient dans la suspension des comptes Twitter, Facebook et YouTube une menace sur la liberté d’expression de la part des plates-formes, qui, parfois, sont au contraire accusées de laxisme. 

Par Alexandre Piquard Publié le 11 janvier 2021 à 18h31 – Mis à jour le 12 janvier 2021 à 09h01  

https://www.lemonde.fr/economie/article/2021/01/11/comment-reguler-les-reseaux-sociaux-le-cas-trump-relance-le-debat_6065896_3234.html

Temps de Lecture 5 min. 

Devant le siège de Twitter, le 11 janvier à San Francisco (Californie).
Devant le siège de Twitter, le 11 janvier à San Francisco (Californie). NOAH BERGER / AP

Les réseaux sociaux sont-ils trop laxistes envers la haine en ligne ? Ou exercent-ils, au contraire, une censure privée excessive qui menace la liberté d’expression ?

Ce débat est ravivé par la suspension des comptes du futur ex-président des Etats-Unis Donald Trump – définitive sur Twitter, temporaire sur Facebook et YouTube. Au-delà des critiques sur ces décisions, se pose la question des solutions à apporter pour mieux réguler ces puissantes plates-formes d’expression publique

.Lire aussi  Après les violences au Capitole, Twitter supprime 70 000 comptes liés à la mouvance QAnon

En France, les critiques ont fusé de tous bords. Le leader de la France insoumise, Jean-Luc Mélenchon, a jugé sur Twitter que « le comportement de Trump ne peut servir de prétexte pour que les GAFA [Google, Apple, Facebook et Amazon] s’arrogent le pouvoir de contrôler le débat public. » « La suspension du compte de Trump, la purge des géants du numérique contre ses partisans, devraient indigner tout citoyen attaché à la démocratie », écrit la leader du Rassemblement national, Marine Le Pen.

Dans la majorité macroniste, le secrétaire d’Etat au numérique, Cédric O, a aussi écrit sur Twitter que « la régulation du débat public par les principaux réseaux sociaux au regard de leurs seules CGU [conditions générales d’utilisation], alors qu’ils sont devenus de véritables espaces publics et rassemblent des milliards de citoyens, cela semble pour le moins un peu court d’un point de vue démocratique ».

« La régulation des géants du numérique ne peut pas se faire par l’oligarchie numérique elle-même », a renchéri le ministre de l’économie, Bruno Le Maire, sur France Inter. Il faut une nouvelle « supervision démocratique », a annoncé Cédric O.

En Allemagne, Angela Merkel a elle aussi trouvé « problématique » la fermeture du compte de M. Trump. Si les plates-formes « ont une très grande responsabilité »et « ne doivent pas rester sans agir » face à des contenus haineux, il revient au législateur de « définir un cadre dans lequel la communication sur les réseaux sociaux puisse se faire », a expliqué son porte-parole.

 Lire aussi  Parler, Gab, Telegram… après Twitter, les pro-Trump en quête de nouveaux réseaux sociaux

Imposer plus de transparence

Mais que faire ? Le paradoxe est que la France, comme l’Allemagne, se sont déjà distinguées en Europe pour avoir voté des législations controversées de régulation des réseaux sociaux : la loi contre les contenus haineux sur Internet de la députée (La République en marche) de Paris Laetitia Avia, en mai 2020, et la loi « NetzDG », de janvier 2018, outre-Rhin.

Le texte français a été jugé trop répressif, parce qu’il imposait aux plates-formes de supprimer les contenus haineux sous vingt-quatre heures. Le Conseil constitutionnel l’a d’ailleurs censuré, y voyant « une atteinte à l’exercice de la liberté d’expression qui n’est pas nécessaire, adaptée et proportionnée »Comme en Allemagne, les critiques craignaient que les réseaux sociaux « surcensurent » des contenus légaux afin d’éviter les sanctions.

Après ce lourd revers, le gouvernement privilégie désormais une autre piste, celle des « obligations de moyens » : il s’agit de forcer les réseaux sociaux à être transparents sur leurs méthodes de modération, les moyens qui y sont consacrés et les résultats obtenus, sous peine de sanctions.

Lire aussi l’analyse : Fermeture du compte Twitter de Donald Trump : le bal des hypocrites

C’est aussi l’approche du projet de régulation européen Digital Services Act (DSA), présenté le 15 décembre 2020. « Le DSA permettra de veiller en temps réel à ce que les plates-formes aient les moyens de se conformer aux injonctions concernant les manquements qui seraient constatés », a vanté le commissaire au marché intérieur, Thierry Breton, dans une tribune au Figaro, qualifiant l’exclusion de M. Trump de « 11-Septembre de l’espace informationnel ».

L’approche des obligations de moyens pose toutefois certaines questions. Prônée dans le rapport de la mission menée par des régulateurs français chez Facebook en 2018, celle-ci était déjà présente dans la loi Avia et dans la loi sur les « fake news » voulue par Emmanuel Macron. Mais, comme l’a montré le premier rapport d’évaluation de ce texte par le Conseil supérieur de l’audiovisuel (CSA), l’enjeu est d’obtenir que les réseaux sociaux partagent réellement des informations sur le nombre de contenus signalés et retirés, les motifs, les délais, les recours… Et aussi qu’ils dévoilent les mécanismes de leurs algorithmes de classement des contenus.

Lire aussi  Loi « fake news » : le CSA veut davantage de transparence des réseaux sociaux

Le DSA prévoit que les régulateurs du type CSA puissent faire des « audits ». L’affaire Trump montre aussi qu’il faudrait probablement réclamer d’autres informations : les suppressions de comptes, la modération de personnalités publiques, voire les mesures intermédiaires, comme les avertissements accolés aux fausses informations. Dans tous les cas, la mise en œuvre effective de cette nouvelle supervision sera un des enjeux du texte attendu en 2022.

Changer le modèle des réseaux sociaux

Une autre voie actuellement débattue est le recours à la justice, afin d’éviter l’instauration d’une « justice privée » par les grandes entreprises privées américaines. Laetitia Avia a notamment œuvré dans ce sens en prônant la création d’un « parquet numérique spécialisé » mis en place fin 2020, ainsi que d’une procédure de plainte en ligne, à venir cette année. Le but : lutter contre « l’impunité » des pourvoyeurs de haine en ligne, explique la députée.

Là encore, les réseaux seraient appelés à collaborer en livrant plus vite les coordonnées des auteurs de propos illégaux. Mme Avia envisage aussi de demander aux services de transmettre à la justice les contenus les plus graves supprimés automatiquement par leurs algorithmes.

De plus, le ministère de la justice a proposé en novembre 2020 une procédure de comparution immédiate pour les propos haineux en ligne. Des condamnations sont parfois déjà prononcées mais l’exécutif veut les favoriser pour créer un effet de dissuasion. Reste que cette approche pose la question récurrente des moyens alloués à la justice…

Lire aussi  Une procédure de comparution immédiate pour les propos haineux en ligne

Enfin, un dernier axe de réflexion irrigue les débats : la réforme de l’architecture technique des réseaux sociaux, afin de réduire leur pouvoir d’amplification des contenus les plus viraux, souvent clivants ou haineux.

« C’est sur cette mécanique de captation de l’attention qu’il faut intervenir, en cassant le bouton retweet, le hashtag, et en ajoutant de la friction dans le processus de propagation de l’information », a estimé lundi Dominique Boullier, professeur de sociologie à Sciences Po Paris, dans Libération. Face aux critiques, Twitter a ainsi récemment ajouté un avertissement mettant en garde l’internaute quand il veut partager un article qu’il n’a pas lu. WhatsApp a limité le transfert de messages à cinq personnes maximum.

 Lire aussi  « Bientôt des limitations de vitesse sur Facebook ou Twitter »

Dans le même esprit, le PDG de Twitter a récemment imaginé que les internautes puissent un jour choisir entre différents algorithmes de classement de contenus, fabriqués par des tiers. D’autres, comme l’association de défense des libertés La Quadrature du Net, voient le salut dans l’éclosion d’une galaxie décentralisée de réseaux sociaux alternatifs, plus petits et dotés de politiques de modération différentes. L’association souhaite donc voir imposée l’interopérabilité, qui obligerait les grandes plates-formes à permettre la communication avec des services concurrents.

 Lire aussi *** « Il ne faut pas réguler Facebook ou Google mais s’en libérer »

D’autres, enfin, croient au modèle payant pour casser la logique d’audience liée au financement par la publicité. Là encore, les obstacles ne manquent pas. L’approche par la concurrence entre plates-formes peut-elle suffire à changer les pratiques ? Et les internautes seront-ils vraiment intéressés par des réseaux sociaux moins viraux ? L’heure est en tout cas à se pencher sur ces paradoxes.

*« Sur les réseaux sociaux, la modération nécessite des moyens humains beaucoup plus importants »

Après l’assassinat de Samuel Paty et dans un contexte de prolifération des « fake news », le chercheur en sciences de l’information Romain Badouard s’inquiète, dans un entretien au « Monde », du risque de déléguer aux seules plates-formes numériques la modération du débat public. 

Propos recueillis par Claire Legros

Publié le 05 novembre 2020 à 00h51 – Mis à jour le 14 janvier 2021 à 14h46  

https://www.lemonde.fr/idees/article/2020/11/05/cyberharcelement-sur-les-reseaux-sociaux-la-moderation-necessite-des-moyens-humains-beaucoup-plus-importants_6058533_3232.html

Temps de Lecture 7 min. 

Les logos de Twitter et Facebook.
Les logos de Twitter et Facebook. DENIS CHARLET / AFP

Comment lutter contre la diffusion de contenus potentiellement dangereux sur les réseaux sociaux, tout en préservant la liberté d’expression ? Pour Romain Badouard, chercheur en sciences de l’information et de la communication à l’université Paris-II Panthéon-Assas, et auteur d’un ouvrage qui vient de paraître sur la régulation des réseaux sociaux (Les Nouvelles Lois du Web. Modération et censure, Seuil, 128 pages, 11,80 euros), une régulation démocratique des contenus passe par des procédures plus transparentes et un équilibre entre les rôles des pouvoirs publics, de la société civile et des plates-formes. Ces dernières devraient aussi revoir leur modèle économique.

Comment analysez-vous le rôle des réseaux sociaux dans l’assassinat du professeur d’histoire-géographie Samuel Paty, le 16 octobre ?

A son origine, l’affaire de Conflans-Sainte-Honorine relève d’une forme malheureusement assez banale de cyberharcèlement, le nom du professeur et de son collège ayant été clairement cités dans l’une des vidéos. Dans le droit français, le cyberharcèlement se caractérise par une attaque répétée contre un individu, visant à lui porter préjudice, et se distingue du discours de haine qui appelle à la discrimination ou à la violence vis-à-vis d’un groupe, ce qui ne semble pas être le cas dans cette affaire.

Lire aussi  Le terroriste de Conflans avait cherché plusieurs cibles avant d’assassiner Samuel Paty

Les réseaux sociaux ont ici joué le rôle de tragique de chambre d’écho à l’indignation d’un parent d’élève, qui aurait dû être traitée dans la sphère privée. C’est la publicisation de cette colère qui a conduit à l’issue dramatique que l’on connaît. Le phénomène n’a rien d’étonnant : la colère fait partie des vecteurs d’attention les plus efficaces sur les réseaux sociaux. Plus les contenus sont indignés, plus ils sont regardés, et plus les algorithmes vont les rendre visibles car ils augmentent ainsi le temps d’exposition des internautes à des contenus publicitaires, sources de revenus pour les plates-formes.

Comment expliquer que ces vidéos mettant en cause le professeur aient pu circuler sans être supprimées ?

L’enquête judiciaire devra déterminer à quelle étape la régulation n’a pas fonctionné. Il semble que ces vidéos aient été signalées par des internautes, mais les modérateurs ne disposent généralement que de quelques secondes pour prendre une décision. Ce type de contenu indigné, outre qu’il est monnaie courante, n’est pas facile à traiter. On est là dans une zone grise, où certes on invective nommément un professeur, mais sans qu’un appel à la violence puisse être clairement identifié.

 Lire aussi  « La Haine en ligne », ou les ressorts du pilori numérique

Une chose est sûre, la modération sur les réseaux sociaux nécessiterait des moyens humains beaucoup plus importants que ceux dont elle dispose aujourd’hui. Facebook compte 15 000 modérateurs [pour le monde entier], un nombre important, mais qui reste dérisoire par rapport à celui des contenus publiés [par près de 2 milliards d’utilisateurs quotidiens]. La plate-forme gouvernementale Pharos, dont le but est de lutter contre les contenus illégaux en ligne, manque elle aussi cruellement de moyens.

Que pensez-vous des propositions du gouvernement pour réguler les réseaux sociaux ?

C’est une méthode très française d’appeler à une nouvelle loi lorsqu’on veut montrer qu’on agit. Mais pour l’instant, elle relève plus de la communication que d’une réflexion aboutie. La pénalisation de la divulgation d’informations privées sur une personne dans le but de lui nuire est une piste intéressante, mais concrètement, le délit de mise en danger de la vie d’autrui existe déjà dans le droit français, y compris par la divulgation d’informations personnelles. L’enjeu est moins la loi en elle-même, que les moyens que l’on met en œuvre pour l’appliquer, en renforçant les effectifs de Pharos par exemple, ou en articulant mieux les signalements à des procédures judiciaires.

Lire aussi  La loi Avia contre la haine en ligne largement retoquée par le Conseil constitutionnel

De la même façon, il est dangereux d’appeler à modifier la Constitution pour pouvoir ressortir des cartons la proposition de loi Avia [portée par la députée LRM de Paris, Laetitia Avia], qui a été censurée par le Conseil constitutionnel le 18 juin. L’une de ses principales mesures, qui visait à laisser vingt-quatre heures aux plates-formes pour modérer un contenu, sous peine d’une amende importante, a été jugée liberticide, car elle risquait d’entraîner la suppression de nombreux contenus légitimes. Tout l’enjeu est d’articuler la lutte efficace contre la haine en ligne et la légitime protection de la liberté d’expression.

Comment tenir les deux bouts ?

Certaines idées de la loi Avia sont intéressantes sans être liberticides, comme la mise en place d’un « bouton unique » de signalement, bien visible sur l’ensemble des plates-formes, qui permettrait de faciliter la procédure.

Une autre approche vise à imposer aux plates-formes, plutôt qu’une obligation de résultats comme dans la loi Avia, une obligation de moyens, en contrôlant ensuite qu’elles s’y astreignent. La Commission européenne expérimente cette méthode, avec la participation de la France. L’échelle européenne reste le bon niveau pour agir. A partir de décembre, Bruxelles doit présenter une révision des directives européennes sur le marché du numérique, qui comporte un volet sur la régulation des plates-formes. Ce Digital Services Act est encore en discussion, et il serait souhaitable qu’il conduise à une uniformisation des exigences européennes.

Ces approches ne risquent-elles pas de donner un pouvoir exorbitant aux plates-formes ?

C’est vrai que les Etats leur délèguent un pouvoir de censure qui était jusqu’à présent celui des juges. En tant qu’espaces de discussions privés, il est normal que les réseaux sociaux disposent d’outils de modération. Mais ces espaces privés sont aussi devenus les arènes du débat public. Or les standards de publication restent ceux d’une politique privée de modération, en dehors de toute procédure judiciaire.

La situation est d’autant plus problématique que, face au volume de contenus à traiter, les plates-formes ont mis en place des outils de détection automatique, ce qui entraîne des problèmes de censure abusive. Il est urgent que des procédures transparentes de modération se mettent en place. L’audit des algorithmes de détection est une partie de la solution, mais on en est encore loin. De nouveaux droits, dont celui de faire appel, doivent au minimum accompagner cette généralisation de la modération algorithmique.

Lire aussi  Les seniors partagent plus facilement des infox sur Facebook que les autres Américains

Certaines plates-formes évoluent vers la reconnaissance de ces droits, comme YouTube, qui a mis en place une procédure d’appel dès 2010. Facebook en a fait de même à partir d’avril 2018. D’après leurs rapports de transparence, la part de contenus qui sont restaurés après appel est d’environ 10 % à 15 % dans le cas des discours de haine, ce qui représente un volume important. Ces procédures d’appel peuvent être améliorées, notamment en justifiant publiquement les critères de décision. La décision de Facebook de créer un conseil de surveillance, chargé de juger les litiges sur les contenus supprimés, va dans ce sens, en déléguant ce pouvoir de décision à des personnalités indépendantes.

Quels peuvent être les leviers d’action de la société civile contre la violence dans ce contexte ?

La régulation des réseaux sociaux n’est pas seulement l’affaire des plates-formes ou de l’Etat. Des associations commencent à s’organiser pour signaler collectivement les contenus haineux et élaborer des contre-discours, comme les collectifs #jesuislà, inspirés de ce qui se fait en Suède [où a été lancé en 2016 le groupe Facebook #jagärhär – #jesuislà, en suédois – pour lutter contre les dérives homophobes ou racistes sur les réseaux sociaux].

Il faut citer également des organisations comme l’Institute for Strategic Dialogue(ISD) en Europe ou le Dangerous Speech Project aux Etats-Unis. En portant la contradiction aux auteurs de contenus problématiques, ces initiatives montrent au public que la violence en ligne n’est pas légitime. La proposition de Marlène Schiappa [ministre déléguée auprès du ministre de l’intérieur, chargée de la citoyenneté] de créer des unités de contre-discours républicain va dans ce sens.

Lire aussi  Les seniors partagent plus facilement des infox sur Facebook que les autres Américains

Plus largement, l’éducation aux médias délivrée aux collégiens ou lycéens devrait être proposée aux générations de leurs parents et grands-parents, qui restent peu sensibilisés aux conséquences de leurs partages. Des études américaines montrent que les comptes de seniors sont des vecteurs importants de fausses informations. Parmi ceux qui ont partagé les vidéos du parent d’élève de Conflans, parce qu’ils se sont indignés de ce qu’ils considéraient être un cas de discrimination à l’école, combien savaient que nommer ainsi un professeur relève d’une pratique de cyberharcèlement ?

 Lire aussi  De la rumeur aux « fake news »

La lutte contre les discours de haine passe aussi par les entreprises. Les annonceurs disposent d’un levier d’action puissant, par la pression qu’ils peuvent exercer sur les plates-formes pour que leurs contenus publicitaires ne soient pas associés à des discours haineux et de fausses informations. En touchant directement à leur modèle économique, ils les poussent à modérer davantage. C’est de l’équilibre entre ces différents pouvoirs – la loi, les plates-formes, le marché publicitaire, les internautes – que peut naître une modération réellement démocratique.

Est-il utopique d’imaginer changer à terme l’architecture des plates-formes ?

L’économie de l’attention a joué un rôle important dans l’assassinat de Samuel Paty, en favorisant la circulation de contenus qui suscitaient l’indignation. Cet aspect ne doit pas être oublié au moment où l’on cherche à mieux encadrer la régulation. Certains préconisent de « lutter contre le réchauffement médiatique »,selon la formule du sociologue Dominique Boullier, en concevant à la source une architecture différente, des formes de design plus respectueuses de l’attention et qui n’incitent pas à partager aussi rapidement ses émotions. Associer les internautes à la définition des règles de publication et à leur application est aussi une piste intéressante.

La régulation des contenus passe par une régulation plus globale de l’économie de l’attention. La question est sensible car elle touche au modèle économique des plates-formes, mais elle mérite d’être posée.

Claire Legros

**Réseaux sociaux : « Un défi sérieux pour les instances de régulation »

TRIBUNE

Antoine de Tarlé – Ex-patron de presse

Leur montée en puissance fausse le jeu démocratique et rend leur réglementation indispensable, estime l’ex-dirigeant de médias Antoine de Tarlé dans une tribune au « Monde ».

Publié le 03 mai 2019 à 11h47    Temps de Lecture 3 min. 

https://www.lemonde.fr/idees/article/2019/05/03/reseaux-sociaux-un-defi-serieux-pour-les-instances-de-regulation_5457771_3232.html

STEPHEN LAM / REUTERS

Tribune. Chaque jour, des flots de messages de haine et d’images truquées circulent sur les plates-formes numériques, aussi bien en Europe qu’aux Etats Unis. Il devient indispensable de réglementer les réseaux sociaux pour sauvegarder le débat démocratique. C’est l’objet d’une proposition de loi déposée par Laetitia Avia, députée (LRM) de Paris, avec l’aval de l’Elysée. Ce texte, qui prévoit de lourdes pénalités financières et s’inspire de la loi allemande promulguée en janvier 2018, suffira-t-il ? Les enjeux sont considérables, les solutions difficiles à mettre en œuvre.

Lire aussi  Amende record pour Facebook : même pas mal

La mise en cause des plates-formes, et notamment de Facebook et de YouTube, filiale de Google, a pour origine les scandales liés aux présidentielles américaines de 2016, quand il est apparu qu’une officine, Cambridge Analytica, avait dérobé impunément les données de 87 millions d’internautes pour engager des campagnes de manipulation au profit de la candidature de Donald Trump. Peu après, les Britanniques se sont aperçus que des méthodes analogues avaient été utilisées par les partisans de l’approbation du Brexit. L’élection présidentielle française de 2017 n’a pas échappé à ces manœuvres.

Seul instrument d’information

Mis en cause pour le laxisme de son entreprise, Mark Zuckerberg a multiplié les excuses et les promesses, reconnaissant même qu’une action des pouvoirs publics était nécessaire, dans une tribune publiée par le Washington Post et LeJournal du Dimanche, entre autres. Toutefois, le PDG de Facebook a posé une condition qui rend son vœu inapplicable : il réclame un accord mondial, ce qui suppose que l’Europe, les Etats-Unis, la Chine et la Russie se mettent d’accord sur une question fondamentale de liberté publique.

Lire aussi  « Mark Zuckerberg veut faire éclater la “bulle de filtrage” où s’enferment les “facebookiens” »

La crise des « gilets jaunes » a aussi illustré des dérives auxquelles le recrutement par Facebook de dizaines de milliers de médiateurs n’a guère remédié. Pour les manifestants, il est clair que la page Facebook où ils retrouvent leurs amis grâce à des algorithmes qui favorisent les échanges amicaux par rapport à l’information fournie par les médias professionnels est le seul instrument crédible d’information. Plus récemment, le Guardian a fait état d’une campagne massive en faveur d’un « Brexit dur » diffusée sur Facebook, et l’entreprise américaine a refusé d’indiquer les sources de financement de cette opération.

L’Allemagne a été le premier pays européen à réagir, avec une loi qui oblige les plates-formes à retirer dans les meilleurs délais les messages de cyberhaine sous peine de sanctions, qui peuvent s’élever à 50 millions d’euros. On a reproché à ce texte de donner un pouvoir de censure à Facebook et à YouTube, mais il semble qu’il ait permis une nette réduction des débordements. La proposition de loi Avia oblige les plates-formes à retirer les textes ou images incriminés sur réclamation d’une personne physique ou morale, dans un délai de 24 heures. En cas de non-respect de cette demande, et sous le contrôle du CSA, une sanction peut être imposée et atteindre 4 % du chiffre d’affaires mondial de l’entreprise.

Sauvegarder le débat démocratique

Il serait possible d’aller plus loin. Des avocats, comme l’ancien bâtonnier MeCharrière-Bournazel, proposent d’obliger les filiales françaises des plates-formes à désigner un responsable qui aurait un statut comparable à celui du directeur de publication d’une entreprise de presse, tel qu’il est défini par la loi de 1881. Il serait donc personnellement responsable du contenu diffusé par son réseau, sous contrôle du juge.

Lire aussi  Mark Zuckerberg annonce un virage vers un Facebook « plus privé »

Si l’on veut sauvegarder un débat démocratique et pluraliste, il faudrait compléter ces mesures législatives par un effort de longue durée de formation dans les établissements scolaires. Il faut aussi tenir compte du rôle croissant des messageries qui, dans de nombreux pays, se substituent de plus en plus aux plates-formes et s’abritent derrière le cryptage pour diffuser dans des boucles d’abonnés des informations fausses ou déformées. C’est ainsi que WhatsApp a exercé une influence considérable lors des élections présidentielles au Mexique et au Brésil. C’est un défi sérieux pour les instances de régulation. La révolution numérique ne fait que commencer.

Antoine de Tarlé est ancien dirigeant des groupes TF1 et Ouest-France. Il vient de publier La Fin du journalisme ? Dérives numériques, désinformation et manipulation (Editions de l’Atelier, 112 p., 12 €)Critiques numériques, nos tribunes

« Il est opportun d’ouvrir un débat approndi sur la “blockchain” », par Katrin Becker, chercheuse en droit et culture à l’université du Luxembourg.

Droit à la déconnexion : « Il faut réfléchir à une nouvelle organisation du travail »,par Vincent Baud, expert en management de la santé et de la qualité de vie au travail, et Caroline Sauvajol-Rialland, consultante en conseil en gestion de l’information.

Intelligence artificielle : « La complexité de la modélisation du cerveau humain a toujours été sous-estimée », par Claire Gerardin, conseillère en communication, spécialiste des nouvelles technologies

Réseaux sociaux : « Un défi sérieux pour les instances de régulation », par Antoine de Tarlé, ancien dirigeant des groupes TF1 et Ouest-France.

« Il semble illusoire de contrôler a priori les outils d’intelligence artificielle car leurs conséquences sont quasi imprévisibles », par Guillaume Chevillon, professeur en économie et statistique à l’Essec Business School.

« La mobilité mérite mieux que les gadgets de start-up et autres légendes technologiques », par Jean Coldefy, directeur du programme mobilité 3.0 à l’association ATEC ITS FrancePour ne rien manquer des débats économiques

Cet article sera publié dans notre newsletter « Les débats Eco ». Si vous êtes abonné au Mondevous pouvez vous inscrire à cette lettre hebdomaire en suivant ce lien. Chaque samedi dès 10 heures, vous y retrouverez une sélection de chroniques et de tribunes publiées dans Le Monde.

Antoine de Tarlé(Ex-patron de presse)

***« Il ne faut pas réguler Facebook ou Google mais s’en libérer »

Pour l’association la Quadrature du Net, la régulation des contenus haineux par les géants du Web est vouée à l’échec. 

Par Martin Untersinger et Alexandre Piquard

Publié le 22 juin 2019 à 11h00 – Mis à jour le 24 juin 2019 à 14h08  

https://www.lemonde.fr/economie/article/2019/06/22/il-ne-faut-pas-reguler-facebook-ou-google-mais-s-en-liberer_5480100_3234.html

Temps de Lecture 4 min. 

Aurel

La proposition de loi de la députée LRM Laetitia Avia, qui impose le retrait sous 24 heures des contenus haineux signalés aux réseaux sociaux, sous peine de lourdes sanctions, n’est autre qu’une « privatisation de la justice » au profit de Facebook, Google et Twitter, qui décideront ce qu’on a le droit de dire sur Internet, critique Arthur Messaud, juriste de la Quadrature du Net. Ce texte, débattu à l’Assemblée nationale à partir du mercredi 3 juillet, n’est pas la seule cible de cette association française de lutte pour les libertés sur Internet, rendue célèbre pour son combat contre la loi Hadopi sur le téléchargement illégal. D’inspiration libertaire mais régulièrement auditionné par les parlementaires, ce petit groupe devenu expert de la défense de la vie privée et de la lutte contre la surveillance a aussi étrillé le récent règlement européen sur le retrait des contenus terroristes ou la directive européenne sur les droits d’auteurs, accusée d’imposer le « filtrage » et la « centralisation » du Web.

Lire aussi  Contenus haineux en ligne : la proposition de loi ne sera pas adoucie après les remarques de Facebook

Pourtant, la Quadrature mène aussi campagne contre les Gafam – Google, Apple, Facebook, Amazon et Microsoft –, accusés de trop « s’immiscer » dans nos vies… Que peuvent alors faire les gouvernements ? Réguler ces géants ou les laisser faire, c’est dans les deux cas s’exposer à la critique… M. Messaud et son acolyte Martin Drago, tous deux avocats de formation, refusent ce « faux dilemme ». Ils voient deux autres options possibles : renforcer le rôle de la justice, en musclant ses effectifs et les formations, « une bonne voie qui n’est pas suivie par le gouvernement » ; et rechercher « une vraie alternative, en s’intéressant aux causes plutôt qu’aux symptômes »« Il ne faut pas réguler Facebook ou Google mais s’en libérer », explique M. Drago.

S’attaquer au modèle économique

L’approche actuelle du gouvernement n’est pas la bonne car elle risque de favoriser une « censure politique », estime M. Messaud, pour qui les grandes plates-formes vont dépublier des contenus légaux, satiriques ou contestataires, par peur des sanctions imposées par la loi.

Le problème résiderait dans le modèle même de Facebook ou de YouTube : « Depuis 2015, ces entreprises font d’énormes efforts pour apaiser leur plate-forme, et, pourtant, la situation s’aggrave ! », estime M. Messaud, regrettant que la France « entérine leur modèle de modération »« Il n’y aura jamais de solution technique pour gérer un réseau de deux milliards d’utilisateurs », estime celui qui ne croit pas non plus à l’intelligence artificielle pour aider la modération.

Pour bâtir une alternative, l’association créée en 2008 préconise de s’attaquer au modèle économique de Facebook ou YouTube. Celui-ci nourrit « une économie de l’attention », qui « favorise » les comportements problématiques en ligne, argumente M. Drago. « Il faut appliquer le RGPD [règlement général sur la protection des données], qui interdit le principe même de la publicité ciblée », assure le juriste. Dès l’entrée en application de ce texte, en mai 2018, l’association a déposé des plaintes contre les grandes plates-formes, qui ont mené à une amende de 50 millions d’euros prononcée par la Commission nationale de l’informatique et des libertés (CNIL) contre Google.

Forcer les grands réseaux à être « interopérables »

Mais cette première décision ne satisfait pas la Quadrature, car l’autorité s’est bornée à rappeler que Google devait recueillir le consentement des usagers avant de manipuler leurs données. « L’esclavage est nuisible même si on vous avertit avant », ironise M. Messaud, qui espère obtenir d’autres décisions plus fortes. Comment alors financer des réseaux, en l’absence de publicité ? L’association cite le modèle payant par abonnement, le financement participatif – fondement de Wikipedia – sans exclure certains financements publics.

La deuxième proposition de la Quadrature est technique. Dans une lettre ouverte publiée fin mai avec 74 organisations de défense des libertés et acteurs associatifs du Web, elle a demandé au gouvernement de forcer les grands réseaux à être « interopérables » : il s’agit de permettre à des utilisateurs d’échanger des messages tout en étant connectés à des services différents. Ou de pouvoir quitter un réseau social en conservant ses contacts. « Beaucoup de “gilets jaunes” nous ont dit qu’ils n’osaient pas partir de Facebook pour ne pas perdre tout leur public », explique M. Messaud qui évoque aussi les « victimes de cyberharcèlement » qui pourraient se réfugier sur un autre réseau social, tout en gardant le lien avec leurs amis. L’association place beaucoup d’espoir dans ActivityPub, un standard technique qui permet l’interopérabilité. Cette notion fait partie des débats sur la régulation des plates-formes dans l’Union européenne. Facebook s’y dit d’ailleurs favorable, tout en assurant que mettre en place l’interopérabilité est très difficile, techniquement.

« Il n’y a pas besoin de loi »

Une forme de concurrence entre les réseaux sociaux permettrait « aux gens de choisir la plate-forme dont la charte de modération leur va le mieux », imagine M. Drago. Sont cités en exemple PeerTube, plate-forme de vidéo alternative à YouTube, et Mastodon, un réseau social décentralisé aux deux millions d’utilisateurs dont chaque communauté dispose d’une politique de modération des contenus qui lui est propre. Ainsi coexistent des endroits très libres, où les échanges peuvent être violents, et des lieux plus stricts.

« Il n’y a pas besoin de loi » pour que les communautés s’autorégulent, croit M. Messaud. Que faire cependant des messages de haine ou du harcèlement rencontrés sur des plates-formes alternatives, par exemple le forum 4Chan ? « Il y aura toujours des gens qui violeront les règles mais, si ce sont les seuls conflits qui restent à gérer, la police et la justice pourront se concentrer sur ceux-là », répond M. Messaud. La justice resterait tout de même confrontée à la difficulté d’identifier des auteurs, notamment à cause du manque de coopération de certaines plates-formes installées à l’étranger.

« Si on fait tout ce que nous proposons, ce ne sera pas nécessaire de démanteler Facebook ou Google », argumente M. Messaud, alors que certains appellent à séparer les actifs des géants du numérique. Quand on lui rétorque que les réseaux comme Mastodon ou PeerTube restent très confidentiels, il espère que cela puisse changer : « Peut-être que demain, ce sera le truc à la mode », croit-il

Lire aussi  Que s’est-il passé en un an de RGPD, la loi censée protéger vos données ?

Martin Untersinger et  Alexandre Piquard

Publié par jscheffer81

Cardiologue ancien chef de service au CH d'Albi et ancien administrateur Ancien membre de Conseil de Faculté Toulouse-Purpan et du bureau de la fédération des internes de région sanitaire Cofondateur de syndicats de praticiens hospitaliers et d'associations sur l'hôpital public et l'accès au soins - Comité de Défense de l'Hopital et de la Santé d'Albi Auteur du pacte écologique pour l'Albigeois en 2007 Candidat aux municipales sur les listes des verts et d'EELV avant 2020 Membre du Collectif Citoyen Albi

Laisser un commentaire