LA LANCEUSE D'ALERTE FRANCES HAUGEN

DENONCE LES DERIVES DE FACEBOOK

DEVANT LE SENAT AMERICAIN

Facebook est en fort mauvaise posture. Après avoir été confronté à une panne massive qui a fait chuter le titre à la Bourse de New York, le réseau social voit son image considérablement écornée par les révélations de Frances Haugen devenue lanceuse d'alerte. Ancienne chef de produit durant deux ans chez Facebook, elle a en effet démissionné au mois de mai avant d'endosser le rôle de lanceuse d'alerte pour contraindre Facebook à changer ses pratiques.

Elle a été invitée à témoigner mardi 5 octobre 2021 devant un sous-comité du Sénat américain où elle a évoqué les conclusions négatives d'enquêtes internes à Facebook.« Banqueroute morale », « spirale », l'ingénieure informatique de 37 ans a décrit, avec calme et précision, la situation d'une entreprise qui a renoncé, selon elle, à quelques principes moraux au nom du profit.

Cette interlocutrice, sous couvert d'anonymat tout d'abord, avait déjà transmis à la Security and Exchange Commission (SEC), l'équivalent américain de l'Autorité des marchés financiers, des dizaines de documents internes sur le fonctionnement de Facebook. Ces éléments transmis par la lanceuse d'alerte aux autorités ont aussi émergé dans les médias, sous le nom de Facebook Files. Et dès mi-septembre, le Wall Street Journal avait publié une série d'enquêtes basée sur les documents internes transmis par cette personne dont les conclusions étaient accablantes pour le réseau social.

La nocivité de Facebook pour  les jeunes

Inquiet de perdre en popularité auprès des jeunes, Facebook a mis au point une stratégie pour gagner en audience auprès d'eux. Celle-ci doit notamment passer par le développement d'une version d'Instagram destinée aux moins de 13 ans . Pourtant, selon les documents publiés par le « Wall Street Journal », Facebook a constaté à plusieurs reprises qu'Instagram avait des effets néfastes sur les adolescents, et plus précisément sur les adolescentes.

Les études internes ont notamment montré que 32% des adolescentes estimaient que l'utilisation d'Instagram leur avait donné une image plus négative de leur corps et des complexes lorsqu'elles n'en étaient déjà pas satisfaites Une diapo d'Instagram diffusée lors d'une réunion en interne en 2019 affichait ainsi : « Nous empirons le rapport à son corps d'une ado sur trois ». « Les ados accusent Instagram d'augmenter les niveaux d'anxiété et de dépression », précisait une autre. Conscient donc du problème, Facebook a minimisé, selon l'ex-employée, son influence sur la psychologie des dizaines de millions de jeunes qui se connectent chaque jour. Une révélation qui a mis un sérieux coup d'arrêt au développement d'une version pour enfants d'Instagram, dont Facebook a annoncé l'arrêt du développement il y a quelques jours seulement. Pour l'heure, les enfants de moins de 13 ans n'ont pas le droit de s'inscrire sur Instagram. Parmi les dérives du groupe Frances Haugen a également dénoncé les méthodes qui poussent les adolescents à utiliser Instagram à haute dose, au point de sombrer parfois dans l'addiction.

L'algorithme de Facebook mis en accusation

Le changement d'algorithme survenu en 2018 aurait également eu les effets inverses de l'objectif initial, qui était d'améliorer le bien-être des utilisateurs en misant sur les liens interpersonnels plutôt que sur la mise en avant de contenus. Selon des recherches menées en interne, ce changement a incité certains comptes - dont des partis politiques - à miser sur du contenu sensationnaliste pour susciter l'indignation et pousser les internautes à y réagir.

Pire : dans une note interne, les chercheurs relèvent que ces publications ont gagné en puissance à la faveur du nouvel algorithme. « La désinformation, la toxicité et le contenu violent sont excessivement représentés dans les publications partagées », soulignent-ils.

Pour illustrer le phénomène, le « Wall Street Journal » s'appuie sur l'exemple de la campagne en faveur de la vaccination qu'a voulu lancer Mark Zuckerberg sur le réseau social. Dans cette entreprise, le fondateur de Facebook lui-même s'est heurté à une avalanche de publications opposées à la vaccination. L'algorithme de Facebook aurait ainsi permis à des rhétoriques complotistes de se propager sur le réseau.

Un système de modération à géométrie variable

Autre dérive dénoncée et qu'on apprend par les Facebook Files: Facebook dispose d'un système de modération différent pour les personnalités publiques les plus influentes : quelques 5,8 millions de comptes certifiés bénéficient en effet d'une modération assurée exclusivement manuellement, et pas par les robots qui filtrent les publications. Il s'agit du programme de Facebook baptisé « Crosscheck » ou « XCheck » qui n'applique pas les mêmes contrôles aux messages postés sur les comptes Facebook et Instagram de ces « VIP » que sur les comptes des internautes lambda. Certains ont ainsi été exemptés des règles tandis que d'autres ont pu poster des messages enfreignant théoriquement les instructions en attendant qu'un employé de Facebook les examine. D'après le Wall Street Journal, Facebook a par exemple permis en 2019 à Neymar de montrer à ses millions d'abonnés des photos dénudées d'une femme qui l'accusait de viol, avant de les supprimer. Une pratique qualifiée de « non défendable publiquement » lors d'un examen interne réalisé en 2019.

On peut ajouter à cela des révélations sur le manque de modération effectuée sur des contenus relatifs à des cartels de drogue notamment au Mexique (comme par exemple des annonces de recherches de tueurs à gages), ou pire encore, au trafic d'êtres humains : et pour cause, ces contenus viennent essentiellement de l'extérieur des États-Unis, or les modérateurs de Facebook ne passent que 12% à 13% de leur temps sur des contenus hors États-Unis – alors même que les utilisateurs de Facebook sont à 90% en dehors des États-Unis ! Or selon des dizaines de documents internes, des trafiquants de drogue, d'organes ou d'êtres humains s'appuient sur Facebook dans certains pays en développement. C'est notamment le cas au Moyen-Orient, où des trafiquants utilisent le réseau social pour attirer des femmes dans des réseaux de prostitution ou de travail abusif. En Ethiopie, des groupes armés auraient également utilisé la plateforme pour publier des appels à la violence contre des minorités ethniques. Alors que l'audience de Facebook est en pleine expansion dans ces pays, le réseau social n'est pas en capacité de modérer efficacement ces comptes.

« Facebook a concentré ses efforts de sécurité sur les marchés les plus riches, où les gouvernements et les institutions médiatiques sont puissants », reconnait l'ancien vice-président de Facebook, Brian Boland, auprès du quotidien américain.

La désactivation des filtres contre les « fake news »

Frances Haugen affirme également que Facebook a supprimé, après l'élection présidentielle américaine de 2020, des filtres contre la désinformation pour favoriser une augmentation de la fréquentation de ses plateformes. « Facebook s'est rendu compte qu'en changeant l'algorithme pour plus de sécurité, les utilisateurs passaient moins de temps sur la plateforme, cliquaient sur moins de publicités, et eux, gagnaient moins d'argent », a-t-elle expliqué à la chaîne américaine

Facebook a bien mis en place des équipes pour limiter la désinformation au moment des élections et modifié ses algorithmes pour réduire la diffusion de fausses informations. Mais son équipe, qui s'intéressait aux risques que pouvaient poser certains utilisateurs ou certains contenus à l'approche d'élections, a été démantelée peu après le scrutin de novembre 2020. A peine deux mois plus tard, les réseaux sociaux ont été utilisés par des internautes pour préparer le rassemblement du 6 janvier à Washington, qui a mené à l'intrusion au Capitole...

Tous les documents internes et le témoignage de Frances Haugen devant le Sénat américain mènent à une conclusion : Facebook a volontairement fermé les yeux sur les conséquences néfastes de ses réseaux sociaux sur le débat public et la santé mentale des utilisateurs.

Mark Zuckerberg pointé du doigt

Face à ces dysfonctionnements, Frances Haugen pointe avant tout du doigt l'absence de volonté d'y remédier. « Facebook peut changer, mais ne va clairement pas le faire de lui-même », a-t-elle lancé devant le Sénat. Selon les documents publiés par le « Wall Street Journal », une équipe a proposé dès le mois d'avril 2020 aux dirigeants de Facebook de remédier à la flambée de la désinformation et de la violence causée par l'algorithme, par exemple en cessant de renforcer la visibilité des contenus partagés à de nombreuses reprises par de longues chaînes d'utilisateurs.

Mais cette proposition aurait été dans un premier temps refusée par Mark Zuckerberg et n'a commencé à être testée qu'à la fin de l'été 2021, après que le réseau social a été critiqué pour son rôle dans les émeutes du Capitole. Le réseau aurait par ailleurs cherché à minimiser publiquement les effets d'Instagram sur les adolescents, en ne rendant pas publiques les recherches concernées.

Lors de son audition, Frances Haugen a d'ailleurs décerné une mention spéciale à Mark Zuckerberg, co-fondateur et patron du groupe Facebook. «« Il a un rôle unique dans l'industrie de la tech parce qu'il détient 55% des droits de vote de Facebook.  Il n'y a pas d'entreprise aussi puissante qui soit contrôlée de manière aussi unilatérale. Donc au final, la responsabilité revient à Mark. Et il ne rend de comptes à personne. Et Mark Zuckerberg est, dans les faits, le concepteur en chef des algorithmes », a assuré l'ingénieure.

La réaction virulente du patron de Facebook face aux accusations

Dans un message publié mercredi sur Facebook (en anglais), le patron du groupe Mark Zuckerberg a répondu à ces accusations : « Si nous voulions ignorer la recherche, pourquoi créerions-nous un programme d'études de pointe pour comprendre ces problèmes importants ? Si nous ne nous soucions pas de lutter contre les contenus préjudiciables, pourquoi embaucherions-nous autant de personnes qui s'y consacrent ? ». Et le créateur de Facebook d'ajouter :

« Au cœur de ces accusations réside l'idée que nous privilégions les profits plutôt que la sécurité et le bien-être. Ce n'est tout simplement pas vrai. » « Nous ne sommes pas d'accord avec sa façon de présenter les sujets sur lesquels elle a témoigné », a commenté Lena Pietsch, porte-parole de Facebook. « Mais nous sommes d'accord sur une chose : il est temps de créer de nouvelles règles pour internet. (...) Et plutôt que d'attendre de l'industrie des changements sociétaux, (...) il est temps pour le Congrès d'agir. », a-t-elle concédé.

La régulation des réseaux sociaux

Pour la lanceuse d'alerte, il faut imposer à Facebook davantage de transparence et de partage d'information, avec l'aide d'un nouveau régulateur dédié aux géants d'internet, à même d'appréhender la complexité de ces plateformes.

« Il est temps de créer une agence de protection des données et de forcer (les géants de la tech) à rendre des comptes », a tweeté mardi la sénatrice Kirsten Gillibrand.

Toutes ces révélations sur les dysfonctionnements et dérives de Facebook pourraient faire vaciller le géant américain et son patron Mark Zuckerberg si la Security and Exchange Commission (SEC) parvient à la conclusion que Facebook a menti à ses actionnaires et à ses utilisateurs sur plusieurs points...




Joanne Courbet pour DayNewsWorld