#36 — En 2025, Facebook et Google seront des services publics (part 1)

#36

Dans ce numéro :
Considérer les algorithmes de Google et des Facebook comme des infrastructures publiques
La conception des algorithmes en tant qu’infrastructure est politique
En bref
Si nous faisions le bilan de ces quatre dernières années, nous aurions remarqué, que depuis l’élection présidentielle américaine de 2016, la pression n’a cessé de s’accentuer sur les plus entreprises technologiques de la Silicon Valley : les révélations de Cambridge Analytica ; les séries de faux pas en matière de sécurité et de protection de la vie privée ; les révélations successives sur les algorithmes discriminatoires ; la grogne montante des salarié.e.s ; les oligarques pris la main dans le pot à confiture de la corruption… Aujourd’hui, la pression est telle que les débats législatifs sur la vie privée, la modération des contenus et la politique de concurrence ne sont plus balayés d’un revers de la main, mais font l’objet d’une véritable attention. Il y a quatre ans , on ne parlait pas réellement de démantèlement des GAFAM ; aujourd’hui 10 Etats américains poursuivent, principalement Facebook et Google, dans le cadre des lois Anti-Trust. Le monde s’est réveillé face aux multiples menaces que les plateformes font peser sur la sphère publique et la démocratie. Cette réaction, qui, aux yeux de certains, peut sembler tardive, montre au contraire que le politique a enfin pris conscience qu’il y avait un problème. Reste que supprimer Facebook et Google de nos vies serait tout aussi idiot, tant ces plateformes font désormais partie de notre quotidien. Alors pourquoi ne pas les considérer comme de nouveaux services publics ? Bonne lecture !

Dominique

2012, Zuckerberg et Sandberg fêtent l’entrée en bourse réussie de Facebook

Considérer les algorithmes de Google et Facebook comme des infrastructures publiques

Facebook et Google utilisent le machine learning pour résoudre des problèmes de pertinence. Imaginez tous les sites web que Google pourrait renvoyer lors d’une recherche sur le mot « maison » : sites immobiliers ou d’amélioration de l’habitat, conseils sur la façon de construire et de réparer des meubles ou, selon ce que sait Google, l’État ou la ville dont vous êtes originaire. Pour un utilisateur.rice, cela représente 23 790 000 000 de sites web. Google utilise l’apprentissage automatique pour classer ces sites Web, du plus au moins pertinent par rapport à votre requête de recherche.

Facebook fait quelque chose de similaire sur votre fil d’actualité. Un utilisateur-type possède plusieurs milliers d’histoires qui pourraient être classées et affichées sur son fil d’actualité à tout moment, en fonction de la taille de son réseau d’amis. 11 Cela constitue l’inventaire – le stock de contenu que Facebook pourrait vous afficher. Facebook utilise de même le machine learning pour ordonner ce contenu d’inventaire, en se basant sur des prédictions concernant le contenu avec lequel une personne est le plus susceptible de s’engager. En une fraction de seconde, les prédictions de centaines de modèles d’apprentissage automatique sont combinées pour classer le contenu du plus au moins susceptible d’intéresser un utilisateur particulier.

Alors que les individus classent et ordonnent les choses tout le temps, des tâches ménagères aux livres sur nos étagères, chaque fois que Facebook et Google prennent des décisions concernant ces algorithmes d’apprentissage, ils exercent une sorte de pouvoir privé sur l’infrastructure publique, en façonnant la façon dont les algorithmes classent et ordonnent une grande quantité de contenu et d’informations sur des questions fondamentales d’intérêt public. Ils sont les gardiens algorithmiques de notre sphère publique numérique, contrôlant l’accès aux nouvelles et aux informations et façonnant les termes du débat public.

Comme vous le savez maintenant, les algorithmes de Facebook et de Google font principalement deux choses : diffuser de la publicité en ligne ainsi que des news et de l’information. La façon dont ces deux entreprises conçoivent et contrôlent ces algorithmes crée l’infrastructure de notre sphère publique numérique, façonnant la manière dont nous débattons et discutons, la nature des outils dont nous disposons pour s’organiser et collaborons et organisant nos désaccords et nos prises de décisions collectives.

Le fait que cette infrastructure soit composée d’algorithmes modifie fondamentalement notre manière d’exercer un contrôle sur son fonctionnement et, en particulier, envers les personnes auxquelles elle profite ou nuit. La façon dont Facebook affecte notre société et notre politique n’est pas déterminée par des personnes engagées pour juger si les posts publiés violent les conditions d’utilisations mais par des personnes qui conçoivent ces algorithmes.

Il en va de même pour Google.

La conception des algorithmes comme infrastructure est politique

Les gens sont souvent en désaccord sur la façon dont les algorithmes qui sous-tendent ces entreprises devraient être conçus et contrôlés. Ça découle de désaccords fondamentaux sur la manière dont la sphère publique devrait être gouvernée : ce qui constitue un discours haineux ou une désinformation, les mesures à prendre lorsqu’ils sont détectés et par qui ; plus largement, les principes qui devraient régir la manière dont les nouvelles sont diffusées et comment contrôler l’accès à l’information. La conception et le contrôle des algorithmes, qui influencent ainsi la nature de la sphère publique, sont nécessairement politiques. Il y a deux raisons à cela. Premièrement, ils privilégient inévitablement les intérêts de certains groupes sociaux par rapport à d’autres. Plusieurs études ont montré que la façon dont Facebook définit les discours de haine, puis utilise des algorithmes d’apprentissage automatique pour les détecter, défavorise de façon disproportionnée le contenu produit par les Afro-Américains. Les conservateurs ont également accusé Facebook de défavoriser de manière disproportionnée leurs contenus produits. Chaque choix concernant la conception des algorithmes avantagera certains et en désavantagera d’autres, d’autant plus que les données utilisées pour les construire codent nécessairement des modèles persistants d’inégalité sociale entre les races, les sexes, les âges et les zones géographiques ; il s’est avéré au fil des enquêtes que l’objectif d’un système efficace en machine learning est, avant tout, de discriminer.

Comme l’a fait valoir l’un d’entre nous, les plates-formes Internet sont incitées à politiser le débat sur la modération du contenu, afin de détourner l’attention du public et la volonté politique, d’une menace financière plus importante que représenterait une réforme de la réglementation économique axée sur une réelle concurrence du marché et une réglementation des services publics.

Deuxièmement, elles sont politiques dès lors qu’elles influent la liberté d’expression d’une manière ou d’une autre. Rappelons-nous de toute la séquence Trump sur Twitter de mai 2020 à son bannissement en janvier 2021. Quand Twitter a décidé d’appliquer ses CGU, Facebook a beaucoup trop temporisé. Cela a suscité un vif débat, encore non tranché aujourd’hui.

Ce qui motive le débat n’est pas le fait que des politiciens produisent et colportent des fausses informations et des discours de haine mais qu’on délègue à des algorithmes la détection et la rétrogradation. Non, le débat porte sur le contrôle. Parce que Facebook a un contrôle unilatéral sur son infrastructure algorithmique de notre sphère publique numérique, elle impose ainsi sa conception de ce que devrait être un débat public et démocratique, sans aucune obligation de respecter sa pluralité et surtout sa gouvernance.

Sans surveillance réglementaire ni responsabilité démocratique, quels que soient les algorithmes ou politiques particuliers développés par Facebook, ce type de contrôle unilatéral d’une infrastructure sociale importante est, dans une démocratie, répréhensible en soi.

En bref

Solar Protocal, le web à l’énergie solaire
Un générateur de scénarios du futur
Wikipedia veut faire payer la Big Tech