Culture numérique
Que faire de Facebook ?
Facebook préfère le profit maximal à la construction d’espaces permettant d’avoir des interactions enrichissantes et d’accéder à de l’information juste. Que faire de cette plateforme toxique à plusieurs égards, mais devenue presque incontournable ?
Les récentes révélations de la lanceuse d’alerte Frances Haugen sont venues confirmer ce que bien des chercheur·euses et activistes disaient depuis longtemps. Comme les hypothèses des chercheur·euses en sciences sociales, les documents fournis par Frances Haugen sont faciles à comprendre pour qui connaît l’entreprise. Facebook veut faire du profit, ce profit vient des revenus publicitaires. Il faut donc que les usager·ères restent le plus longtemps possible sur la plateforme, il faut que le fil suscite l’engagement, les commentaires, les clics, les réactions : « j’aime », « grr », « wouah » ! Ce que Facebook vend, c’est une fonction cognitive : notre attention. Les fils de discussion sont optimisés et personnalisés pour l’obtenir.
Cette optimisation nourrit la bête humaine : la peur, la haine, le biais de confirmation, l’effet Duning-Kruger (effet notable de l’ignare qui croit tout savoir alors que les personnes savantes doutent et hésitent). Une foule de mauvais plis de notre cognition se combine à cette optimisation pour créer un cocktail explosif : des fils de discussion violents où les positions sont bien campées. La fracture sociale se creuse. Les joutes par commentaires interposés touchent maintenant toutes les sphères de la société, depuis la sérieuse gestion de la pandémie jusqu’à la mise en conserve des légumes racines.
Devant ces constats, quelles sont les avenues possibles ? En schématisant un peu, les pistes de solution face à Facebook peuvent être regroupées en trois grandes catégories. On constatera que certaines sont plus prometteuses que d’autres.
Toujours plus de technologies ?
Chaque fois que le président de Facebook Mark Zuckerberg est appelé à témoigner au Congrès américain pour défendre les actions du géant, son discours est toujours sensiblement le même : les défauts de ces technologies se régleront avec plus de technologie. Dans son témoignage devant le Congrès deux mois après l’assaut du Capitole, pressé par les représentant·es voulant savoir ce qui avait été fait pour améliorer le travail de modération, Zuckerberg répond : « Plus de 95 % du contenu haineux que nous retirons est supprimé par une intelligence artificielle (IA) et non par une personne. […] Et je crois que 98 ou 99 % du contenu proterroriste que nous retirons est identifié par une IA et non une personne. » Pourtant, lorsque questionné par le représentant Tom O’Halleran sur ce que la compagnie fait pour augmenter sa capacité de modération, Zuckerberg explique que les algorithmes ne sont pas capables de différencier ce qui est une critique d’un propos haineux d’un véritable propos haineux [1]. Pourquoi tenter de nous convaincre que la solution technologique fonctionne, tout juste après nous avoir expliqué pour quelle raison elle ne fonctionne pas ? La réponse de Facebook pourrait se résumer par, « il faut de meilleurs algorithmes, laissez-nous travailler, vous ne comprendrez pas ! »
Or, selon Frances Haugen, c’est l’« engagement based ranking » – l’indicateur qui sert à privilégier le nombre de réactions pour choisir le contenu recommandé sur les fils d’actualité personnalisés – qui est le grand coupable des dérives. Avant les élections américaines, Facebook a réduit l’impact de cet indicateur de l’engagement dans l’algorithme de recommandation, puis l’a remonté tout de suite après les élections. Autrement dit, Frances Haugen démontre que Facebook est capable de jouer avec les paramètres de ses algorithmes pour modérer leurs effets délétères, mais que l’entreprise a choisi de ne pas le faire entre le jour de l’élection américaine et l’assaut du Capitole. L’entreprise choisit également de ne pas le faire lorsque la plateforme est utilisée pour organiser des génocides et des actes terroristes ou pour diffuser de la désinformation, lorsqu’elle exacerbe les problèmes de santé mentale et l’intimidation, ni même lorsqu’elle est employée par les puissances mondiales dans une guerre d’information [2].
Rendre le tigre végétarien
Au Canada et au Québec, à l’heure actuelle, le point de vue critique à l’égard des géants du Web est probablement la posture dominante. C’est notamment l’attitude du gouvernement de Justin Trudeau depuis son mandat 2019-2021, et tout indique qu’il poursuivra en ce sens dans les années à venir. C’est aussi la position de plusieurs organismes de défense des milieux culturel et journalistique (pensons par exemple aux Amis de la radiodiffusion, à la Coalition pour la diversité des expressions culturelles ou à la Fédération nationale des communications et de la culture-CSN). Or, dire que Facebook et les autres sont des menaces à la démocratie, aux médias d’information et à la diversité culturelle, c’est une chose, mais cela ne signifie pas que toutes les initiatives politiques à leur endroit sont nécessairement bénéfiques et souhaitables.
Ainsi, une deuxième catégorie de solutions réunit les avenues visant à faire de Facebook un acteur plus responsable. Il s’agit ici de forcer le géant à mieux faire son travail, par exemple en l’incitant à mieux cibler la désinformation ou les propos haineux, ainsi qu’à retirer des publications ou bannir des comptes. D’autres proposent aussi que Facebook valorise davantage le travail journalistique « sérieux », par le biais du filtrage algorithmique ou par la redistribution de revenus publicitaires.
Même si elle est parfois articulée avec des expressions enflammées, la critique qui sous-tend ces propositions ne remet pas en question le modèle d’affaires de Facebook. Les propositions ci-haut, si elles étaient appliquées, mèneraient au contraire à faire de l’entreprise un acteur plus mature dans l’écosystème médiatique, et donc, à consolider sa présence dans nos existences. La lanceuse d’alerte Frances Haugen a d’ailleurs explicitement soutenu la piste de la responsabilisation du géant par la législation lors de son témoignage auprès d’élu·es britanniques, « la régulation pourrait être bénéfique pour le succès à long terme de Facebook […] si on rend Facebook plus sûr et plus plaisant, ce sera une compagnie plus profitable dans dix ans [3] ».
Il y a donc ici une contradiction problématique : un discours qui commence par dénoncer les trop grands pouvoirs d’une entreprise aboutit finalement à consacrer ce pouvoir en cherchant à le rendre plus respectable. On trouve l’exemple le plus révélateur de ce paradoxe dans un billet publié par Bloomberg, où un chroniqueur soutient que la meilleure manière de rendre Facebook (et Amazon) redevable de ses actions, c’est… de lui donner un siège aux Nations Unies ! [4]
Viser la réappropriation
En fait, il ne s’agit pas d’encadrer Facebook, mais de limiter son pouvoir et son emprise. Il faut intervenir de manière à rendre le modèle d’affaires de l’entreprise de moins en moins viable, pour que des alternatives dignes d’intérêt disposent d’une chance raisonnable d’émerger.
Certaines formes de collecte de données, par exemple, pourraient être purement et simplement interdites. Les dispositifs de publicité ciblée devraient être fortement encadrés, voire interdits ; la personnalisation des fils d’actualité selon un profilage des caractéristiques des individus devrait aussi être limitée. Il faut pouvoir inspecter le développement des médias sociaux pour mieux comprendre les logiques qui les structurent. Si le fonctionnement de l’algorithme lui-même ne peut être étudié en profondeur parce que sa manière de traiter des masses de données n’est pas accessible aux humains, on devrait sans doute se demander s’il est judicieux de se servir de tels algorithmes dans le cadre d’activités aussi élémentaires que s’informer ou interagir avec des proches.
Enfin, il faut forcer les médias sociaux à être interopérables, c’est-à-dire à ne plus être des jardins fermés auxquels on peut seulement accéder en se créant un compte. Si on retrouve des standards communs, comme ceux du courriel ou des appels téléphoniques, des alternatives plus respectueuses des besoins des communautés pourront alors se faire une place. On pourrait, par exemple, encourager des médias sociaux à but non lucratif et n’accumulant pas des masses de données personnelles. Pour cela, des mesures antitrusts s’avèrent incontournables.
Ces pistes d’action nous montrent qu’une autre voie est envisageable : celle qui vise à soutirer à Facebook ses pouvoirs pour en redonner aux sociétés.
[1] Le témoignage de Mark Zuckerberg est disponible via C-Span : « House hearing on combatting online misinformation and disinformation », 25 mars 2021. En ligne : www.c-span.org/video/ ?510053-1/house-hearing-combating-online-misinformation-disinformation
[2] Le témoignage intégral de Frances Haugen est disponible via C-Span : « Facebook Whistleblower Frances Haugen testifies before Senate Commerce Committee », 5 octobre 2021. En ligne : youtu.be/GOnpVQnv5Cw
[3] Citée dans Salvador Rodriguez, « Facebook whistleblower Haugen tells UK lawmakers the company refuses to take responsibility for its harms », CNBC, 25 octobre 2021. Notre traduction.
[4] Ben Schott, « Give Amazon and Facebook a Seat at the United Nations », Bloomberg, 3 octobre 2021.