La chute de la maison Zuckerberg

La chute de la maison Zuckerberg ? Dans tous les cas, le patron de Facebook s’excuse à tout va ; non sans raison : il voit dévisser son action en bourse après l’affaire Cambridge Analytica et est malmené durant son audition sénatoriale. Que Facebook fait de nos données ? Le patron de Facebook soutient une théorie du détournement…

La chute de la maison Zuckerberg ? Dans tous les cas, le patron de Facebook s’excuse à tout va ; non sans raison : il voit dévisser son action en bourse après l’affaire Cambridge Analytica et est malmené durant son audition sénatoriale. Il y a en réalité deux éléments pratiquement liés mais intellectuellement distincts dans ce dossier : ce que Facebook fait de nos données et ce que nous font certains messages ciblés ; ce que la plateforme récolte et quel pouvoir de persuasion cela peut conférer, la fuite de nos secrets et le secret de notre manipulation. 

Sur le premier thème, le patron de Facebook (FB) soutient une théorie du détournement et se raccroche à son principe de base : nous ne vendons pas vos données (que d’ailleurs vous nous avez autorisés à collecter dans les conditions en tout petits caractères), en revanche nous vendons des outils pour cibler plus finement un public. Donc si quelqu’un conserve ces données, ou bidouille son propre système de profilage psychologique et de messagerie ciblée, je n’y peux rien et ne puis me reprocher que ma naïveté. Et si des applications ayant accès à vos données Facebook (il y en a quand même quelques milliers !) en font mauvais usage, nous sommes désolés et nous allons corriger.

Pour la petite histoire, rappelons ce que FB sait sur vous, comme vous pouvez le vérifier vous-même : 
tout message que vous avez envoyé ou reçu, 

  1. – tout document, tous les contacts de votre téléphone et les messages audio, 
  2. – tout ce que FB pense pouvoir vous intéresser (sur la base de ce que vous avez aimé ou occulté,
  3. – tout ce dont vous parlez avec vos amis (et, bien sûr, qui ils sont et quel est leur profil), 
  4. – toutes les périodes où vous vous êtes connecté et
  5. – toutes les applications auxquelles vous vous êtes connecté sur FB.

Tout ceci est sensé obéir à ce que nous appellerons le cycle de la prévision :

– plus nous aimons FB, l’utilisons longtemps et nous connectons à des gens qui nous ressemblent ou nous plaisent, plus nous engendrons de données qui nous (et les) caractérisent ;

– mieux nous sommes profilés et plus nous sommes susceptibles de recevoir des informations ou des propositions (commerciales) qui nous plaisent ;

– plus nous sommes satisfaits, plus nous disons que nous avons raison de penser ce que nous pensons et d’aimer ce que nous aimons, plus nous avons de motifs d’utiliser FB, c’est ce qu’il appelle « multiplier l’engagement », donc plus notre vie, etc.

– plus les corrélations portent sur des chiffres astronomiques de connexions, mieux les algorithmes nous « prédisent », c’est-à-dire annoncent ce qui nous plaira le mieux à tel moment et sera le plus susceptible de nous plaire, plus cela nous plaît et ainsi de suite.

S’ajoute un autre cycle : plus FB fait de profits et s’étend à plus de deux milliards d’être humains, plus nous avons de raisons de l’utiliser et d’engendrer du profit pour FB, plus il est difficile de ne pas rejoindre les deux milliards d’êtres humains qui participent aux systèmes et fournissent leurs données, etc.

La question de la vie privée et de la rétention des données (qui sont en quelque sorte un pouvoir virtuel sur nous) est donc à deux étages. Il y a ce qu’en fait FB et ce qu’en font – peut-être illégalement -des sociétés qui ne font qu’imiter le principe ou ce qu’en feraient des services d’État qui auraient accès à ce pactole. Mais dans tous les cas, c’est le principe même de FB – nous stimuler pour nous profiler et vice-versa- dont tout découle.

Zuckerberg joue assez habilement en passant d’un plan à l’autre et en mêlant la question de la possession des données à celle du message qui nous est adressé. Ou plus exactement la question de l’adéquation d’un message, éventuellement manipulateur, mensonger, inauthentique, etc.. par rapport à nos attentes ainsi décelées.

Ainsi Zuckerberg vient de proclamer des mesures :

– les annonces « politiques » ou idéologiques (au sens de : portant sur des sujets controversés, et avec toutes les ambiguïtés que de telles catégories comportent) devront être clairement identifiées et a fortiori qui est l’annonceur : les comptes devront faire connaître leur localisation (suivez mon regard) et qui les finance

– les « personnes gérant des pages possédant un grand nombre d’abonnés », donc susceptibles d’être des désinformateurs influents, devront se soumettre aux mêmes obligations.
Traduction : nous ne ferons plus avoir par les Russes que nous avons été trop lents à identifier.

Mark Zuckerberg -- Illustration (DR) -
Mark Zuckerberg

Ces mesures dites de transparence (on doit savoir qui paie pour quoi et qui est au service de qui) vont de pair avec des initiatives plus énergiques de quasi censure. Elles visent à contrôler les contenus et plus seulement à dévoiler les émetteurs suspects : Zuckerberg se vante d’avoir déployé des outils d’intelligence artificielle qui ont supprimé des dizaines de milliers de comptes répandant des fausses nouvelles et d’engager encore des milliers de modérateurs. Son argument est, qu’après l’interférence russe dans l’élection de Trump, Facebook a pris des mesures de suppression efficaces pour les élections française et d’autres. Donc tout s’arrange ou s’arrangera bientôt. Du reste, Facebook avait confessé avoir accueilli sans méfiance 3.000 comptes « russes » pour un budget de 100.000 dollars, leur donnant ainsi l’occasion de répandre leur propagande anti Clinton, oubliant simplement de signaler que cette erreur confessée représentait 0,1% des revenus publicitaires quotidiens de Facebook et que l’impact par rapport à des millions d’autres messages avait été nul.

La rhétorique est habile dans la mesure où, en désignant des méchants manipulateurs, évidemment russes, Facebook ne confesse qu’une naïveté excessive. Comme le dit Zuckerberg, il n’avait « pas assez fait pour empêcher ces outils d’être employés de façon malintentionnée » et la compagnie promet revenir à sa vocation première de relier les gens. Cela allait dans le même sens que l’annonce par Zuckerberg qu’il laisserait une plus grande place aux informations venant de nos proches qu’à celles poussées par les médias ou que l’initiative permettant aux internautes mieux signaler les informations fausses ou choquantes.

L’argument porte donc sur l’élimination – ou la dénonciation – de messages ayant un mauvais effet sur d’innocents internautes. Il y aurait beaucoup à dire sur cet effet supposé : s’il est indéniable qu’il existe beaucoup de messages trompeurs, manipulateurs ou suspects, beaucoup de fausses identités, etc., il resterait encore à expliquer pourquoi le mauvais contenu aurait un effet tellement plus terrifiant que les contenus authentiques, infiniment plus nombreux, et pourquoi la dénonciation des faux ou des propos de haine, immédiatement signalés et stigmatisés, serait si inefficace.

Surtout, cette affaire de mauvaise influence ou de désinformation, nous détourne du principal : le fait que Facebook est précisément conçu pour nous faire produire de plus en plus de données révélatrices (sur notre personnalité, nos désirs, nos habitudes, nos liens sociaux…) et pour les utiliser afin de nous persuader que le produit X, le vote Y ou le document Z correspondent parfaitement à nos attentes secrètes.

Là encore la question de savoir si l’on peut nous tromper par de fausses nouvelles, de fausses identités, de fausses communautés… (et dont la réponse est évidemment oui) est distincte de celle du pouvoir intrinsèque de ces propositions ciblées. 

Il n’y a pas de moyen scientifique d’isoler cette variable et d’en mesurer l’effet notamment sur un vote démocratique. 

En fait, nous ne sommes pas soumis à un message X qui fait l’effet Y sur notre cerveau (voter Machin ou Truc), confronté à des messages inverses, nous sommes soumis à une triple logique:

– celle, héritée des mass médias, d’une rhétorique persuasive, concoctée par des professionnels et qui touche des masses plus ou moins indistinctes de haut en bas ;

– celle des réseaux, où chacun peut participer et s’exprimer, mais tend aussi à s’accorder avec les membres de sa communauté, quite à adopter leur vision de la réalité et à renforcer ses propres préconceptions ;

– la logique des algorithmes qui essaient éventuellement de nous surexposer aux messages persuasifs du premier type, mais en les faisant apparaître comme spontanément, répondant à nos besoins et à nos attentes secrètes.

Ce qui veut dire, en clair, que nous ne sommes plus dans l’ancienne configuration où il fallait éduquer le peuple à décoder les messages venus d’en haut (la « guérilla sémiologique » préconisée par U. Eco) pour ne pas être dupes. Mais il va aussi falloir enseigner au citoyen à se prémunir de ce qui semble venir de nos semblables ou de nous-mêmes.

(*) Chercheur français de renom en sciences de l'information et de la communication, François-Bernard Huyghe, est l’auteur de nombreux livres de référence,[1] Ses recherches portent sur les rapports entre information, conflit & technologie et sur la guerre de l’information au sens large. Sur son site, une rubrique est consacrée à « l’infostratégie », « néologisme » qu’il propose « pour étudier les conflits liés aux systèmes de transmission et communication dans la société de l’information, leurs modalités, motivations et finalités…, que ce soit dans le domaine politico-stratégique, économique ou celui de la vie privée ». Une autre à la « médiologie », pour mieux éclairer « comment nos modes et techniques de transmission et de transport modifient nos façons de croire et de savoir ». On pourrait encore citer parmi d’autres une rubrique dédiée à la « Polémologie », autant de rubriques spécialisées dans un domaine où les spécialistes se font très rares. Son dernier papier concerne « La chute de la maison Zuckerberg », chute qui paraît inexorable… 

[1] Citons, notamment : "L'Information, c'est la guerre" (Panoramiques) et "l'Ennemi à l'ère numérique, Chaos, Information, Domination" (Presses Universitaires de France) ou encore "La désinformation – les armes du faux" (Éditions Armand Colin).