Ce texte est une traduction libre de l’article Facebook Admits Playing With Our Moods de Jonathan Cook accessible à l’adresse
http://www.informationclearinghouse.info/article38961.htm
Le site californien www.informationclearinghouse.info/ propose des liens vers des “ news you won’t find on CNN or FOXnews”, des informations que vous ne trouverez ni sur CNN ni sur FOXnews (une TV du triste Murdoch), ni hélas sur la plupart des médias francophones.
Jonathan Cook est un journaliste britannique, souvent récompensé pour ses écrits, qui réside à Nazareth (Israël) depuis 2001. Il est l’auteur de trois ouvrages sur le conflit israélo-palestinien.
Facebook admet qu’il joue avec nos émotions
Si vous voulez comprendre le « brave new world[1] » dans lequel nous entraînent les réseaux sociaux, lisez ce qui suit, c’est important. Facebook a pris sur lui de manipuler le contenu de centaines de milliers d’envois de leurs clients sans les prévenir qu’ils étaient les cobayes d’une expérience. Qu’a fait Facebook ? Il a contrôlé les messages qu’il transmettait à des membres de son réseau : aux uns ne parvenaient que des messages contenant des aspects positifs, aux autres uniquement des messages négatifs, de manière à mesurer l’effet de ce tri sur le moral des personnes testées.
Comment sommes-nous informés de cette expérience ? Simplement, parce que les résultats de cette enquête ont été publiés dans une revue scientifique[2]. Il apparaît que personne, ni la direction de Facebook ni l’éditrice de la publication, ne s’est posée de question sur les aspects éthiques d’une telle expérience. Facebook se défend même en disant tout simplement que de telles expériences sont évoquées dans les conditions d’utilisation que signe tout utilisateur lorsqu’il adhère au réseau.
Il n’est pas nécessaire d’être un théoricien de thèses conspirationnistes pour comprendre les implications de ce type de recherche. À travers les révélations sur la NSA, nous savons déjà que Facebook et tous les autres fournisseurs de services, auxquels nous sommes soumis dans nos vies de plus en plus « digitales », sont totalement au service des gouvernements, et qu’ils veulent à tout prix cacher à nous leurs « clients » cet assujettissement.
En plus des problèmes éthiques que pose ce comportement de Facebook dans ce cas précis, nous devons aussi nous interroger sur les motivations qui ont amené les dirigeants de ce réseau à cette étude. Sans aucun doute, Facebook cherche à accroître son influence et ses profits. Mais cette recherche est également d’une importance vitale pour nos gouvernants qui veulent savoir comment nous contrôler et nous maintenir « pacifiques». Ce savoir devient de plus en plus vital dans notre monde, à l’avenir incertain et dans lequel la raréfaction des ressources de la planète se conjugue avec une croissance de l’insatisfaction sociale.
Même Clay Johnson, l’homme qui a joué un rôle-clé dans la campagne présidentielle « web » de Barack Obama en 2008, a un avis sur la question :
L’expérience de Facebook de « transmission de la peur » est terrifiante. La CIA pourrait-elle provoquer une révolution au Soudan en forçant Facebook à répandre le mécontentement ? Serait-ce légal ? Mark Zuckerberg pourrait-il faire basculer une élection en diffusant, quinze jours avant celle-ci, des messages d’Upworthy (un site web qui pratique la « viralité[3] »). Serait-ce légal ?
Dans un sens, comme le note le commentateur Jacob Silverman, rien de tout cela n’est bien nouveau. Pour lui, internet est déjà « un grand ensemble tourné vers la recherche de marchés, et nous en sommes les sujets ». Mais cette histoire nous aide à comprendre ce qui est réellement en jeu.
Dans Le Meilleur des Mondes, Aldous Huxley décrit un monde dans lequel le peuple est maintenu soumis, satisfait, et même heureux, grâce à des drogues. Dans 1984 de George Orwell, les médias manipulés par le pouvoir et la surveillance généralisée maintiennent le peuple dans la désinformation, la peur et la soumission. Le problème est que nous sommes[4] dans un processus qui serait un hybride des pires aspects de ces deux modes d’exercice du pouvoir : le maintien du peuple dans l’ignorance et la passivité, la surveillance et la manipulation de ses émotions par les sources d’information, et évidemment les interactions entre tous ces moyens. Les dernières recherches sur ces points montrent que nos émotions pourraient être plus facilement manipulées par l’information que par les drogues.
La manière qu’a Facebook de se défausser sur tous les aspects de cette affaire n’est qu’une raison de plus pour nous d’être profondément perturbés par ce réseau et ses méthodes.
++++++++++++++++++++++++++++++
Des informations complémentaires sur cette expérience peuvent être trouvées dans le Guardian à l’adresse
http://www.theguardian.com/technology/2014/jun/29/Facebook-users-emotions-news-feeds
L’article scientifique dans lequel cette expérience est relatée est accessible à l’adresse
http://www.pnas.org/content/111/24/8788.full.pdf+html
Son titre : mise en évidence expérimentale de la contagion émotionnelle « massive » (massive-scale) induite par des réseaux sociaux.
Ses auteurs : des chercheurs de Facebook à Menlo Park et de l’université Cornell, grande université américaine située à Ithaca dans l’État de New-York.
Nous nous contenterons ici du résumé donné en tête de l’article.
Des états émotionnels peuvent être transférés entre personnes par une simple « contagion émotionnelle » : des personnes peuvent ainsi percevoir des émotions sans véritable autre raison que cette transmission. Ce mécanisme est bien établi pour des expériences de laboratoire dans lesquelles on observe des transmissions d’émotions positives et négatives entre les cobayes. Des études menées durant une vingtaine d’années sur des réseaux ont montré que des comportements plus lourds, comme des dépressions ou des comportements euphoriques, peuvent également être transmis par le biais de ces réseaux. Ces résultats sont en fait controversés.
Dans une expérience menée sur les utilisateurs de Facebook, nous avons testé la possibilité de contagion émotionnelle sans interaction personnelle, simplement en jouant sur le contenu émotionnel des messages échangés sur le réseau. Lorsque le nombre de messages positifs reçus par une personne est réduit[5], celle-ci envoie moins de messages positifs[6] et plus de messages négatifs. Et le contraire si le blocage est effectué sur les messages négatifs. Ces résultats montrent que les émotions exprimées par des tiers sur Facebook influencent nos propres émotions, ce qui montre que les réseaux sociaux sont de puissants vecteurs de contagion. Cette étude suggère également que, contrairement aux affirmations dominantes, les interactions internes et les réactions non-verbales ne sont pas absolument indispensables à la contagion émotionnelle, et que, dans une population, l’observation des expériences positives connues par certains constitue une expérience positive pour tous.
++++++++++++++++++++++++++++++
Commentaire du « traducteur » (qui n’émarge à aucun de ces réseaux sociaux). S’il lui a semblé que ces outils avaient joué un rôle positif, en particulier lors du « printemps arabe », il reste allergique aux termes comme « amis » (au sens « digital » ) ou « like ». Ce texte de Jonathan Cook va largement au-delà de ces enfantillages. Le terme « manipulation des esprits » n’apparaît pas explicitement dans le texte, mais la « contagion émotionnelle » pourrait bien en constituer un euphémisme. Il serait peut-être bien que la LDH inscrive les questions soulevées par cet article dans ses thèmes de réflexion.
[1] Allusion au roman d’Aldous Huxley paru en 1932, publié en français sous le titre Le meilleur des mondes, un roman d’anticipation au titre ironique décrivant un « nouveau monde » pas vraiment souhaitable, mais vraisemblable en 1932.
[2] Proceedings of the National Academy of Science, revue scientifique à comité de lecture
[3] Une méthode qui, par le biais de recommandations entre utilisateurs, permet une multiplication rapide des messages.
[4] « nous sommes » : ce n’est plus un roman (NDT)
[5] « reduced », une façon de parler : par exemple 90 % des messages sont transmis. Dans l’article lui-même, le terme « omit (oublié) » est utilisé. Il n’est pas précisé si les messages « omis » sont envoyés à la fin de l’expérience.
[6] un non-initié peut se poser des problèmes sur ces concepts. La recette est donnée dans l’article : est considéré comme positif ou négatif un envoi dans lequel figure au moins un mot positif, ou négatif. Des exemples de tels mots ne sont pas donnés, de toute façon l’analyse est faite par un logiciel qui semble bien connu dans ces milieux (nos courriels sont peut-être déjà passés à cette moulinette). Respectivement 46,8 % et 22,4 % des envois tombaient dans chacun des deux ensembles. Les analyses ont porté sur 3 millions de textes, comportant 122 millions de mots (soit 40 mots par texte en moyenne), dont 4 millions étaient considérés comme positifs et 1,8 millions comme négatifs. Avec de tels nombres, les statistiques ne peuvent être que bonnes !!!