Pourquoi il faut regarder le documentaire Netflix « the social dilemma »?

0 1 126

« Something is rotten in the  Tech State » (quelque chose ne va pas au pays de la tech)  pour paraphraser Shakespeare. Si vous partagez ce sentiment, vous devez absolument regarder le documentaire Netflix « the social dilemma » (en français « Derrière nos écrans de fumée ») qui vient d’arriver en France. Peut-être me direz-vous, encore un nième reportage sur les dérives des géants du numérique et leur exploitation de nos datas. L’originalité de ce documentaire est qu’il fait témoigner d’anciens employés de Google, Facebook aujourd’hui « repentis ». Tous furent au cœur du système de la Silicon Valley. Ils en dénoncent aujourd’hui les excès. Surtout ces « insiders », qui n’ont pas vraiment des profils de « gauchos révolutionnaires », décryptent comment on en est arrivé là. Vous connaissez déjà une grande partie des pièces du puzzle. Mais « the social dilemma » les assemble avec brio et révèle une image inquiétante mais indispensable pour faire bouger les choses. Un an après, la lanceuse d’alerte Frances Haugen confirme ce diagnostice devant le congrès.

Tristan Harris, ancien responsable éthique chez Google, lanceur d’alerte, principal témoin du documentaire « the social dilemma »

Tristan Harris at Collision Conf 2018 - Wikimedia Commons

Avec sa barbe de 3 jours, sa chemise et son pantalon en jeans, Tristan Harris a le look typique de l’ingénieur de la tech. C’est le principal témoin du documentaire.

Il travaillait chez Google comme « design ethicist » sur le projet Gmail. Il explique avec quelle minutie le produit est développé. Chaque couleur, chaque écran est optimisé utilisant le fameux « A/B testing » qui consiste à tester l’attractivité pour l’internaute de chaque micro-développement pour choisir le plus efficace. Il déclare dans le documentaire : « jamais dans l’histoire de l’humanité, 50 développeurs, des hommes blancs entre 20 et 35 ans en Californie, n’ont eu autant d’influence par leurs décisions sur 2 milliards d’utilisateurs ». Vertigineux.

Dans le même temps, le principal problème de Tristan Harris était … son addiction à Gmail!!! Un problème qui semblait peu préoccuper les développeurs de l’application. Il décide donc de mettre ce sujet de l’addiction sur la place publique au sein de Google. Pour cela, il diffuse dans l’entreprise une présentation choc. Il craint alors des réactions hostiles. Mais à sa grande surprise, l’accueil est enthousiaste. Le sujet fait le buzz et il reçoit en réponse des multiples mails de soutien. Il est alors convaincu qu’une révolution est en marche. Et puis, le soufflet retombe. Le feu de paille du buzz s’éteint et tout le monde passe à autre chose. « And then nothing happened » (il ne se passa rien)

J’ai trouvé ce témoignage fascinant. Nous savons tous qu’il y a un problème avec les GAFAM mais malgré cela rien ne bouge. Après le scandale Cambridge Analytica, Facebook aurait pu disparaître. Pourtant jamais le réseau n’a été aussi florissant et j’ai toujours mon compte Facebook.

Tim Kendall, ancien directeur de la monétisation chez Facebook, raconte comment Facebook est devenu un vendeur de publicité

Facebook publicité

Tim Kendall rejoint Facebook en 2006, 2 ans après la création du réseau social, comme Directeur de la monétisation. Sa mission est simple : transformer en espèces sonnantes et trébuchantes l’immense succès populaire de Facebook. Il fut l’un de ceux qui considéra que le modèle de financement par la publicité était sans doute le moyen « le plus élégant » d’y arriver. Le désormais célèbre « si c’est gratuit, c’est vous le produit » venait de naître.

Facebook devint alors comme Google un vendeur de publicité. Un bon vendeur de publicité doit avoir un maximum d’audience. Il s’agissait donc d’attirer et de retenir au maximum l’utilisateurs, quitte à les rendre accros. Patrick Le Lay PDG de TF1 en 2004 déclarait : « ce que nous vendons à Coca-Cola, c’est du temps de cerveau humain disponible ». Facebook et ses concurrents allaient appliquer ce principe de manière extensive mettant tout en œuvre pour capter notre attention avec d’énormes conséquences sur lesquelles le documentaire va revenir.

Mais surtout un bon vendeur de publicité s’efforce de garantir un retour sur investissement à l’annonceur. En collectant et analysant nos données personnelles grâce aux algorithmes d’intelligence artificielle, Google et Facebook purent construire des modèles capable de prédire nos actions de manière extrêmement précises et proposer aux annonceurs des publicités ultra-ciblées sur la bonne audience. L’impact d’une campagne publicitaire cessait alors d’être aléatoire. Je vous invite, si vous en avez l’occasion, à découvrir les interfaces de ciblage de Google Ads et Facebook Ads. Les possibilités de micro-ciblage sont absolument incroyables.

Attirer et retenir notre attention par tous les moyens

addict, addiction, asian, casual, cellphone, chat, chatting, cheerful, communication, community, connecting, connection, data, device, digital, electronic, ethnicity, friends, gadget, global, happiness, information, innovation, internet, man, media, message, messaging, mobile, network, networking, on social, online, phone, sharing, smartphone, smiling, social, social media, technology, telephone, texting, together, togetherness, typing, using, wireless, woman, photography, electronic device, girl, product

Le documentaire décrypte alors comment notre smartphone fait tout attirer et retenir notre attention. Notifications, scroll infini, course aux likes, aucune de ces techniques n’est le fruit du hasard. Elles se fondent sur une connaissance fine de la psychologie humaine et de ses faiblesses.

Le professeur de Stanford Dr BJ Fogg a créé le Stanford Behavior Design Lab qui effectue des recherches sur la façon dont les produits informatiques, des sites Internet aux applications pour nos téléphones mobile, peuvent être conçus pour changer ce que les gens croient et ce qu’ils font. De nombreux patrons de la tech ont assisté à ses cours avec la promesse de faire d’eux des « behaviour change genious ».

Ironie de l’histoire, Tim Kendall quand il dirigeait Pinterest se mit à souffrir lui-même d’addiction au smartphone. Il connaissait toutes les techniques pour attirer l’attention des utilisateurs mais cela ne l’empêcha pas d’y succomber. Il est aujourd’hui le patron de l’entreprise Moment qui commercialise une application qui a pour objectif d’aider enfants et adultes à utiliser leur téléphone de manière plus saine.

Justin Rosenstein le co-inventeur du bouton Like de Facebook

Facebook : l'incontournable bouton Like ou "j'aime" fête ses 10 ans

Justin Rosenstein est l’un des inventeurs du célèbre pouce bleu, le like clé de voûte de tous les réseaux sociaux. Il explique combien « le like » au départ fut créé pour « répandre l’esprit positif et l’amour dans le monde ». Il n’y avait pas d’intention de manipulation de l’utilisateur, pas de grand méchant avec des plans machiavéliques.

Et puis la créature a échappé à son maître. Nous sommes collectivement devenus dépendants de cette vraie-fausse reconnaissance collective. Cela est particulièrement vrai chez les adolescents.

Par exemple, les jeunes filles se confrontent sur Instagram, Snapchat ou TikTok à un modèle esthétique irréaliste renforcé par les filtres sur les photos. Le psychologue Jonathan Haidt met en avant dans le documentaire la corrélation entre l’arrivée des réseaux sociaux sur les smartphones des adolescents américains aux alentours de 2012 et l’explosion des troubles dépressifs et des suicides.

The social dilemma : « the truth is boring » ou la polarisation des opinions

Jaron Lanier

Jaron Lanier est l’auteur du livre « Ten Arguments for Deleting Your Social Media Accounts Right Now ». Avec ses dreadlocks, cet informaticien, philosophe, musicien, ancien employé de Microsoft est une de ces figures typiques de la Californie, héritier de la contre-culture des années 60-70. Il décrypte les conséquences néfastes de la personnalisation du contenu sur Google ou Facebook. 

Dans un des morceaux de bravoure du documentaire, il nous invite à imaginer ce qui se passerait si e Wikipédia décidait d’adapter le contenu de chaque article en fonction de vos opinions personnelles et des annonceurs publicitaires intéressés par ce thème. Il conclut « c’est exactement ce que font Facebook et Youtube sur votre fil d’actualité ». Chacun croit que les autres voient en ligne la même chose que nous. Mais en réalité, l’algorithme met en avant du contenu qui renforce nos opinions.

« The truth is boring », une Terre ronde n’intéresse personne, les contenus clivants retirent d’avantage l’attention. L’algorithme est conçu pour maximiser notre temps passé sur les réseaux sociaux. Il va donc pousser les opinions extrêmes, clivantes, les fake news. Depuis mon article sur QAnon, mon fil Facebook m’abreuve du publications venant du mouvement. 

Cela se traduit par un renforcement de la polarisation des opinions publiques. 1/3 des républicains pensent que les démocrates sont une menace pour la nation, 25% des démocrates l’opposé. Ce chiffre a explosé au cours des 10 dernières années. « Cette polarisation est extrêmement efficace pour maintenir les gens online«  explique le français Guillaume Chaslot en les faisant tomber dans des « rabbit holes » . 

Propagande, polarisation et développement des violences

« The social dilemma » décrypte ensuite comment Facebook peut se transformer en un relais de propagande des théories les plus folles. La mécanique est malheureusement tristement simple. Il suffira de rassembler les 1000 premiers supporters de n’importe quelle propagande. Ensuite on peut acheter à un coût raisonnable de la publicité ciblant des personnes au profil similaire à ses 1000 personnes. L’effet boule de neige se déclenche alors.

Facebook peut alors devenir un redoutable outil de propagande notamment pour les régimes dictatoriaux. L’ONU a établi que Facebook avait joué un rôle déterminant pour attiser la haine qui a mené au massacre des Rohingyas en Birmanie. Dans sa dernière partie, le documentaire établit un lien direct entre la montée des populismes et des émeutes type gilets jaunes et la polarisation due aux réseaux sociaux. C’est à mon sens la partie la moins convaincante du documentaire. Les experts de la tech y sortent de leur domaine mais leur diagnostic interpelle tout de même.

Alors que faire après avoir regardé « The social dilemma »?

Alors comment faire? Le documentaire dresse plus un constat qu’il ne propose des solutions. Arrêter le progrès technologique comme le suggèrent les anti-5G? Une illusion!!! Se former pour comprendre le digital, l’intelligence artificielle : sûrement. L’école malheureusement ne le fait pas assez. Plus réguler le digital : certainement. Et puis individuellement changer. Suite à ce documentaire, j’ai désactivé toutes les notifications de mes applis, y compris Whatsapp.

Curieusement, ce documentaire ne met pas Netflix sur le banc des accusés. La plateforme utilise pourtant massivement les mêmes techniques d’intelligence artificielle pour nous cibler et se bat avec les autres pour attirer notre attention. Reed Hastings son PDG a d’ailleurs déclaré en 2017 : « à la marge, nous sommes en concurrence avec le sommeil. » Alors « the social dilemma » n’est-il pas aussi une attaque de Netflix contre la concurrence!!!

Un an après « the social dilemma », la lanceuse d’alerte Frances Haugen dénonce Facebook devant le congrès

C’est une nouvelle fois de la part d’une « insider » que vient une vive attaque contre Facebook. Frances Haugen a travaillé chez Facebook pendant 2 ans au sein d’une cellule baptisée « intégrité civique » chargée d’éviter les manipulations à l’occasion de la campagne présidentielle américaine. Elle a pu constater que, malgré des moyens limités, cette équipe était capable de modifier les algorithmes du réseau social afin d’éviter la propagation de la désinformation.

Et puis suite à l’élection, Facebook a décidé de supprimer cette cellule, de remettre en place ses anciens algorithmes qui renforcent « l’engagement » des utilisateurs. Cette dissolution est le symbole de ce que France Haugen reproche à Facebook. L’entreprise connaît les excès générés par ces algorithmes et leurs conséquences notamment sur la santé mentale des jeunes. Mais quand elle doit arbitrer entre ses profits et la résolution de ces problèmes, Facebook choisirait toujours le profit :  « Facebook a réalisé que s’il modifiait l’algorithme pour que le réseau soit plus sûr, les gens allaient rester moins longtemps sur l’application, allaient moins cliquer sur les publicités, et qu’il gagnerait donc moins d’argent »

 

Cet article vous a intéressé. Découvrez nos articles sur les séries Netflix qui façonnent notre Etonnante Epoque

 

Laisser un commentaire

Votre adresse email ne sera pas publiée.

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à utiliser ce dernier, nous considérerons que vous acceptez l'utilisation des cookies. Accepter Consulter

Centre de préférences de confidentialité

Cookies

Publicités

Analytics

Other