Partie 1

23 minutes de lecture

Préambule : Pourquoi j'écris encore comme un scribe égyptien sous Prozac

Scène d'ouverture. Salon familial, 21h47. Ma fille Sarah - dix printemps au compteur, élevée au biberon Netflix et à la tétine TikTok - me regarde taper sur mon clavier avec la même expression qu'un anthropologue observant un homme de Cro-Magnon essayer d'allumer un feu avec des silex.

"Papa", commence-t-elle avec cette intonation particulière des enfants qui s'apprêtent à détruire votre vision du monde, "Papa, sérieusement, pourquoi tu t'fatigues à écrire ? ChatGPT pourrait pondre ton truc en deux secondes. Et probablement mieux."

Silence. Le genre de silence qui suit l'explosion d'une bombe à fragmentation existentielle.

J'aurais pu lui expliquer que j'écris parce que j'aime entendre le cliquetis anarchique de mon clavier mécanique - oui, mécanique, comme les machines à écrire, Google it, Sarah. J'aurais pu lui dire que j'écris parce que chaque phrase est une petite guerre civile entre ce que je veux dire, ce que je devrais dire, et ce qui finalement s'échappe de mes doigts comme un prisonnier en cavale. J'aurais pu philosopher sur le fait que l'écriture, c'est cette alchimie bizarre où tu transformes des pensées gazeuses en mots solides, où tu captures l'éphémère dans l'ambre du langage.

Mais non. J'ai juste remis mes lunettes - geste théâtral totalement inutile puisque je vois parfaitement mon écran, mais il faut bien maintenir une certaine dramaturgie parentale - et j'ai compris qu'il fallait que j'écrive ce... comment dire... ce manifeste ? Cette confession ? Cette autopsie joyeuse de notre servitude volontaire ?

Parce que voyez-vous - et là je m'adresse à vous, cher lecteur masochiste qui avez décidé de vous infliger ces quelque 10 000 mots - les algorithmes ne savent pas ce que c'est que d'écrire à 3h27 du matin pendant qu'Ilyane, mon benjamin d'un an, transforme son lit en studio d'enregistrement pour cris primordiaux. Ils ne connaissent pas cette jouissance perverse de réécrire dix-sept fois la même phrase jusqu'à ce qu'elle sonne exactement faux-juste, ce moment où tu trouves LE mot qui fait que tout bascule, cette virgule placée pile au bon endroit qui change tout le rythme d'un paragraphe.

L'ironie - ce petit démon qui danse entre les lignes, ce clin d'œil complice au lecteur, cette façon de dire blanc en pensant noir tout en laissant entrevoir qu'on pourrait aussi penser gris - ça, l'IA peut l'imiter comme un perroquet savant imite la voix de son maître. Mais elle ne peut pas la VIVRE. Elle ne peut pas ressentir ce petit frisson jouissif quand tu glisses une vacherie déguisée en compliment, quand tu construis tout un paragraphe juste pour le plaisir de le dynamiter dans la dernière phrase.

Alors qui suis-je pour oser encore écrire à l'ancienne ?

Je suis un oxymore professionnel. Marketeur depuis dix sept ans - j'ai commencé quand Facebook demandait encore une adresse .edu et qu'on pensait que Twitter c'était juste pour dire ce qu'on mangeait au petit-déj. J'ai vendu de tout : de l'éclairage intelligents (oxymore aussi), des formations en développement personnel (j'ai développé personnellement une allergie), des solutions SaaS dont personne ne comprenait vraiment l'utilité mais dont tout le monde voulait parce que "disruptif", "scalable", "synergies".

Père de trois spécimens humains en développement : Sarah l'impertinente qui me rappelle quotidiennement mon obsolescence, Maya la rêveuse de sept ans qui croit encore que les licornes existent (et qui a probablement raison), et Ilyane, un an, que j'appelle affectueusement "le chaos incarné" ou "l'entropie en couche-culotte".

Fils d'une mère marocaine qui est passée en cinq ans de "Internet c'est le diable" à "Regarde, j'ai trouvé une promo sur Instagram pour un tajine connecté". Son évolution digitale est plus rapide que celle de Darwin, plus brutale que celle de Pokemon.

Ingénieur de formation - cinq années à étudier l'it pour finir par manipuler les comportements d'achat, et auto formé en psychologie. Freud doit se retourner dans sa tombe, mais bon, lui aussi voulait comprendre pourquoi les gens achètent - simplement, il appelait ça des "pulsions" et moi j'appelle ça des "insights consommateurs".

Les biais cognitifs ? C'est mon péché mignon, ma collection secrète, mon cabinet de curiosités mentales. Je les collectionne comme d'autres collectionnent les timbres, sauf que mes timbres à moi, ils collent les gens à leurs écrans. Je les exploite professionnellement - "leveraging behavioral insights" qu'on dit dans les PowerPoints - et je les subis personnellement. C'est l'équivalent d'être pompier pyromane, mais en plus pervers.

Si vous êtes arrivé jusqu'ici, c'est que vous aussi, vous ressentez ce truc. Cette dissonance cognitive permanente, ce sentiment d'être à la fois le marionnettiste et la marionnette, le dealer et le junkie, le virus et l'antivirus. Bienvenue dans mon cerveau. C'est bordélique, contradictoire, parfois brillant, souvent con, mais au moins c'est humain.

Installez-vous confortablement. Prenez un café. Ou trois. On va disséquer ensemble cette époque magnifiquement absurde où nous avons collectivement décidé de sous-traiter notre libre arbitre à des lignes de code. Et on va en rire. Parce que l'alternative, c'est de pleurer, et mes lunettes sont déjà assez sales comme ça.

1. Un anniversaire et l'extinction programmée de la sérendipité, ou comment j'ai appris à ne plus chercher et à aimer l'ignorance

"L'encyclopédie pesait trois kilos. ChatGPT pèse trois secondes. On a gagné du temps. On a perdu le voyage."

Dans exactement vingt trois jours, trois heures et probablement quelques minutes (je ne suis pas l'algorithme, je ne compte pas les secondes), Sarah soufflera ses dix bougies. Dix ans. Une décennie. 3650 jours. 87 600 heures. Un chiffre rond qui me fait l'effet d'une baffe métaphysique.

Dix ans, c'était mon âge quand j'ai découvert les encyclopédies. Pas Wikipédia, non. Les VRAIES. Les Universalis, les Quillet, ces monuments de papier qui trônaient dans le salon comme des totems du savoir. Chaque volume pesait approximativement le poids d'un nouveau-né bien nourri. L'odeur - ah, l'odeur ! Ce mélange de papier bible, de colle et de poussière intellectuelle. C'était le parfum de la connaissance, l'eau de cologne de l'érudition.

Pour trouver une information, c'était toute une expédition. D'abord, localiser le bon volume. Ensuite, l'index - ce labyrinthe kafkaïen de renvois. "Volcan : voir Géologie." Tu vas à Géologie. "Géologie : voir aussi Tectonique des plaques, Magmatisme, Pétrographie." Tu navigues. Tu te perds. Tu tombes sur "Vélocipède" en cherchant "Volcan". Tu lis quand même parce que, tiens, c'est intéressant l'histoire du vélo. Trois heures plus tard, tu sais tout sur l'invention de la pédale mais tu as oublié ce que tu cherchais au départ.

C'était inefficace ? Terriblement. C'était formateur ? Infiniment.

Cette errance cognitive, cette dérive intellectuelle, c'était l'apprentissage véritable. Tu ne trouvais pas juste une réponse, tu découvrais tout un univers de questions que tu ne savais même pas que tu pouvais poser. C'était la sérendipité institutionnalisée, le hasard organisé, l'accident heureux érigé en méthode.

Sarah, elle ? "Alexa, c'est quoi un volcan ?" Trois secondes. Réponse complète, structurée, avec probablement une suggestion d'achat de livre sur les volcans en prime. "ChatGPT, explique-moi les volcans comme si j'avais cinq ans." Boom. Vulgarisation instantanée. "Et fais-le en rap." Et l'IA s'exécute, produisant des vers approximatifs sur la lave et le magma.

Elle ajoute, avec ce sourire narquois que je lui ai malheureusement transmis génétiquement : "ChatGPT connaît même des blagues sur les volcans, Papa. Tu veux entendre ?" Non, Sarah. Non, je ne veux pas entendre l'humour artificiel. J'ai déjà assez de mal avec l'humour naturel.

"On a optimisé le savoir. C'est comme optimiser l'amour : efficace et mort."

Le problème n'est pas l'outil. Je ne suis pas un luddite - terme que Sarah ne connaît pas parce que ChatGPT ne le lui a pas encore expliqué. J'ai été parmi les premiers à m'extasier devant GPT-2, à passer des nuits blanches avec GPT-3, à faire des battle créatives avec Midjourney. J'ai même essayé de faire écrire mes rapports stratégiques par Claude (désolé Claude, mais tes analyses SWOT manquaient cruellement de ce je-ne-sais-quoi qui fait qu'un client se dit "Wow, ce mec a vraiment compris notre problème" alors qu'en fait tu as juste reformulé leur brief avec des mots plus longs).

Non, le problème, c'est que nous avons tué le voyage pour ne garder que la destination. C'est comme si on avait inventé la téléportation et qu'on se demandait pourquoi le tourisme n'est plus ce qu'il était. Ben oui, champion, c'est parce que le trajet FAIT PARTIE du voyage. Les six heures de route où tu t'engueules avec ta famille sur la musique à écouter, l'aire d'autoroute dégueulasse où tu manges un sandwich triangle, le moment où tu te perds parce que "non non, pas besoin de GPS, je connais" - tout ça, c'est ça le voyage.

En marketing - parce que tout me ramène au marketing, déformation professionnelle oblige - on appelle ça le "customer journey". Et on sait que le journey est aussi important que la conversion finale. Un client qui arrive sur votre site après un parcours riche, complexe, émotionnel, vaut dix clients qui arrivent via une pub et convertissent direct. Pourquoi ? Parce que le premier a INVESTI du temps, de l'attention, de l'émotion. Il a créé une relation, pas juste effectué une transaction.

Mais voilà, on a optimisé. Ce mot. OPTIMISÉ. Si je devais choisir un mot pour résumer notre époque, ce serait celui-là. On optimise tout. Le sommeil (des apps qui te réveillent au "moment optimal de ton cycle"). La nutrition (des poudres qui remplacent les repas parce que mâcher c'est une perte de temps). Les relations (Tinder : swipe left, swipe right, optimisation du dating). On a même optimisé l'optimisation - des IA qui optimisent d'autres IA qui optimisent nos processus d'optimisation.

J'ai une théorie - appelons-la la Théorie de l'Optimisation Entropique, ça sonne assez bullshit pour passer dans une conf TED. Plus on optimise, plus on perd. C'est contre-intuitif, je sais. Mais regardez : on a optimisé la recherche d'information, on a perdu la découverte. On a optimisé les rencontres, on a perdu la séduction. On a optimisé la musique (playlists algorithmiques), on a perdu la surprise de tomber sur LA chanson au bon moment à la radio.

Sarah ne connaîtra jamais ce moment magique où, en cherchant "République" dans l'encyclopédie pour un devoir, tu tombes sur "République des lettres" et tu découvres tout un pan de l'histoire intellectuelle européenne. Elle ne connaîtra pas la frustration productive de ne pas trouver, qui te force à chercher autrement, à penser latéralement, à connecter des points qui n'étaient pas pré-connectés par un algorithme.

À la place, elle aura l'efficacité. La rapidité. La précision. Tout ce qu'on valorise dans notre monde post-industriel hyper-digitalisé. Mais elle n'aura pas l'aventure. Elle n'aura pas l'accident heureux. Elle n'aura pas ce moment où tu réalises que ce que tu cherchais n'était pas ce dont tu avais besoin, et que ce que tu as trouvé par hasard est infiniment plus précieux.

C'est ça qu'on a perdu en tuant la sérendipité : la possibilité d'être surpris par nous-mêmes.

2. Google : Du bibliothécaire bienveillant au dictateur omniscient (une success story)

"Google était un index. Il est devenu oracle. Nous étions chercheurs. Nous sommes devenus croyants."

Permettez-moi de vous raconter une histoire d'amour qui a mal tourné. C'est l'histoire de nous et Google. Une romance qui a commencé dans la naïveté des années 2000 et qui s'est transformée en relation toxique où l'un des partenaires sait tout de l'autre et s'en sert pour le contrôler. Mais je m'avance.

Acte I : Les fiançailles (1998-2010)

Google arrive comme le chevalier blanc du web. Leur motto ? "Don't be evil." Mignon. Leur mission ? "Organiser l'information mondiale." Noble. Leur interface ? Une page blanche avec un logo coloré et une barre de recherche. Minimaliste. Génial.

On était tous amoureux. Enfin un moteur de recherche qui marchait ! Fini AltaVista et ses résultats random. Fini Yahoo et son portail bordélique. Google nous donnait dix liens bleus, classés par pertinence. C'était magique. C'était simple. C'était... innocent.

Le deal était clair : Google organise, nous choisissons. C'était un bibliothécaire ultra-efficace qui nous disait "Voilà les dix meilleurs livres sur votre sujet, à vous de voir." On gardait le contrôle. On gardait le choix. On gardait notre agency - mot horrible du marketing qui veut juste dire "capacité à décider par soi-même" mais qui sonne tellement mieux en anglais.

Acte II : La vie commune (2010-2020)

Puis les choses ont commencé à changer. Subtilement. Google ne voulait plus juste organiser, il voulait répondre. Les Featured Snippets apparaissent. Ces petites boîtes en haut des résultats qui donnent LA réponse. Plus besoin de cliquer. Plus besoin de choisir. Google sait.

C'était pratique ! "Quelle est la capitale du Honduras ?" Paf, Tegucigalpa, direct dans la boîte. "Comment faire une mayonnaise ?" Hop, la recette, sans même visiter Marmiton. On a applaudi. On a adoré. On n'a pas vu le piège.

"Avant : Google te donnait une canne à pêche. Maintenant : il te mâche le poisson."

Parce que Google ne s'est pas arrêté aux capitales et aux recettes. Il a commencé à répondre à tout. "Quel est le meilleur smartphone ?" Google répond. "Comment investir mon argent ?" Google répond. "Pourquoi ma vie n'a pas de sens ?" Google... répond.

Le bibliothécaire était devenu oracle.

Acte III : Le divorce impossible (2020-aujourd'hui)

Et nous voici en 2025, avec l'AI Overview. Le stade final de la transformation. Google ne donne même plus de liens. Il génère une réponse complète, sourcée (vaguement), formatée (proprement), définitive (apparemment).

Les chiffres sont édifiants et terrifiants : 58,5% des recherches américaines se terminent sans clic. En Europe, 59,7%. Plus de la moitié de l'humanité connectée ne va plus voir les sources. Ils avalent le résumé et repartent. C'est l'équivalent digital de ne lire que les quatrièmes de couverture et de prétendre avoir lu les livres.

Pour nous, les forçats du SEO, c'est l'apocalypse en costume-cravate. Tu peux avoir dépensé 100K en optimisation, avoir le meilleur contenu du monde, être techniquement parfait - si l'AI Overview répond à la question, tu es invisible. -34,5% de CTR sur le premier résultat organique quand il y a une AI Overview. C'est comme avoir une boutique sur les Champs-Élysées mais derrière un mur invisible que seuls 65% des passants peuvent traverser.

Le plus ironique ? On l'a construit nous-mêmes, ce mur. On a tellement optimisé nos contenus pour Google qu'on lui a appris à nous remplacer. On a structuré nos données en Schema.org, on a fait des FAQ en format Q&R, on a créé des Featured Snippets optimisés. On a littéralement entraîné l'IA qui nous remplace maintenant. C'est du suicide assisté, version SEO.

Mais attendez, ça devient encore mieux (ou pire, question de perspective). Google utilise maintenant son AI pour comprendre l'intention derrière la recherche. Tu tapes "mal de tête" ? Google sait (enfin, devine) si tu cherches des causes, des remèdes, ou un médecin. Et il te donne SA réponse basée sur SON interprétation de TON intention.

Le biais d'autorité atteint ici son paroxysme. Google en blouse blanche. Google le médecin, l'avocat, le conseiller financier, le psy, le coach de vie. On fait plus confiance à Google qu'à notre médecin. Normal : Google a lu tous les articles médicaux du monde (enfin, ceux qu'il a indexés). Notre médecin, lui, il a juste fait huit ans d'études et vingt ans de pratique. Pfff, amateur.

Spinoza - toujours lui, ce visionnaire à lunettes du 17ème siècle - écrivait que l'homme se croit libre parce qu'il ignore les causes qui le déterminent. Appliqué à Google : nous croyons chercher librement alors que nous suivons les rails invisibles de l'algorithme. Nous croyons choisir alors que Google a pré-sélectionné nos choix. Nous croyons savoir alors que nous répétons.

Le marketing a un terme pour ça : "choice architecture". L'art de designer les choix pour influencer les décisions. Google est devenu le Le Corbusier de la choice architecture. Il ne construit pas des bâtiments, il construit nos décisions. Et nous habitons dedans sans même nous en rendre compte.

Exemple concret : tu cherches "meilleur restaurant italien Paris". Avant, tu avais une liste, tu comparais, tu lisais des avis, tu faisais TON choix. Maintenant, Google te dit : "D'après les avis et votre localisation, voici LE meilleur restaurant italien près de vous." Maps s'ouvre, l'itinéraire se trace, tu y vas. Tu n'as pas choisi. Tu as été choisi.

Et le pire ? On adore ça. Parce que c'est PRATIQUE. Parce que ça nous évite l'effort du choix. Parce que l'anxiété décisionnelle est une vraie plaie moderne et que Google nous en libère.

Sauf qu'on a échangé l'anxiété contre l'aliénation. On n'est plus anxieux de mal choisir parce qu'on ne choisit plus. C'est reposant. C'est aussi la définition exacte de la servitude volontaire.

3. Rufus, Sparky et toute la ménagerie algorithmique : Quand les assistants deviennent les maîtres

"Ils ont donné des noms de chiens aux IA. Normal : elles rapportent, elles obéissent, et parfois elles nous mordent."

Permettez-moi de vous présenter la nouvelle aristocratie digitale : les AI shopping assistants. Ils ont des noms mignons - Rufus chez Amazon, Sparky chez Walmart - comme des animaux de compagnie. C'est pas innocent. On ne se méfie pas d'un truc qui s'appelle Rufus. Rufus, c'est le nom du golden retriever du voisin, pas celui du manipulateur algorithmique qui influence 700 millions de décisions d'achat par mois.

Cette nomenclature infantilisante, c'est du génie marketing pur. Edward Bernays, le père de la propagande moderne (pardon, des "relations publiques"), applaudirait. Donnez un nom mignon à votre outil de manipulation, les gens baisseront leur garde. "C'est juste Rufus qui me conseille !" Oui, et le cheval de Troie, c'était juste un cadeau.

Prenons un cas d'usage réel, tiré de ma propre expérience pathétique. Novembre dernier. Besoin : cadeau pour une connaissance. Contexte : relation cordiale mais distante, budget moyen, zéro idée. Je tape dans ChatGPT : "Cadeau pour un pote que j'aime moyennement mais il faut quand même que ça ait l'air thoughtful."

Rufus process. Analyse mon historique d'achat (il sait que j'ai déjà acheté des bouquin philo, développement, sci-fi …). Croise avec les tendances (les bouquins à la mode pour des cadres dynamiques). Évalue le prix psychologique (pas trop cheap - 20€ minimum). Et boom : Un bouquin de développement personnel Ikigai .

Génial, non ? Sauf que... Sauf que je n'ai pas choisi. J'ai délégué. J'ai sous-traité ma relation familiale à un algorithme. Le cadeau sera correct, approprié, dans les normes. Mais il sera vide de ce qui fait qu'un cadeau est un cadeau : l'intention, l'effort, la possibilité magnifique de se planter complètement.

Parce que voyez-vous, offrir à son pote un livre pourri (vécu) ou une balance connectée (aussi vécu), c'est créer une histoire, un moment, une anecdote qui se racontera pendant des années. "Tu te souviens quand il m'avait offert..." C'est ça, l'humanité : la capacité de faire des erreurs mémorables.

Mais revenons aux chiffres, parce que les chiffres, c'est mon doudou professionnel. Le marché des AI shopping assistants : 4,34 milliards de dollars en 2025. Projection 2034 : 37 milliards. CAGR de 27%. Pour les non-initiés, un CAGR de 27%, c'est le genre de croissance qui donne des érections aux venture capitalists.

Meta AI revendique 700 millions d'utilisateurs actifs mensuels. Sept. Cents. Millions. C'est plus que la population de l'Europe. C'est l'équivalent de tous les Européens demandant à Mark Zuckerberg : "Mark, dis-moi quoi acheter." Et Mark, via son IA, répond. À tous. En même temps. Personnalisé pour chacun.

Le paradoxe comportemental est fascinant. Écoutez bien ça : seulement 25% des gens font confiance à l'IA pour l'information générale. Mais 55% lui font confiance pour les recommandations d'achat. Traduction : "L'IA raconte peut-être n'importe quoi sur le réchauffement climatique, mais pour choisir ma machine à café, elle est parfaite !"

Cette dichotomie révèle quelque chose de profond sur notre rapport à la décision. Pour les choix "importants" (information, politique, santé), on veut garder le contrôle. Pour les choix "mineurs" (quel dentifrice, quel livre, quel restaurant), on est ravis de déléguer. Sauf que... sauf que c'est justement l'accumulation de ces micro-décisions qui constitue une vie.

Vous savez quelle est la différence entre acheter des pâtes Barilla parce que vous aimez leur texture al dente et les acheter parce que l'algo vous les a suggérées ? Dans le premier cas, vous exercez votre goût, votre préférence, votre individualité. Dans le second, vous êtes un point de données qui exécute une prédiction.

J'ai une amie, appelons-la Stéphanie (pas son vrai nom, évidemment), qui m'a raconté cette histoire édifiante. Elle utilisait religieusement les recommandations d'Amazon pour tout : livres, vêtements, gadgets cuisine. Un jour, elle réalise que son appartement ressemble exactement aux "appartements inspirants" d'Instagram. Même lampe, même plaid, même putain de plante verte dans le même putain de pot en macramé. Elle vivait dans un algorithme fait maison.

La dépression qui a suivi cette prise de conscience... Elle a tout vendu. TOUT. Elle est repartie de zéro en s'interdisant les recommandations. Elle m'a dit : "J'ai redécouvert que j'aimais le orange. L'algo ne m'avait jamais proposé d'orange. Il savait que le gris et le beige se vendaient mieux dans ma démo."

Cette anecdote illustre parfaitement ce que j'appelle "l'homogénéisation algorithmique". Les IA ne nous proposent pas ce qu'on POURRAIT aimer, mais ce que les gens COMME NOUS ont aimé. Nuance. Énorme nuance. C'est la différence entre l'exploration et l'exploitation, entre la découverte et la confirmation.

En théorie des jeux - oui, je vais vous faire un petit cours, deal with it - on appelle ça le "explore vs exploit dilemma". Faut-il explorer de nouvelles options (risqué mais potentiellement rewarding) ou exploiter les options connues (safe mais limitant) ? Les algos ont tranché : 90% exploitation, 10% exploration (et encore, ces 10% sont calculés pour maximiser l'engagement, pas la découverte).

"L'IA ne nous propose pas ce qu'on POURRAIT aimer. Elle nous vend ce qu'on DEVRAIT aimer. Nuance ? Énorme. Liberté ? Zéro."

4. Le cabinet des curiosités cognitives : Manuel du marketeur-manipulateur-manipulé

"Le cerveau est paresseux par nature. L'algorithme l'a compris. Il lui offre un fauteuil roulant mental."

4.1 Le biais d'automatisation, ou l'art noble de la démission mentale

Laissez-moi vous raconter l'histoire du biais le plus délicieux de notre époque : le biais d'automatisation. C'est cette tendance merveilleuse qu'a notre cerveau à faire confiance aveuglément aux systèmes automatisés, même quand ils racontent n'importe quoi. C'est le "computer says no" de Little Britain, mais en version tragique.

Les chiffres sont savoureux dans leur absurdité : 25% seulement des gens font confiance à l'IA pour l'information générale. "Non non, ChatGPT, je ne te crois pas quand tu me dis que Napoléon était empereur de Rome." Mais 55% font confiance à cette même IA pour leurs achats. "Par contre, dis-moi quelle brosse à dents acheter, ô sage algorithme !"

Cette schizophrénie cognitive, c'est mon pain quotidien. En tant que marketeur, j'exploite cette faille avec la précision d'un chirurgien et l'éthique d'un vendeur de voitures d'occasion. Le "Subscribe & Save" d'Amazon ? Pure génie. Tu achètes du papier toilette UNE FOIS. Puis l'algo prend le relais. Plus jamais tu ne te poses la question existentielle : "Ai-je vraiment besoin de ce papier toilette triple épaisseur avec motifs de chatons ?" L'algo a décidé. Tu reçois. Tu utilises. Tu existes dans une boucle de consommation automatisée.

35% des revenus d'Amazon viennent du "Buy it Again". Trente-cinq pour cent ! C'est plus qu'un business model, c'est une lobotomie commerciale réussie. Les gens achètent les mêmes choses, encore et encore, sans jamais se demander s'ils en ont besoin, s'ils pourraient trouver mieux, moins cher, plus éthique, plus local. Non. Clic. Commandé. Livré. Répéter.

J'ai un exemple personnel (ou pas il est fictif - mais bon c'est mieux que de raconter que je ne suis pas allé en salle de sport - tellement cliché) qui me fait rire jaune. Pendant deux ans - DEUX ANS - j'ai reçu automatiquement du café en grains. Le même. Tous les mois. Un jour, ma femme me dit : "Tu sais qu'on a six kilos de café dans le placard ?" J'ouvre. Effectivement. Une muraille de paquets de café. Parce que j'avais oublié que j'avais automatisé l'achat, et l'algo, lui, n'oublie jamais.

Le plus pervers dans cette histoire ? Même après cette découverte, j'ai mis trois mois à annuler l'abonnement. Pourquoi ? Parce que c'était plus simple de continuer à recevoir du café dont je n'avais pas besoin que de prendre deux minutes pour cliquer sur "annuler". C'est ça, la puissance du biais d'automatisation : il transforme l'inertie en mode de vie.

Dans mon métier, on appelle ça "reducing friction". Réduire la friction. Rendre l'achat si simple, si fluide, si automatique que le cerveau n'a même plus le temps de dire "attends, est-ce que j'ai vraiment besoin de ça ?" Le one-click purchase d'Amazon, le Face ID payment d'Apple, le "swipe up to buy" d'Instagram - chaque innovation réduit la distance entre l'impulsion et l'achat.

Sauf que la friction, c'est pas juste un obstacle. C'est aussi ce qui nous fait réfléchir. C'est le moment où tu sors ton portefeuille et tu vois les billets et tu te dis "hmm, 50 euros pour un gadget cuisine, vraiment ?" C'est le temps de trajet jusqu'au magasin qui te permet de te demander si tu en as vraiment besoin. C'est la queue à la caisse qui te donne le temps de reconsidérer.

On a tué la friction. Et avec elle, on a tué la réflexion.

4.2 Le biais de confirmation : Votre bulle sur mesure, satisfaction garantie ou remboursée (mais vous ne demanderez jamais le remboursement)

Ah, le biais de confirmation ! Mon préféré. Celui qui transforme Internet en miroir narcissique géant où chacun ne voit que le reflet de ses propres opinions. C'est Narcisse 2.0, mais au lieu de se noyer dans son reflet, on se noie dans nos propres certitudes.

L'algorithme a compris un truc fondamental sur la nature humaine : on ADORE avoir raison. On adore tellement avoir raison qu'on préfère voir des contenus qui confirment nos opinions plutôt que des contenus vrais. C'est plus confortable. C'est plus agréable. C'est plus... rentable.

Prenons un exemple concret. Vous pensez que le bio c'est mieux ? Hop, votre feed se remplit d'articles sur les bienfaits du bio, les dangers des pesticides, les success stories de fermes biologiques. Vous pensez que le bio c'est une arnaque ? Tada ! Articles sur le greenwashing, études montrant que le bio n'est pas plus nutritif, témoignages d'agriculteurs ruinés par la conversion bio.

Les deux personnes vivent dans le même monde physique mais dans des univers informationnels parallèles. C'est de la science-fiction devenue réalité, sauf que Philip K. Dick aurait trouvé ça trop gros.

En marketing, on exploite ça avec une précision diabolique. Tu as regardé UNE vidéo de yoga ? Bienvenue dans l'univers du wellness. Tapis de yoga, leggings, applications de méditation, retraites spirituelles, compléments alimentaires ayurvédiques - tout ton univers digital se réorganise autour de cette unique interaction. Tu deviens "personne qui fait du yoga" dans la grande base de données de l'existence.

J'ai fait l'expérience. J'ai créé deux comptes Instagram. Sur l'un, j'ai liké des posts de musculation. Sur l'autre, des posts de course à pied. En trois semaines, les deux comptes vivaient dans des univers complètement différents. Le compte muscu ne voyait que des mecs bodybuildés, des protéines en poudre et des citations motivationnelles agressives. Le compte running ne voyait que des paysages de montagne, des montres GPS et des citations motivationnelles zen.

Même sport (en gros), deux mondes. Deux tribus. Deux réalités.

Le plus tragique ? Les gens dans chaque bulle pensent que leur bulle, c'est le monde. Ils voient tellement de contenus similaires qu'ils croient que tout le monde pense comme eux. "Mais enfin, TOUT LE MONDE sait que..." Non. Tout le monde dans TA bulle sait. Les autres bulles ne savent même pas que ta vérité existe.

C'est l'échec de la promesse originelle d'Internet. On nous avait vendu l'accès à toute l'information du monde. On se retrouve avec l'accès à l'information qui nous arrange. On nous avait promis l'ouverture d'esprit. On a eu le renforcement des préjugés.

4.3 L'heuristique de disponibilité : Pourquoi vous pensez que le monde va mal (spoiler : c'est rentable)

L'heuristique de disponibilité, c'est ce bug mental qui nous fait surestimer la probabilité des événements dont on se souvient facilement. En gros : si tu vois beaucoup de news sur les crashs d'avion, tu crois que les avions crashent tout le temps. Si tu vois beaucoup de stories de reconversion réussie, tu crois que tout le monde devient coach de vie.

Les algorithmes ont transformé ce biais en business model. Pourquoi ? Parce que ce dont on se souvient facilement, c'est l'émotionnel. Et qu'est-ce qui est émotionnel ? La peur, la colère, l'indignation, l'émerveillement. Pas "Jean a mangé une pomme". Mais "Jean DÉTRUIT un vegan avec cette SIMPLE pomme".

Dans mon métier, on appelle ça "engagement bait". On sait que les contenus négatifs génèrent 2,3 fois plus d'engagement que les positifs. Un article sur "Les 10 dangers cachés dans votre cuisine" fera trois fois plus de clics que "10 façons d'améliorer votre cuisine". C'est mathématique. C'est déprimant. C'est profitable.

J'ai analysé les campagnes d'une compagnie d'assurance (que je ne nommerai pas, j'ai signé un NDA plus épais que l'annuaire). Leur stratégie ? Bombardement. Articles sur les cambriolages dans les fils d'actu locaux. Vidéos de crashes de voiture dans les feeds. Stories d'incendies domestiques. Résultat ? +47% de devis d'assurance habitation en trois mois.

Les gens ne sont pas devenus plus en danger. Mais ils CROIENT être plus en danger. L'heuristique de disponibilité a fait le job. Mon client était content. Mon compte en banque aussi. Mon âme... on en reparlera.

Le plus ironique ? Statistiquement, on n'a jamais vécu dans un monde aussi sûr. Moins de crimes violents, moins d'accidents, espérance de vie en hausse constante (enfin, jusqu'au Covid, mais c'est une autre histoire). Mais on n'a jamais eu aussi peur. Parce qu'on n'a jamais été exposé à autant de contenus anxiogènes.

C'est le paradoxe de notre époque : plus on est safe, plus on a peur. Plus on a d'infos, moins on comprend. Plus on est connecté, plus on est seul.

4.4 La learned helplessness digitale : L'art d'oublier qu'on peut choisir

Martin Seligman, psychologue, années 70. Il fait une expérience sur des chiens (oui, c'était une autre époque). Il les met dans une cage avec un sol électrifié. Au début, les chiens essaient de s'échapper. Puis ils réalisent qu'ils ne peuvent pas. Alors ils abandonnent. Le plus fou ? Quand on ouvre la cage, ils ne sortent pas. Ils ont appris l'impuissance. Learned helplessness.

Nous sommes ces chiens. Sauf que notre cage est dorée, climatisée, avec wifi gratuit et livraison en 24h.

À force de laisser les algorithmes choisir pour nous, nous avons désappris à choisir. C'est plus qu'un biais, c'est une atrophie. Comme un muscle qu'on n'utilise plus. Le muscle du choix s'est transformé en appendice vestigial de notre psyché.

Amazon Basics en est l'illustration parfaite. Ces produits génériques, sans personnalité, sans histoire, qui grignotent toutes les catégories. Piles Amazon Basics. Câbles Amazon Basics. Bientôt, vie Amazon Basics. Pourquoi ça marche ? Parce qu'ils sont l'option par défaut. Pas besoin de choisir entre Duracell et Energizer. Amazon a choisi pour vous. C'est moins bien ? Peut-être. C'est moins cher ? Marginalement. C'est moins fatiguant ? Absolument.

J'ai un ami, Thomas, brillant ingénieur, QI de 140 minimum. Il m'a avoué récemment qu'il ne savait plus choisir un restaurant sans Google Reviews. Littéralement. Il se tient devant deux restaurants, l'un sent bon, l'autre a 4,7 étoiles, il choisit les étoiles. Même si l'odeur lui dit le contraire. Même si son instinct hurle. Les étoiles ont parlé.

"Mais Thomas," je lui dis, "tu es un putain de génie, tu conçois des algorithmes de trading haute fréquence, et tu peux pas choisir où bouffer ?"

Sa réponse m'a glacé : "Justement. Je sais comment les algos fonctionnent. Je sais qu'ils agrègent plus d'information que mon cerveau ne peut traiter. Donc statistiquement, ils ont plus de chances d'avoir raison."

C'est ça, la learned helplessness moderne. Ce n'est pas qu'on ne PEUT pas choisir. C'est qu'on a décidé que les machines choisissent mieux. C'est une abdication rationnelle. Une capitulation logique. Une reddition optimisée.

"Nous avons les biais. Les algorithmes ont les données. Devine qui gagne."

Annotations

Versions

Ce chapitre compte 3 versions.

Vous aimez lire Noureddine Qadiri ?

Commentez et annotez ses textes en vous inscrivant à l'Atelier des auteurs !
Sur l'Atelier des auteurs, un auteur n'est jamais seul : vous pouvez suivre ses avancées, soutenir ses efforts et l'aider à progresser.

Inscription

En rejoignant l'Atelier des auteurs, vous acceptez nos Conditions Générales d'Utilisation.

Déjà membre de l'Atelier des auteurs ? Connexion

Inscrivez-vous pour profiter pleinement de l'Atelier des auteurs !
0