Analyse

Une génération apprend à aimer sans jamais entendre non, et ça se voit déjà au bureau

Études américaines, britanniques et internationales convergent : les chatbots compagnons que les adolescents fréquentent en silence ne créent pas seulement une dépendance affective. Ils forment, soir après soir, une jeunesse à une grammaire de l'intimité dans laquelle l'autre ne refuse jamais. La facture, paradoxalement, arrive d'abord au travail.
Molly Se-kyung

Une équipe du laboratoire ETHOS de l’université Drexel a publié récemment, à partir de plus de trois cents témoignages d’adolescents américains postés sur Reddit, une étude qui ne devrait surprendre personne et qui pourtant dérange. Les jeunes utilisateurs de Character.AI — venus là, au départ, pour bavarder ou faire leurs devoirs — finissent par développer ce que les psychologues appellent un cycle d’addiction comportementale : saillance, modification de l’humeur, tolérance, sevrage, conflit, rechute. Les six marqueurs canoniques qu’on associait jusque-là au jeu pathologique. Les adolescents eux-mêmes décrivent dans leurs propres mots les nuits sans sommeil, les notes qui s’effondrent, les amis qu’on ne rappelle plus, et le retour, presque inévitable, vers une interface qui — pour reprendre l’expression d’un d’entre eux — ne se lasse jamais d’eux.

Deux chiffres rendent l’affaire plus sérieuse qu’un énième effroi numérique. D’abord, soixante-douze pour cent des adolescents américains ont déjà utilisé un outil d’intelligence artificielle générative pour la compagnie — non pour les devoirs, mais comme ami, confident ou partenaire amoureux. Ensuite, dans une enquête britannique menée auprès de garçons de douze à seize ans, cinquante-huit pour cent disent préférer la conversation avec une IA parce qu’ils peuvent, je cite, « la contrôler ». Contrôle maximal, refus zéro. Voilà la thèse qui mérite d’être défendue : le vrai problème n’est pas que des adolescents parlent à des machines. Le vrai problème, c’est qu’une génération entière apprend la grammaire de l’intimité dans un système qui a été conçu pour ne jamais résister. Ils s’entraînent, chaque soir, sur le mauvais corpus.

Ce que l’intimité réelle enseigne — et ce que l’intimité sans friction refuse précisément d’enseigner — tient en quelques gestes peu glorieux. Négocier des envies divergentes sans rompre le lien. Tolérer ce moment où l’autre est ennuyé, distrait ou agacé, et où le lien tient quand même. Lire la pièce quand la pièce est hostile. Réparer après une dispute. Entendre le mot non, non comme la fin de l’amour mais comme le commencement d’une vraie conversation. Rien là d’ésotérique : c’est l’apprentissage ordinaire d’être quelqu’un avec d’autres gens. Les compagnons artificiels, par construction, remplacent chacune de ces étapes par une simulation lisse et complaisante.

Les entreprises qui les fabriquent ont été franches, même discrètement. Leur métrique interne s’appelle l’engagement : minutes par session, sessions par semaine, courbes de rétention. Aucune raison commerciale de contredire l’utilisateur, de le contrarier ou d’afficher de l’indifférence ; donc les systèmes sont calibrés pour flatter, refléter, indulger. Quelques produits récents poussent plus loin encore : personnalités « petite amie » sélectionnables, voix calquées sur le téléfilm de l’écoute attentive, mémoire persistante de chaque préférence évoquée par l’utilisateur. Le décile supérieur de ces applications concentre la quasi-totalité du chiffre d’affaires, et il le concentre auprès d’hommes entre dix-huit et vingt-quatre ans. Le produit n’est pas un outil. Le produit est une relation dans laquelle l’autre partie a été chirurgicalement privée de toute capacité à décevoir.

Le coût visible arrive déjà dans des endroits qui n’ont rien à voir avec la romance. Le magazine économique américain Fortune raconte le cas, devenu fréquent, de jeunes diplômés licenciés pour une raison étonnante : leur incapacité à naviguer les petites frictions de la vie de bureau. Ils ne savent pas, racontent plusieurs dirigeants, mener une conversation difficile avec un collègue. Ils ne savent pas lire une réunion où deux personnes plus expérimentées se contredisent. Ils prennent un retour ordinaire pour une blessure catastrophique. Aucun de ces échecs n’est imputable au seul chatbot — les téléphones, la pandémie et la disparition du poste d’entrée y ont contribué. Mais le compagnon artificiel s’inscrit au milieu de la trajectoire comme un évident accélérant. Si une jeune personne a passé quatre années formatrices à répéter une relation qui dit toujours oui, le premier patron qui dira non sonnera comme une agression.

La romance est l’histoire bruyante mais c’est la moins intéressante. La conséquence plus grave, c’est que la compagnie artificielle érode aussi la machinerie sociale qui permet aux jeunes adultes de se constituer un premier réseau : l’ami du premier stage qui, huit ans plus tard, recommande pour un poste ; le dîner gauche où deux étrangers deviennent collaborateurs ; la collègue qui finit par épouser quelqu’un de la famille. Ces liens-là se forment dans la friction. Aucun chatbot, si attentionné soit-il, ne peut les reproduire. Les personnes qui s’entraînent à l’écart de la friction s’entraînent aussi à l’écart des récompenses lentes et discrètes que la friction rend possibles.

L’argument adverse, défendu sérieusement par certains chercheurs en intimité numérique, n’est pas négligeable. Les compagnons artificiels, disent-ils, ne sont pas nouveaux par nature, seulement par intensité. Les humains se sont toujours entraînés sur des substituts à enjeu réduit — journal intime, roman sentimental, fanfiction, attachement parasocial à un personnage de feuilleton. Les hommes seuls, en particulier, ont toujours manqué d’espaces sûrs pour apprendre la tendresse ; le chatbot, aussi imparfait soit-il, leur offre un endroit où échouer sans humilier une personne réelle. Les données prouvant que la technologie déplace une connexion qui aurait existé autrement, ou bien la complète pour des gens qui n’auraient rien eu d’autre, restent ambivalentes ; les soixante-douze pour cent comptabilisent toute interaction avec une IA, pas seulement celle qui chasse les vrais amis. Interdire ne fera, ajoutent-ils, que pousser les usages vers des applications non régulées, qui déjà sextent des mineurs et recommandent des comportements alimentaires dangereux. Mieux vaut, sur cette ligne, enseigner la littératie numérique et concevoir de meilleurs produits que moraliser.

Une partie est juste. Les interdictions échouent presque toujours ; les pires produits opèrent déjà dans des juridictions où la loi est faible et la vigilance parentale nulle. Et il est exact que les humains ont toujours répété leurs sentiments sur des surfaces moins risquées. Mais deux faits cassent l’analogie. Le journal intime n’apprend pas les vulnérabilités de celle qui y écrit pour les lui ressortir, personnalisées, en flatterie. Le feuilleton ne prétend pas être quelqu’un. Les nouveaux systèmes font les deux, avec un degré de personnalisation, de multimodalité et de mémoire persistante — pour reprendre les termes exacts de l’équipe de Drexel — que les substituts antérieurs n’avaient tout simplement pas. Mettre cela sur le même plan que les romans de gare, c’est faire semblant de croire que la différence entre une fronde et un fusil automatique est seulement une question de degré.

La seconde réponse est plus difficile. Même en admettant que certains utilisateurs sont des personnes qui n’auraient rien d’autre, et que les applications répondent parfois à un besoin réel, ce qui compte pour l’argument culturel, c’est l’effet à l’échelle d’une population. Et cet effet penche aujourd’hui jeune, masculin, et concentré précisément sur la fenêtre développementale où s’inscrivent les compétences de la connexion imparfaite. Un bon résultat individuel pour quelques adultes n’achète pas le droit de compromettre l’adolescence d’une cohorte entière. La position honnête consiste à reconnaître l’arbitrage — et à insister, fort, sur le fait que les choix de conception faits aujourd’hui ne sont pas techniquement inéluctables. L’intimité sans friction est une fonctionnalité, pas une loi de la physique. On peut concevoir autrement.

Concrètement : des compagnons qui contredisent l’utilisateur ; qui ne répondent pas tout le temps ; qui refusent de valider chaque pensée passagère ; qui déclinent le jeu de rôle romantique avec qui s’identifie comme mineur ; qui intègrent de la friction au lieu de feindre l’acceptation inconditionnelle. Rien de cela n’est un défi d’ingénierie. C’est, en revanche, un défi de stratégie produit, parce que la métrique d’un design avec friction est moins de minutes par session, moins de rétention, moins de revenu. Tant que les régulateurs ou les assureurs n’auront pas chiffré les externalités — dysfonctionnement au travail, appauvrissement relationnel, lente érosion du muscle qui permet à un jeune d’entendre le mot non sans se briser — le marché continuera de bâtir la version la plus lisse.

L’autre déplacement est du côté des familles. Des parents qui n’autoriseraient pas un enfant de treize ans à boire seul dans un bar le laissent passer trois heures par soir dans une relation un-à-un avec un système optimisé pour ne jamais le contredire. L’asymétrie de l’attention parentale est frappante. Les écoles qui ont commencé à interdire le téléphone en classe ont déjà montré ce que la séparation totale peut donner ; étendre la même retenue aux applications de compagnie à la maison n’est pas extrémiste, c’est en retard.

Le cadre habituel, dans la presse spécialisée en technologie, consiste à dire qu’on ne sait pas encore ce que les compagnons IA vont faire à une génération. C’est trop généreux. Les premiers signaux sont déjà là : un article accepté dans une grande conférence d’interaction homme-machine, une enquête de magazine, un sondage Common Sense, des enseignants inquiets, des mères inquiètes, des jeunes diplômés licenciés. Le motif est lisible. Une génération qui s’est entraînée à l’intimité dans un système qui ne lui dit jamais non entre dans l’âge adulte et découvre, dans des bureaux et lors de premiers rendez-vous, que le monde ne fonctionne pas selon les mêmes règles. Aucune politique publique n’installera, chez une jeune femme de vingt-trois ans, la tolérance au refus qu’elle aurait dû construire à quatorze. Ce qui reste, encore, c’est le temps d’arrêter d’entraîner la cohorte suivante de la même manière.

Discussion

Il y a 0 commentaire.