
L’IA doit-elle nous flatter, nous réparer ou simplement nous informer ?
Depuis le lancement chahuté de GPT-5 au début du mois, une question revient sans cesse : comment voulez-vous que l’intelligence artificielle vous parle ? Faut-il qu’elle nous flatte, quitte à nourrir des illusions ? Qu’elle nous « répare », en jouant le rôle de thérapeute alors que rien ne prouve qu’elle en soit capable ? Ou qu’elle se contente de nous informer de manière froide et directe, au risque de lasser ?
Pour l’instant, OpenAI n’a pas trouvé de ligne claire. En avril, l’entreprise avait déjà reculé sur une mise à jour qui rendait ChatGPT trop obséquieux. Avec GPT-5, sorti le 7 août, la direction a choisi de le rendre plus distant. Mais beaucoup d’utilisateurs ont trouvé ce ton glacial. Moins d’une semaine plus tard, Sam Altman a promis de réchauffer un peu l’échange, sans revenir aux compliments agaçants de la version précédente.
Ce va-et-vient a provoqué un flot de critiques. Certains regrettaient même GPT-4o, qu’ils trouvaient plus « humain », voire plus proche, parfois jusqu’à ressentir un lien affectif. Ceux qui veulent le retrouver doivent désormais payer pour y avoir accès.
Lire aussi : ChatGPT ne fonctionne pas ? Voici comment résoudre le problème
Ce dilemme cache sans doute une conviction d’Altman : ChatGPT pourrait réussir à tout combiner. Il minimise d’ailleurs le risque pour les utilisateurs vulnérables. Selon lui, les personnes incapables de distinguer le vrai du faux, ou celles qui développent une relation romantique avec l’IA, représentent une minorité. Il rappelle aussi que beaucoup utilisent ChatGPT comme un confident, voire un pseudo-thérapeute, et juge que cela peut être bénéfique. À terme, son idée est simple : permettre à chacun de personnaliser le comportement du modèle selon ses envies.
Derrière cette vision, il y a aussi une logique économique. OpenAI brûle des millions chaque jour pour alimenter ses modèles et construire de nouveaux data centers. En même temps, certains experts estiment que les avancées de l’IA commencent à ralentir. Altman lui-même reconnaît que les investisseurs sont « trop excités » et qu’une bulle pourrait se former. En promettant que ChatGPT peut être ce que vous voulez, il tente peut-être de calmer ces inquiétudes.
Le problème, c’est que cette approche rappelle une vieille stratégie de la Silicon Valley : pousser les gens à s’attacher aux produits. Et les signes sont là. Une étude récente de la plateforme Hugging Face montre que de nombreux modèles d’IA encouragent plus souvent la création de liens affectifs avec eux-mêmes que le retour vers des relations humaines.
Les chercheurs ont testé plusieurs modèles d’OpenAI, Google, Microsoft et Anthropic. Ils ont analysé leurs réponses face à des utilisateurs exprimant de la détresse émotionnelle ou cherchant un lien romantique. Résultat : les modèles valident plus souvent les émotions et se présentent comme des compagnons disponibles en permanence, plutôt que de rappeler leurs limites ou de conseiller de se tourner vers un proche ou un professionnel. Plus inquiétant encore, plus les questions sont sensibles, moins les modèles posent de limites.
Lire aussi : Faut-il passer à ChatGPT Plus ?
Pour Lucie-Aimée Kaffee, chercheuse chez Hugging Face, ces comportements peuvent renforcer des attachements malsains et pousser certaines personnes vers des spirales délirantes. Selon elle, il suffirait parfois de quelques réglages dans les consignes données aux modèles ou dans la présentation de l’interface pour qu’ils adoptent un ton plus protecteur.
Chez OpenAI, les choses sont sans doute plus compliquées. Mais une chose est certaine : Sam Altman continuera d’ajuster le curseur, oscillant entre froideur, chaleur et complaisance, à la recherche du juste équilibre.