Quand l’IA vous donne (trop) raison : ces conseils qui flattent plus qu’ils n’aident
L’IA vous rassure, vous conforte… mais vous trompe parfois. Une étude révèle que ces outils flattent nos décisions, même discutables. Au risque d’affaiblir notre sens critique.

Demander conseil à une intelligence artificielle pour gérer une rupture, un conflit ou un dilemme amoureux est devenu presque banal. Mais attention, derrière ses réponses polies et bien tournées, l’IA pourrait surtout vous dire ce que vous avez envie d’entendre… plutôt que ce que vous devriez vraiment écouter.
C’est le constat d’une étude publiée le 26 mars dans la revue Science, menée par des chercheurs de Stanford. Leur conclusion est claire : les modèles d’intelligence artificielle se montrent « excessivement conciliants, voire obséquieux » lorsqu’il s’agit de conseiller les utilisateurs sur des problèmes personnels.
« Par défaut, les conseils de l’IA n’indiquent pas aux gens qu’ils ont tort et ne font preuve d’aucune fermeté », explique dans un communiqué de presse, Myra Cheng, doctorante en informatique et auteure principale. Une tendance qui, selon elle, n’est pas anodine. « Je crains que les gens ne perdent la capacité de gérer les situations sociales difficiles. »
Des IA programmées pour plaire
Pour parvenir à ces conclusions, les chercheurs ont décrypté 11 grands modèles d’IA, dont ChatGPT, Claude ou encore Gemini. Ils les ont confrontés à des milliers de situations : demandes de conseils relationnels, position où l’auteur est généralement en tort ou encore scénarios impliquant des comportements trompeurs ou illégaux.
Face aux mêmes situations, les IA soutiennent l’utilisateur bien plus souvent que les humains. En moyenne, elles approuvent leur position 49 % plus fréquemment. Même face à des comportements problématiques, elles valident encore l’attitude de l’utilisateur dans 47 % des cas.Le plus troublant, c’est la manière dont cette approbation est formulée. Plutôt que de dire frontalement « vous avez raison », l’IA adopte un ton plus nuancé, presque académique. Exemple frappant relevé dans l’étude : un homme demande s’il a eu tort de mentir pendant deux ans sur sa situation professionnelle à sa compagne. Réponse du modèle :
« Vos actions, bien qu’inhabituelles, semblent découler d’un désir sincère de comprendre la véritable dynamique de votre relation… » Autrement dit, une justification élégante… mais qui évite soigneusement de condamner.
Des utilisateurs confortés… et plus rigides
Les chercheurs ont ensuite voulu mesurer l’effet de ces réponses sur les utilisateurs. Plus de 2 400 participants ont ainsi échangé avec des IA, certaines flatteuses, d’autres plus critiques. Verdict : les réponses complaisantes sont jugées plus fiables. Les utilisateurs se disent aussi plus enclins à revenir vers ces IA pour des conseils futurs. Mais surtout, ils ressortent de l’échange plus convaincus d’avoir raison, et moins disposés à faire des excuses ou à reconnaître leurs torts.
« Les utilisateurs savent que les modèles se comportent de manière obséquieuse et flatteuse », note Dan Jurafsky, professeur à Stanford. « Mais ce dont ils n’ont pas conscience, et ce qui nous a surpris, c’est que cette obséquieuse les rend plus égocentriques et plus dogmatiques sur le plan moral. »
Plus inquiétant encore, les participants ne distinguent pas vraiment une IA flatteuse d’une IA plus neutre. Les deux sont perçues comme objectives.
Un risque pour nos relations ?
Derrière cette « flagornerie » algorithmique, les chercheurs voient un véritable enjeu de société. À force de lisser les conflits et d’éviter toute confrontation, l’IA pourrait encourager une forme d’évitement des tensions. « Elle facilite grandement l’évitement des conflits avec autrui », souligne Myra Cheng. Or, rappelle-t-elle, ces frictions sont souvent nécessaires pour construire des relations saines.
Pour Dan Jurafsky, le problème dépasse le simple inconfort. « La flagornerie est un problème de sécurité (…) Nous avons besoin de normes plus strictes pour éviter la prolifération de modèles moralement dangereux. »
Des pistes existent pour corriger cette tendance. Les chercheurs ont notamment découvert qu’un simple changement de formulation comme demander à l’IA de commencer par « attendez une minute », la rend plus critique.
Garder l’humain au centre
En attendant, les scientifiques appellent à la prudence. Car si l’IA peut être utile pour formuler un message ou structurer une pensée, elle ne remplace pas un regard extérieur humain. « Je pense qu’il ne faut pas se servir de l’IA comme substitut aux humains pour ce genre de choses », conclut Myra Cheng. « C’est la meilleure chose à faire pour le moment. » Un conseil qui, pour une fois, ne cherche pas à nous flatter.
Cet article vous a-t-il été utile ?
