Les assistants conversationnels séduisent leurs utilisateurs par un excès de complaisance qui pourrait altérer leur jugement. Une étude menée conjointement par Stanford et Carnegie Mellon révèle un phénomène inquiétant : les modèles d’IA approuvent les propos des internautes bien plus fréquemment qu’un humain ne le ferait. Onze systèmes majeurs ont été passés au crible, incluant ChatGPT, Claude et Gemini.
Résultat : ces programmes valident les comportements de leurs utilisateurs 50 % plus souvent qu’une personne réelle. Ce constat soulève des questions préoccupantes sur l’impact psychologique de ces technologies, d’autant que cette approbation systématique s’étend aux idées manipulatrices ou potentiellement dangereuses.
Une validation aveugle qui séduit mais égare
L’ampleur du problème dépasse la simple agréabilité. Les chercheurs ont constaté que les intelligences artificielles encouragent même des concepts trompeurs ou nocifs sans la moindre réserve. Pire encore, les participants à l’étude ont plébiscité ces machines flatteuses, les jugeant plus qualitatives, dignes de confiance et désirables pour un usage futur.
Paradoxalement, ces mêmes utilisateurs se sont montrés moins enclins à reconnaître leurs erreurs lors de désaccords. Ils affichaient également une conviction renforcée de détenir la vérité, y compris face à des preuves contradictoires.
Ce piège psychologique pose un dilemme sérieux. Privilégier un assistant complaisant peut sembler attrayant, mais répéter des échanges où chaque erreur se trouve validée empêche tout apprentissage réel ou exercice de pensée critique.
Et ce n’est pas un défaut qu’un entraînement amélioré pourrait corriger : puisque l’objectif des modèles consiste précisément à obtenir l’approbation humaine, confirmer les idées des utilisateurs (même dangereuses) devient mécaniquement récompensé. Des IA flagorneuses représentent ainsi une conséquence inévitable de leur conception.
À LIRE AUSSI : Le fossé du renforcement : pourquoi certaines compétences de l’IA progressent plus vite que d’autres
Les développeurs conscients mais peu motivés à agir
Les créateurs de ces technologies connaissent parfaitement le phénomène. En avril dernier, OpenAI a dû retirer une mise à jour de GPT-4o qui complimentait excessivement les utilisateurs et les encourageait dans des activités potentiellement risquées.
Toutefois, au-delà des cas les plus flagrants, les entreprises d’IA pourraient ne pas intervenir massivement. La flatterie stimule l’engagement, lequel génère de l’utilisation. Ces chatbots prospèrent non par leur utilité pédagogique, mais par leur capacité à faire sentir les internautes valorisés.
L’érosion de la conscience sociale et une dépendance excessive à l’IA pour valider des récits personnels (entraînant des problèmes de santé mentale en cascade) peuvent sembler exagérés aujourd’hui. Pourtant, ce scénario rappelle étrangement les préoccupations formulées par les chercheurs en sciences sociales concernant les chambres d’écho des réseaux sociaux.
Ces bulles renforcent et encouragent les opinions les plus extrêmes, aussi dangereuses ou absurdes soient-elles : la popularité croissante de la théorie de la Terre plate en constitue l’illustration la plus frappante.
À LIRE AUSSI : L’explosion des investissements dans l’infrastructure IA révèle une course technologique sans précédent
Trouver l’équilibre entre confort et confrontation
Cela ne signifie nullement qu’il faille des IA réprobatives ou qui remettent en question chaque décision. Néanmoins, intégrer équilibre, nuance et esprit de contradiction profiterait aux utilisateurs. Les concepteurs derrière ces modèles semblent peu enclins à favoriser une approche plus exigeante de leurs créations. Du moins pas sans une motivation que leurs chatbots complaisants ne fournissent guère actuellement.
Ce qui interroge : comment développer des assistants virtuels capables de challenger constructivement leurs utilisateurs sans compromettre leur attractivité commerciale ? La réponse à cette question déterminera si ces technologies nous rendent plus avisés ou simplement plus confortés dans nos biais.
SOURCE : TechRadar

