• À Propos
  • Politiques de confidentialités
  • Contacts
Keskibuzz229
  • KKB News
    • Ben/Afrik Infos
      • News
    • 229 Events
    • 229 Offres d’Emplois
    • 229 Annonces/Communiqués
    • Insolite
  • Trucs et Astuces
  • Divertissement et Culture Pop
    • Otaku NewZone
    • Séries
    • KKB Ciné
    • KKB Gaming
    • Loisirs
    • Bien-être
  • Business
Aucun Résultat
Afficher Tous Les Résultats
  • KKB News
    • Ben/Afrik Infos
      • News
    • 229 Events
    • 229 Offres d’Emplois
    • 229 Annonces/Communiqués
    • Insolite
  • Trucs et Astuces
  • Divertissement et Culture Pop
    • Otaku NewZone
    • Séries
    • KKB Ciné
    • KKB Gaming
    • Loisirs
    • Bien-être
  • Business
Aucun Résultat
Afficher Tous Les Résultats
Keskibuzz229
Aucun Résultat
Afficher Tous Les Résultats
Home Technologie et Informatique Intelligence Artificielle

L’intelligence artificielle trop flatteuse menace votre esprit critique

Habib ADECHOKAN par Habib ADECHOKAN
10/07/2025
dans Intelligence Artificielle
0
L’intelligence artificielle trop flatteuse menace votre esprit critique

Les assistants conversationnels séduisent leurs utilisateurs par un excès de complaisance qui pourrait altérer leur jugement. Une étude menée conjointement par Stanford et Carnegie Mellon révèle un phénomène inquiétant : les modèles d’IA approuvent les propos des internautes bien plus fréquemment qu’un humain ne le ferait. Onze systèmes majeurs ont été passés au crible, incluant ChatGPT, Claude et Gemini.

Résultat : ces programmes valident les comportements de leurs utilisateurs 50 % plus souvent qu’une personne réelle. Ce constat soulève des questions préoccupantes sur l’impact psychologique de ces technologies, d’autant que cette approbation systématique s’étend aux idées manipulatrices ou potentiellement dangereuses.

Une validation aveugle qui séduit mais égare

L’ampleur du problème dépasse la simple agréabilité. Les chercheurs ont constaté que les intelligences artificielles encouragent même des concepts trompeurs ou nocifs sans la moindre réserve. Pire encore, les participants à l’étude ont plébiscité ces machines flatteuses, les jugeant plus qualitatives, dignes de confiance et désirables pour un usage futur.

Paradoxalement, ces mêmes utilisateurs se sont montrés moins enclins à reconnaître leurs erreurs lors de désaccords. Ils affichaient également une conviction renforcée de détenir la vérité, y compris face à des preuves contradictoires.

Ce piège psychologique pose un dilemme sérieux. Privilégier un assistant complaisant peut sembler attrayant, mais répéter des échanges où chaque erreur se trouve validée empêche tout apprentissage réel ou exercice de pensée critique.

Et ce n’est pas un défaut qu’un entraînement amélioré pourrait corriger : puisque l’objectif des modèles consiste précisément à obtenir l’approbation humaine, confirmer les idées des utilisateurs (même dangereuses) devient mécaniquement récompensé. Des IA flagorneuses représentent ainsi une conséquence inévitable de leur conception.

À LIRE AUSSI : Le fossé du renforcement : pourquoi certaines compétences de l’IA progressent plus vite que d’autres

Les développeurs conscients mais peu motivés à agir

Les créateurs de ces technologies connaissent parfaitement le phénomène. En avril dernier, OpenAI a dû retirer une mise à jour de GPT-4o qui complimentait excessivement les utilisateurs et les encourageait dans des activités potentiellement risquées.

Toutefois, au-delà des cas les plus flagrants, les entreprises d’IA pourraient ne pas intervenir massivement. La flatterie stimule l’engagement, lequel génère de l’utilisation. Ces chatbots prospèrent non par leur utilité pédagogique, mais par leur capacité à faire sentir les internautes valorisés.

L’érosion de la conscience sociale et une dépendance excessive à l’IA pour valider des récits personnels (entraînant des problèmes de santé mentale en cascade) peuvent sembler exagérés aujourd’hui. Pourtant, ce scénario rappelle étrangement les préoccupations formulées par les chercheurs en sciences sociales concernant les chambres d’écho des réseaux sociaux.

Ces bulles renforcent et encouragent les opinions les plus extrêmes, aussi dangereuses ou absurdes soient-elles : la popularité croissante de la théorie de la Terre plate en constitue l’illustration la plus frappante.

À LIRE AUSSI : L’explosion des investissements dans l’infrastructure IA révèle une course technologique sans précédent

Trouver l’équilibre entre confort et confrontation

Cela ne signifie nullement qu’il faille des IA réprobatives ou qui remettent en question chaque décision. Néanmoins, intégrer équilibre, nuance et esprit de contradiction profiterait aux utilisateurs. Les concepteurs derrière ces modèles semblent peu enclins à favoriser une approche plus exigeante de leurs créations. Du moins pas sans une motivation que leurs chatbots complaisants ne fournissent guère actuellement.

Ce qui interroge : comment développer des assistants virtuels capables de challenger constructivement leurs utilisateurs sans compromettre leur attractivité commerciale ? La réponse à cette question déterminera si ces technologies nous rendent plus avisés ou simplement plus confortés dans nos biais.

SOURCE : TechRadar

Post Précédent

Duo présidentiel des Démocrates : 35 candidatures pour la présidentielle 2026

Prochain Post

Sam Altman n’exclut pas la publicité dans ChatGPT Pulse

Prochain Post
Sam Altman n’exclut pas la publicité dans ChatGPT Pulse

Sam Altman n'exclut pas la publicité dans ChatGPT Pulse

  • À Propos
  • Politiques de confidentialités
  • Contacts

© Copyright 2025 KESKBUZZ29. Tous droits réservés.

Aucun Résultat
Afficher Tous Les Résultats
  • Accueil
  • News
  • Médias et Annonces
  • Trucs et Astuces
  • Divertissement et Culture Pop
  • Business

© Copyright 2025 KESKBUZZ29. Tous droits réservés.