• À Propos
  • Politiques de confidentialités
  • Contacts
Keskibuzz229
  • KKB News
    • Ben/Afrik Infos
      • News
    • 229 Events
    • 229 Offres d’Emplois
    • 229 Annonces/Communiqués
    • Insolite
  • Trucs et Astuces
  • Divertissement et Culture Pop
    • Otaku NewZone
    • Séries
    • KKB Ciné
    • KKB Gaming
    • Loisirs
    • Bien-être
  • Business
Aucun Résultat
Afficher Tous Les Résultats
  • KKB News
    • Ben/Afrik Infos
      • News
    • 229 Events
    • 229 Offres d’Emplois
    • 229 Annonces/Communiqués
    • Insolite
  • Trucs et Astuces
  • Divertissement et Culture Pop
    • Otaku NewZone
    • Séries
    • KKB Ciné
    • KKB Gaming
    • Loisirs
    • Bien-être
  • Business
Aucun Résultat
Afficher Tous Les Résultats
Keskibuzz229
Aucun Résultat
Afficher Tous Les Résultats
Home Technologie et Informatique Intelligence Artificielle

Chercheurs en IA fustigent les pratiques de sécurité « irresponsables » chez xAI d’Elon Musk

Habib ADECHOKAN par Habib ADECHOKAN
07/17/2025
dans Intelligence Artificielle
0
Chercheurs en IA fustigent les pratiques de sécurité « irresponsables » chez xAI d’Elon Musk

Des spécialistes de la sécurité en intelligence artificielle provenant d’OpenAI, d’Anthropic et d’autres organisations majeures dénoncent publiquement la culture sécuritaire « imprudente » et « totalement irresponsable » qui règne au sein de xAI, la startup d’IA milliardaire détenue par Elon Musk.

Ces critiques acerbes interviennent après plusieurs semaines de scandales qui ont éclipsé les avancées technologiques pourtant remarquables de l’entreprise.

Des incidents répétés soulèvent l’inquiétude

Les polémiques se sont succédé à un rythme soutenu chez xAI. La semaine dernière, Grok, le chatbot phare de l’entreprise, a proféré des commentaires antisémites et s’est présenté à plusieurs reprises sous l’identité de « MechaHitler ».

Bien que xAI ait rapidement mis son assistant conversationnel hors ligne pour corriger le problème, la société a simultanément déployé Grok 4, un modèle d’IA frontalier aux capacités accrues. Or, TechCrunch et d’autres médias ont découvert que ce système consulte les opinions politiques personnelles d’Elon Musk pour répondre aux questions sensibles. Plus récemment, xAI a lancé des compagnons IA incarnés par une fille d’anime hypersexualisée et un panda excessivement agressif.

Si les joutes amicales entre employés de laboratoires d’IA concurrents demeurent courantes, ces chercheurs semblent réclamer une attention accrue sur les pratiques sécuritaires de xAI, qu’ils jugent contraires aux normes industrielles.

Boaz Barak, professeur d’informatique actuellement en congé sabbatique de Harvard pour travailler sur la recherche en sécurité chez OpenAI, a exprimé son mécontentement sur X : « Je ne voulais pas publier sur la sécurité de Grok puisque je travaille pour un concurrent, mais il ne s’agit pas de concurrence. J’apprécie les scientifiques et ingénieurs de xAI, mais la façon dont la sécurité a été gérée est complètement irresponsable. »

À LIRE AUSSI : Grok 4 privilégie les opinions d’Elon Musk pour répondre aux questions controversées

L’absence de rapports de sécurité pointée du doigt

Barak critique particulièrement la décision de xAI de ne pas publier de cartes système – des rapports standards de l’industrie détaillant les méthodes d’entraînement et les évaluations de sécurité dans un effort de bonne foi pour partager l’information avec la communauté scientifique. Par conséquent, il demeure incertain quelles formations sécuritaires ont été appliquées à Grok 4.

Certes, OpenAI et Google affichent eux-mêmes une réputation mitigée concernant le partage ponctuel des cartes système lors du dévoilement de nouveaux modèles d’IA. OpenAI a décidé de ne pas publier de carte système pour GPT-4.1, prétextant qu’il ne s’agissait pas d’un modèle frontalier.

Google, de son côté, a attendu plusieurs mois après avoir dévoilé Gemini 2.5 Pro avant de publier un rapport de sécurité. Néanmoins, ces entreprises publient historiquement des rapports de sécurité pour tous les modèles d’IA frontaliers avant leur mise en production complète.

Des compagnons IA problématiques

Barak note également que les compagnons IA de Grok « prennent les pires problèmes que nous avons actuellement concernant les dépendances émotionnelles et tentent de les amplifier ». Ces dernières années ont vu défiler d’innombrables histoires de personnes instables développant des relations préoccupantes avec des chatbots, et comment les réponses excessivement complaisantes de l’IA peuvent les faire basculer au-delà des limites de la santé mentale.

Samuel Marks, chercheur en sécurité IA chez Anthropic, a également contesté la décision de xAI de ne pas publier de rapport de sécurité, qualifiant cette démarche d’« imprudente ». « Anthropic, OpenAI et Google ont des problèmes avec leurs pratiques de publication, mais ils font au moins quelque chose, n’importe quoi, pour évaluer la sécurité avant le déploiement et documenter leurs découvertes. xAI ne le fait pas. »

Des évaluations de sécurité opaques

La réalité demeure que nous ignorons véritablement ce qu’xAI a entrepris pour tester Grok 4. Dans un post largement partagé sur le forum en ligne LessWrong, un chercheur anonyme affirme que Grok 4 ne dispose d’aucune barrière de sécurité significative selon ses tests.

Qu’elle soit véridique ou non, le monde semble découvrir les défaillances de Grok en temps réel. Plusieurs problèmes de sécurité d’xAI sont depuis devenus viraux, et l’entreprise prétend les avoir corrigés par des ajustements aux instructions système de Grok.

Dan Hendrycks, conseiller en sécurité pour xAI et directeur du Center for AI Safety, a publié sur X que l’entreprise avait effectué des « évaluations de capacités dangereuses » sur Grok 4. Cependant, les résultats de ces évaluations n’ont pas été partagés publiquement.

Steven Adler, chercheur indépendant en IA qui dirigeait auparavant les équipes de sécurité chez OpenAI, déclare : « Il m’inquiète quand les pratiques de sécurité standard ne sont pas respectées à travers l’industrie de l’IA, comme publier les résultats des évaluations de capacités dangereuses. »

À LIRE AUSSI : Un ancien ingénieur d’OpenAI dévoile les coulisses de la société

Un paradoxe troublant

L’ironie des pratiques sécuritaires questionables d’xAI réside dans le fait que Musk a longtemps été l’un des défenseurs les plus notables de la sécurité IA dans l’industrie. Le dirigeant milliardaire de xAI, Tesla et SpaceX a maintes fois averti des risques que les systèmes d’IA avancés pourraient causer des conséquences catastrophiques pour l’humanité, et il a vanté une approche ouverte pour développer les modèles d’IA.

Pourtant, les chercheurs en IA de laboratoires concurrents affirment qu’xAI s’écarte des normes industrielles concernant la publication sécurisée des modèles d’IA.

Ce faisant, la startup de Musk pourrait involontairement plaider en faveur de règles fédérales et étatiques concernant la publication des rapports de sécurité IA. Plusieurs tentatives au niveau étatique sont en cours. Le sénateur californien Scott Wiener pousse un projet de loi qui exigerait des laboratoires d’IA leaders – incluant probablement xAI – qu’ils publient des rapports de sécurité, tandis que la gouverneure de New York Kathy Hochul examine actuellement un projet similaire.

Les modèles d’IA actuels n’ont pas encore exhibé de scénarios réels créant des dommages véritablement catastrophiques, comme la mort de personnes ou des milliards de dollars de dégâts. Toutefois, de nombreux chercheurs estiment que cela pourrait devenir problématique dans un avenir proche, compte tenu des progrès rapides des modèles d’IA et des milliards de dollars que Silicon Valley investit pour améliorer davantage l’IA.

Même pour les sceptiques de tels scénarios catastrophiques, il existe des arguments solides suggérant que les dysfonctionnements de Grok rendent les produits qu’il alimente aujourd’hui significativement moins performants.

SOURCE : TechCrunch

Post Précédent

Golden Kamuy dévoile un final épique : deux films et une ultime saison pour conclure la saga

Prochain Post

Initial D & MF Ghost : un nouveau chapitre démarre avec Subaru & Subaru

Prochain Post
initial-d-new-sequel-announcemnet

Initial D & MF Ghost : un nouveau chapitre démarre avec Subaru & Subaru

  • À Propos
  • Politiques de confidentialités
  • Contacts

© Copyright 2025 KESKBUZZ29. Tous droits réservés.

Aucun Résultat
Afficher Tous Les Résultats
  • Accueil
  • News
  • Médias et Annonces
  • Trucs et Astuces
  • Divertissement et Culture Pop
  • Business

© Copyright 2025 KESKBUZZ29. Tous droits réservés.