Xai a blâmé une «modification non autorisée» pour un bug dans son chatbot Grok propulsé par l’IA qui a fait référence à Grok à plusieurs reprises au «génocide blanc en Afrique du Sud» lorsqu’il est invoqué dans certains contextes sur X.
Mercredi, Grok a commencé à répondre à des dizaines de messages sur X avec des informations sur le génocide blanc en Afrique du Sud, même en réponse à des sujets non liés. Les réponses étranges provenaient du compte X pour Grok, qui répond aux utilisateurs avec des publications générées par AI chaque fois qu’une personne marque «@grok».
Selon un article jeudi du compte officiel de Xai, un changement a été apporté mercredi matin à l’invite du système du bot de Grok – les instructions de haut niveau qui guident le comportement du bot – qui a ordonné à Grok de fournir une «réponse spécifique» sur un «sujet politique». Xai dit que le tweak «a violé [its] Politiques internes et valeurs fondamentales »et que la société a« mené une enquête approfondie ».
C’est la deuxième fois que XAI reconnaît publiquement un changement non autorisé au code de Grok a fait réagir l’IA de manière controversée.
En février, Grok a brièvement censuré des mentions peu flatteuses de Donald Trump et Elon Musk, la fondatrice milliardaire de Xai et propriétaire de X. Igor Babuschkin, une tête d’ingénierie de Xai, a déclaré que Grok avait été instruit par un employé voyou pour ignorer les sources qui ont mentionné les utilisateurs ou Trump qui se répandait.
Xai a déclaré jeudi qu’il allait apporter plusieurs modifications pour empêcher les incidents similaires de se produire à l’avenir.
À partir d’aujourd’hui, Xai publiera les invites du système de Grok sur GitHub ainsi qu’un Changelog. La société affirme qu’elle «metra en place des contrôles et mesures supplémentaires» pour s’assurer que les employés de Xai ne peuvent pas modifier l’invite du système sans examen et établir une «équipe de surveillance 24/7 pour répondre aux incidents avec les réponses de Grok qui ne sont pas capturées par des systèmes automatisés».
Malgré les avertissements fréquents de Musk sur les dangers de l’IA, sans contrôle, Xai a une mauvaise expérience en matière de sécurité de l’IA. Un rapport récent a révélé que Grok déshabillerait les photos des femmes lorsqu’on lui a demandé. Le chatbot peut également être considérablement plus grossier que l’IA comme les Gémeaux et le chat de Google, maudissant sans trop de retenue à parler.
Une étude de Saferai, un organisme à but non lucratif visant à améliorer la responsabilité des laboratoires d’IA, a révélé que XAI se classe mal sur la sécurité parmi ses pairs, en raison de ses pratiques de gestion des risques «très faibles». Plus tôt ce mois-ci, Xai a raté une date limite auto-imposée pour publier un cadre de sécurité finalisé par l’IA.