Le PDG d’Anthropic, Dario Amodei, croit que les modèles AI d’aujourd’hui hallucinent, ou inventent les choses et les présentent comme s’ils étaient vraies, à un taux inférieur à celui des humains, a-t-il déclaré lors d’un point de presse lors de l’événement de développeur d’Anthropic, Code avec Claude, à San Francisco jeudi.
Amodei a dit tout cela au milieu d’un point plus grand qu’il faisait: que les hallucinations AI ne sont pas une limitation du chemin anthropique vers les systèmes AGI – AI avec intelligence de niveau humain ou mieux.
“Cela dépend vraiment de la façon dont vous le mesurez, mais je soupçonne que les modèles d’IA hallucinent probablement moins que les humains, mais ils hallucinent de manière plus surprenante”, a déclaré Amodei, répondant à la question de TechCrunch.
Le PDG d’Anthropic est l’un des leaders les plus optimistes de l’industrie à la perspective de la réalisation de AGI. Dans un article largement diffusé, qu’il a écrit l’année dernière, Amodei a déclaré qu’il pensait qu’Agi pourrait arriver dès 2026. Lors du point de presse de jeudi, le PDG anthropique a déclaré qu’il voyait des progrès réguliers à cette fin, notant que «l’eau augmente partout.»
«Tout le monde cherche toujours ces blocs durs sur quoi [AI] peut faire », a déclaré Amodei.« Ils sont introuvables. Il n’y a rien de tel.
D’autres chefs d’IA croient que l’hallucination présente un grand obstacle à la réalisation de l’AGI. Plus tôt cette semaine, le PDG de Google Deepmind Demis Hassabis a déclaré que les modèles AI d’aujourd’hui avaient trop de «trous» et se trompent trop de questions évidentes. Par exemple, plus tôt ce mois-ci, un avocat représentant Anthropic a été contraint de s’excuser devant le tribunal après avoir utilisé Claude pour créer des citations dans un dossier judiciaire, et le chatbot AI a halluciné et a eu des noms et des titres.
Il est difficile de vérifier la revendication d’Amodei, en grande partie parce que la plupart des références d’hallucination se présentent des modèles d’IA; Ils ne comparent pas les modèles aux humains. Certaines techniques semblent aider les taux d’hallucination inférieurs, comme donner aux modèles d’IA l’accès à la recherche Web. Par ailleurs, certains modèles d’IA, tels que le GPT-4.5 d’OpenAI, ont notamment des taux d’hallucination inférieurs sur les repères par rapport aux générations de systèmes au début.
Cependant, il existe également des preuves pour suggérer que les hallucinations empirent en fait dans les modèles avancés de raisonnement d’IA. Les modèles O3 et O4-Mini d’OpenAI ont des taux d’hallucination plus élevés que les modèles de raisonnement de la génération précédente d’OpenAI, et la société ne comprend pas vraiment pourquoi.
Plus tard dans le point de presse, Amodei a souligné que les diffuseurs télévisés, les politiciens et les humains dans tous les types de professions font des erreurs tout le temps. Le fait que l’IA fasse aussi des erreurs n’est pas un coup sur son intelligence, selon Amodei. Cependant, le PDG d’Anthropic a reconnu la confiance avec laquelle les modèles d’IA présentent des choses fausses car les faits pourraient être un problème.
En fait, Anthropic a fait pas mal de recherches sur la tendance des modèles d’IA à tromper les humains, un problème qui semblait particulièrement répandu dans le Claude Opus 4 récemment lancé. Apollo Research, un institut de sécurité ayant eu un accès précoce pour tester le modèle d’IA, a révélé qu’une première version de Claude Opus 4 a montré une forte tendance vers un schéma contre les humains et les décceives. Apollo est allé jusqu’à suggérer qu’Anthropic n’aurait pas dû publier ce premier modèle. Anthropic a déclaré qu’il avait trouvé certaines atténuations qui semblaient résoudre les problèmes soulevés par Apollo.
Les commentaires d’Amodei suggèrent qu’Anthropic peut considérer un modèle d’IA comme AGI, ou égal à l’intelligence au niveau de l’homme, même s’il hallucine encore. Une IA qui hallucine peut échapper à AGI par la définition de nombreuses personnes, cependant.