OpenAI pourrait bientôt exiger que les organisations terminent un processus de vérification d’identification afin d’accéder à certains futurs modèles d’IA, selon une page d’assistance publiée sur le site Web de la société la semaine dernière.
Le processus de vérification, appelé Organisation vérifiée, est «une nouvelle façon pour les développeurs de débloquer l’accès aux modèles et capacités les plus avancés sur la plate-forme OpenAI», lit la page. La vérification nécessite une pièce d’identité émise par le gouvernement de l’un des pays soutenus par l’API d’Openai. Une pièce d’identité ne peut vérifier qu’une seule organisation tous les 90 jours, et toutes les organisations ne seront pas éligibles à la vérification, explique Openai.
«À OpenAI, nous prenons notre responsabilité au sérieux pour nous assurer que l’IA est à la fois largement accessible et utilisée en toute sécurité», lit la page. «Malheureusement, une petite minorité de développeurs utilisent intentionnellement les API OpenAI en violation de nos politiques d’utilisation. Nous ajoutons le processus de vérification pour atténuer l’utilisation dangereuse de l’IA tout en continuant à mettre des modèles avancés à la disposition de la communauté des développeurs plus large.»
OpenAI a publié un nouveau statut d’organisation vérifiée comme un nouveau moyen pour les développeurs de débloquer l’accès aux modèles et capacités les plus avancés sur la plate-forme, et d’être prêt pour la «prochaine version passionnante du modèle»
– La vérification prend quelques minutes et nécessite un valide… pic.twitter.com/zwzs1oj8ve
– Tibor Blaho (@ btibor91) 12 avril 2025
Le nouveau processus de vérification pourrait être destiné à renforcer la sécurité autour des produits d’Openai à mesure qu’ils deviennent plus sophistiqués et capables. La société a publié plusieurs rapports sur ses efforts pour détecter et atténuer l’utilisation malveillante de ses modèles, y compris par des groupes qui prétendument basés en Corée du Nord.
Il peut également viser à prévenir le vol IP. Selon un rapport de Bloomberg plus tôt cette année, OpenAI étudiait si un groupe lié à Deepseek, le laboratoire d’IA basé en Chine, a exfiltré de grandes quantités de données via son API fin 2024, peut-être pour les modèles de formation – une violation des termes d’Openai.
OpenAI a bloqué l’accès à ses services en Chine l’été dernier.