
Comme l’IA génératrice s’est répandue ces dernières années, il y a également des craintes concernant l’abus et les abus de la technologie.
Des outils comme Chatgpt peuvent produire du texte, des images, des vidéos et de la parole réalistes. Les développeurs derrière ces systèmes promettent des gains de productivité pour les entreprises et une créativité humaine améliorée, tandis que de nombreux experts en matière de sécurité et décideurs politiques s’inquiètent de l’élévation imminente de la désinformation, entre autres dangers, que ces systèmes permettent.
Aussi: ce que fait le pionnier de l’IA Yoshua Bengio
OpenAI – sans doute le leader de cette race en cours d’IA – publie un rapport annuel mettant en évidence la myriade de façons dont ses systèmes d’IA sont utilisés par les mauvais acteurs. “Les enquêtes sur l’IA sont une discipline en évolution”, a écrit la société dans la dernière version de son rapport, publié jeudi. “Chaque opération que nous perturbons nous donne une meilleure compréhension de la façon dont les acteurs de la menace essaient de maltraiter nos modèles et nous permet d’affiner nos défenses.”
(Divulgation: Ziff Davis, la société mère de ZDNET, a déposé une plainte en avril 2025 contre Openai, alléguant qu’elle a enfreint Ziff Davis Copyrights dans la formation et l’exploitation de ses systèmes d’IA.)
Le nouveau rapport a détaillé 10 exemples d’abus de l’année écoulée, dont quatre semblent venir de Chine.
Ce que le rapport a trouvé
Dans chacun des 10 cas décrits dans le nouveau rapport, OpenAI a décrit la façon dont il a détecté et résolu le problème.
L’un des cas avec des origines chinoises probables, par exemple, a trouvé des comptes Chatgpt générant des publications sur les réseaux sociaux en anglais, chinois et ourdou. Un «récit principal» publierait un article, puis d’autres suivraient avec des commentaires, qui ont tous été conçus pour créer une illusion d’engagement humain authentique et attirer l’attention sur des sujets politiquement chargés.
Selon le rapport, ces sujets – y compris Taiwan et le démantèlement de l’USAID – sont “tous étroitement alignés sur les intérêts géostratégiques de la Chine”.
Aussi: AI Bots grattant vos données? Cet outil gratuit donne à ces crawlers embêtants le ruissellement
Un autre exemple d’abus, qui, selon Openai, avait des liens directs avec la Chine, impliquait d’utiliser Chatgpt pour s’engager dans des cyber-activités néfastes, comme le mot de passe “Bruteforce” – essayant un grand nombre de mots de passe générés par l’IA dans le but de pénétrer dans des comptes en ligne – et de rechercher des dossiers accessibles au public concernant l’industrie militaire et de la défense américaine.
Le ministère chinois des Affaires étrangères a nié toute implication dans les activités décrites dans le rapport d’Openai, selon Reuters.
D’autres utilisations menaçantes de l’IA décrites dans le nouveau rapport auraient été liées à des acteurs en Russie, en Iran, au Cambodge et ailleurs.
Chat et souris
Les modèles générateurs de texte comme Chatgpt ne seront probablement que le début du spectre de désinformation de l’IA.
Les modèles de texte à vidéo, comme Veo 3 de Google, peuvent générer de plus en plus des vidéos réalistes à partir d’invites en langage naturel. Les modèles de texte vocale, en attendant, comme la nouvelle V3 d’ElevenLabs, peuvent générer des voix humaines avec une facilité similaire.
Aussi: Text-to-dispeops avec sentiment – ce nouveau modèle d’IA fait tout mais versé une larme
Bien que les développeurs mettent généralement en œuvre une sorte de garde-corps avant de déployer leurs modèles, les mauvais acteurs – comme le montre le nouveau rapport d’Openai – deviennent de plus en plus créatifs dans leur abus et leur abus. Les deux parties sont enfermées dans un jeu de chat et de souris, d’autant plus qu’il n’y a actuellement aucune politique de surveillance fédérale robuste en place aux États-Unis.
Vous voulez plus d’histoires sur l’IA? Inscrivez-vous à l’innovationnotre newsletter hebdomadaire.