🛡️ IA malveillante : le rapport choc d'OpenAI

OpenAI révèle 7 opérations malveillantes : arnaques romantiques, désinformation russe et cyber-opérations chinoises impliquant des centaines d'agents.

Date : 2026-02-25

Tags : IA, OpenAI, Cybersécurité, Gouvernance IA

![bannière](https://images.radio-canada.ca/q_auto,w_1024/v1/ici-info/16x9/open-ai-ia.jpg) Le 25 février 2026, OpenAI a publié une mise à jour de son rapport de surveillance des abus sur ses modèles. Ce n'est pas un communiqué de relations publiques : c'est un document de 35 pages avec des preuves, des captures d'écran, des noms d'opérations, et des chiffres qui donnent le vertige. Si vous utilisez ChatGPT, les réseaux sociaux, ou si vous avez déjà reçu un message d'un inconnu en ligne, ce rapport vous concerne directement. Il documente comment des escrocs, des services de renseignement étrangers et des réseaux de propagande utilisent exactement les mêmes outils que vous pour vous manipuler, vous escroquer, et vous désinformer. Ce guide décrypte les 7 cas concrets révélés par OpenAI, avec une seule question en tête : **comment se protéger au quotidien ?** ## Pourquoi OpenAI publie-t-il ces rapports et qu'est-ce que ça change pour vous ? OpenAI publie ces rapports depuis deux ans. L'entreprise dispose d'un avantage unique : elle voit ce que ses utilisateurs tapent dans ChatGPT. Quand un escroc basé au Cambodge demande à ChatGPT de rédiger un message romantique en indonésien, ou qu'un opérateur lié à la police chinoise lui demande de peaufiner un rapport de surveillance, OpenAI peut détecter ces comportements, bannir les comptes, et surtout, partager les informations pour que toute la société soit mieux armée. Ce n'est pas une question abstraite de cybersécurité réservée aux informaticiens. C'est une question pratique, quotidienne : le message sympathique que vous recevez sur Instagram, l'article de presse qui vous met en colère, ou l'offre d'emploi alléchante sur LinkedIn pourraient tous avoir été générés par une intelligence artificielle au service d'acteurs malveillants. Comprendre les mécanismes révélés dans ce rapport, c'est comprendre comment fonctionne la manipulation à l'ère de l'IA, et développer les bons réflexes pour ne pas en être victime. Le rapport de février 2026 identifie trois grandes catégories de menaces : les arnaques financières (romance scams, escroqueries à la récupération de fonds), le ciblage virtuel (recrutement de cibles par de faux consultants), et les opérations d'influence clandestines (IO, pour *influence operations*) venant de Russie et de Chine. Chaque catégorie est illustrée par des cas concrets documentés, que nous allons analyser un par un. ## Qu'est-ce qu'un « romance scam » dopé à l'IA et comment le reconnaître ? L'arnaque romantique (*romance scam* en anglais) existe depuis longtemps. Le principe est simple : un escroc se fait passer pour un partenaire romantique potentiel, construit une relation émotionnelle, puis soutire de l'argent à la victime. Ce qui change avec l'IA, c'est l'échelle, la sophistication et la personnalisation des messages. OpenAI a identifié une structure commune à toutes ces arnaques, qu'ils appellent le **ping / zing / sting**. Le **ping** (contact à froid) : l'escroc utilise ChatGPT pour générer des messages d'accroche adaptés à la cible. Plus de fautes d'orthographe révélatrices, plus de tournures étranges qui trahissent une traduction approximative. Les messages sont fluides, naturels, personnalisés. Dans l'opération *Date Bait* documentée par OpenAI, des escrocs basés au Cambodge ciblaient des hommes indonésiens via des publicités payantes sur les réseaux sociaux, en utilisant des mots-clés comme « golf », « yachts » et « gastronomie » pour atteindre une audience aisée. Le **zing** (génération d'émotion) : une fois le contact établi, l'IA génère des messages de plus en plus intimes et émotionnellement chargés. L'objectif est de créer un lien affectif fort qui rend la victime plus vulnérable à la manipulation. Dans *Date Bait*, les opérateurs humains utilisaient ChatGPT en temps réel pour traduire et personnaliser des messages entre des superviseurs sinophones et des travailleurs indonésophones. Le **sting** (extraction de l'argent) : à ce stade, l'escroc invente une raison de demander de l'argent : une urgence médicale, un problème avec un compte, des frais pour « débloquer » des gains fictifs. Dans les cas documentés, les victimes de *Date Bait* pouvaient se voir réclamer jusqu'à 12 000 dollars (20 500 000 roupies indonésiennes) pour rectifier une prétendue erreur de traitement de données. La leçon pratique est claire : si quelqu'un que vous n'avez jamais rencontré en personne vous demande de l'argent, quelle que soit la raison et quelle que soit la qualité de la relation construite en ligne, c'est un signal d'alarme absolu. ## Comment des escrocs se font passer pour des avocats et le FBI pour récupérer encore plus d'argent ? L'opération *False Witness* révélée par OpenAI représente un niveau de cynisme particulièrement élevé. Elle cible des personnes qui ont **déjà été victimes d'une arnaque**. La logique est perverse mais efficace : une victime d'escroquerie est à la fois financièrement affaiblie, émotionnellement vulnérable, et désespérée de récupérer ses fonds. C'est une cible idéale pour une deuxième arnaque. Concrètement, des comptes ChatGPT basés au Cambodge ont été utilisés pour créer le contenu de six faux cabinets d'avocats fictifs, spécialisés dans la « récupération de fonds escroqués ». Ces cabinets diffusaient des publicités sur les réseaux sociaux avec des slogans rassurants : « Aucun frais avant la récupération réussie », « Experts en fraude en ligne ». ChatGPT servait à rédiger des messages professionnels dans un anglais juridique impeccable, à créer de fausses cartes de membre du Barreau de New York, et même à imiter le site officiel de l'IC3, le Centre de plainte pour crimes sur Internet du FBI. Le *sting* final consistait à demander des « frais de service » de 15 % avant tout remboursement, des « dépôts d'activation de compte », et des paiements en cryptomonnaie dont les confirmations devaient être envoyées par screenshot. Le FBI a émis des alertes publiques sur cette arnaque, soulignant qu'elle cible particulièrement les personnes âgées. Le signal d'alerte pratique : tout service qui vous demande de payer des frais *avant* de vous rembourser est frauduleux. Les véritables services juridiques ou gouvernementaux ne fonctionnent pas ainsi. ## Qu'est-ce qu'une opération d'influence clandestine et comment l'IA l'amplifie-t-elle ? Une **opération d'influence clandestine** (IO en anglais) consiste à manipuler l'opinion publique en faisant croire que des positions politiques, des opinions ou des informations proviennent de sources authentiques, alors qu'elles sont fabriquées et coordonnées. L'IA ne crée pas ce type de manipulation — elle existait bien avant. Mais elle le rend beaucoup plus rapide, moins coûteux, et plus difficile à détecter. Le rapport d'OpenAI documente trois opérations d'influence distinctes. **L'opération *Trolling Stone*** ciblait l'opinion publique en Argentine autour de l'arrestation d'un prétendu « chef de secte » russe nommé Konstantin Rudnev. Des comptes ChatGPT basés au Pakistan, en Arménie et en Uruguay généraient des articles de « presse » en espagnol argentin qui étaient ensuite publiés sur de fausses pages Facebook posant comme des médias locaux; Toutes créées les 14 et 15 octobre 2025. Des commentaires générés en lot venaient ensuite « réagir » à ces articles pour créer l'illusion d'un débat public authentique, ce qu'on appelle l'**astroturfing** (littéralement « gazon artificiel » : créer une fausse impression de mouvement populaire). **L'opération *No Bell***, vraisemblablement d'origine russe, produisait des articles de fond géopolitiques sur l'Afrique subsaharienne, signés d'un certain « Dr Manuel Godsin », présenté comme titulaire d'un doctorat de l'Université de Bergen. Problème : ni l'université, ni les bibliothèques norvégiennes ne gardent trace de cet individu. Sa photo était en réalité celle d'un étudiant en droit de Saint-Pétersbourg. Les articles ont pourtant été publiés sur des sites d'actualité africains réels. **L'opération *Fish Food*** liait les activités de contenu à ChatGPT au réseau russe *Rybar*, qui compte 1,4 million d'abonnés sur Telegram. Des tweets générés en batch par une seule requête ChatGPT ont été diffusés par six comptes X différents (le plus vu a dépassé **150 000 vues**), tandis que le moins vu n'en totalisait que 57. La différence ? Le nombre d'abonnés de chaque compte. Cela prouve que le contenu IA n'est pas le facteur déterminant : c'est l'audience derrière qui amplifie ou noie l'information. ## Quelles sont les 7 opérations documentées par OpenAI et leur impact réel ? | Opération | Origine probable | Type | Méthode IA | Impact estimé | |---|---|---|---|---| | **Date Bait** | Cambodge | Arnaque romantique | ChatGPT + API chatbot | Centaines de victimes/mois, milliers $/jour (selon les escrocs) | | **False Witness** | Cambodge | Arnaque récupération de fonds | ChatGPT traduction + faux documents | Plusieurs milliers $ par victime | | **Silver Lining Playbook** | Chine (continent) | Recrutement adversarial | ChatGPT rédaction emails | Aucune réponse confirmée des cibles | | **Trolling Stone** | Pakistan / Arménie / Uruguay | Influence clandestine | ChatGPT articles + commentaires | Catégorie 4/6 sur l'échelle IO Breakout | | **No Bell** | Russie | Influence clandestine | ChatGPT articles sous fausse identité | Catégorie 4/6, 53 articles publiés sous le nom Godsin | | **Fish Food** | Russie (réseau Rybar) | Propagande + influence | ChatGPT batch comments, vidéos Sora | Catégorie 3/6, tweet à +150 000 vues | | **Cyber Special Operations** | Chine (police) | IO étatique multi-cibles | ChatGPT + DeepSeek + Qwen | Des centaines d'opérateurs, milliers de faux comptes, cibles jusqu'au Premier ministre japonais | > *« Cette effort semble être de grande envergure, gourmand en ressources et soutenu dans la durée, mobilisant au moins des centaines d'agents, des milliers de faux comptes sur des dizaines de plateformes, et l'utilisation de modèles IA déployés localement. »* > — OpenAI, Rapport « Disrupting malicious uses of our models », Février 2026 ## Que révèle l'opération chinoise « Cyber Special Operations » sur l'échelle de la menace ? C'est sans doute le cas le plus inquiétant du rapport. OpenAI a banni un compte ChatGPT lié à un individu associé aux forces de l'ordre chinoises. Ce qu'ils ont découvert va bien au-delà d'un simple compte malveillant : c'est une fenêtre ouverte sur une infrastructure d'influence clandestine étatique de grande ampleur. L'utilisateur demandait régulièrement à ChatGPT de **peaufiner des rapports de statut périodiques** sur des « opérations spéciales cybernétiques » (résumé du terme chinois 网络特别行动, *wǎngluò tèbié xíngdòng*). Ces rapports décrivaient des opérations ciblant à la fois des dissidents chinois à l'intérieur et à l'extérieur de la Chine, mais aussi des représentants étrangers. En octobre 2025, l'utilisateur a demandé à ChatGPT d'aider à planifier une opération de discrédit contre Sanae Takaichi — devenue depuis la première femme Premier ministre du Japon — suite à ses déclarations publiques sur les droits de l'homme en Mongolie intérieure. Le modèle a refusé. Mais quelques semaines plus tard, l'utilisateur revenait avec un rapport de statut sur la mise en œuvre de cette même opération, qui avait manifestement été lancée sans l'aide de ChatGPT, en utilisant d'autres modèles IA comme DeepSeek-R1 et Qwen2.5. Les tactiques documentées dans les rapports que l'utilisateur faisait éditer à ChatGPT sont saisissantes dans leur diversité : signalements abusifs en masse des comptes de dissidents pour faire déclencher les systèmes automatisés de modération ; création de faux profils pour saturer les résultats de recherche quand on cherche un dissident réel (cinq faux comptes Bluesky imitant le dissident Hui Bo, tous créés le même jour) ; publication de faux avis de décès complets avec photos de pierres tombales pour harceler psychologiquement des militants vivants ; utilisation de fonctionnaires déguisés en agents de l'immigration américaine pour intimider des dissidents vivant aux États-Unis ; et même la falsification de documents d'un tribunal américain présentés à une plateforme sociale pour demander la suppression d'un compte. L'échelle est vertigineuse. Selon les rapports que l'utilisateur faisait éditer : 300 opérateurs dans une seule province, des équipes équivalentes dans d'autres provinces, plus de 300 plateformes étrangères ciblées, des millions de publications sur les réseaux chinois et des dizaines de milliers sur les plateformes occidentales. ## Comment l'IA détecte-t-elle ces abus et quelles sont les limites de cette surveillance ? OpenAI dispose d'une position unique : elle peut analyser les *patterns* (schémas récurrents) d'utilisation de ses modèles. Un réseau de comptes qui génère des contenus dans plusieurs langues sur les mêmes thèmes, qui opère aux mêmes heures, qui utilise des VPN, ou dont les requêtes révèlent une intention coordonnée — tout cela peut déclencher une enquête. Dans le cas des « Cyber Special Operations » chinoises, c'est le contenu même des rapports que l'utilisateur faisait polir par ChatGPT qui a livré les informations : l'IA était utilisée comme secrétaire pour améliorer des documents de travail internes, révélant ainsi des détails opérationnels précieux. Mais les limites sont importantes à comprendre. OpenAI souligne que les acteurs malveillants **utilisent rarement un seul outil**. Ils combinent ChatGPT avec d'autres modèles, notamment des modèles chinois déployés localement (DeepSeek, Qwen) qui échappent à la surveillance d'OpenAI. Le rapport sur *No Bell* montre que l'opérateur russe utilisait à la fois ChatGPT et Gemini de Google selon les besoins. La détection est donc fragmentaire par nature : on voit la partie de l'iceberg qui utilise ChatGPT, pas l'ensemble de l'infrastructure. Par ailleurs, l'impact réel reste difficile à mesurer. Plusieurs opérations documentées avaient un engagement social quasi nul — quelques dizaines de vues, des posts sans réactions. Ce qui suggère que l'IA n'est pas une baguette magique pour la désinformation : sans réseau de diffusion préexistant, le contenu généré par IA reste invisible. Mais avec un réseau comme Rybar et ses 1,4 million d'abonnés, le même contenu peut atteindre des centaines de milliers de personnes. ## Quels signaux d'alerte concrets surveiller dans votre usage quotidien de l'IA ? Le rapport d'OpenAI n'est pas qu'une analyse des mauvais acteurs. C'est aussi, indirectement, un guide des signaux d'alerte à surveiller quand vous naviguez en ligne. Voici les principaux indicateurs de manipulation révélés par les cas documentés. **Pour les messages personnels et les rencontres en ligne** : méfiez-vous des profils qui vous contactent de manière non sollicitée avec des messages parfaitement rédigés. L'IA a éliminé les fautes de grammaire et les tournures maladroites qui permettaient autrefois de repérer les arnaques. Toute relation en ligne qui évolue rapidement vers l'intimité émotionnelle sans rencontre physique est suspecte. Toute demande d'argent, de transfert via portefeuille numérique ou de cryptomonnaie, quelle que soit la justification, est un signal d'arnaque. **Pour les offres d'emploi et les sollicitations professionnelles** : l'opération *Silver Lining Playbook* révèle que des services de renseignement étrangers utilisent de fausses sociétés de conseil pour approcher des fonctionnaires et des analystes politiques américains. Les emails sont rédigés avec une psychologie sophistiquée : légitimité établie, flatterie personnalisée, compensation vague mais alléchante, pression pour déplacer la conversation vers WhatsApp ou Zoom. Un vrai recruteur fournit des informations vérifiables sur le poste, l'entreprise, et des coordonnées officielles. Si l'offre semble trop belle, trop urgente, ou si on vous demande de rester confidentiel, fuyez. **Pour l'information et les médias** : l'existence de « Dr Manuel Godsin » avec 53 articles publiés mais aucune trace universitaire réelle montre qu'il faut vérifier l'existence des auteurs d'articles que vous partagez. Les opérations de désinformation créent des pages Facebook se faisant passer pour des médias locaux — vérifiez la date de création des pages et la localisation de leurs administrateurs dans les paramètres de transparence. Un article qui vous met très en colère ou qui défend une position géopolitique tranchée mérite une vérification des sources. ## Récapitulatif : les bons réflexes anti-arnaques IA en 2026 | Situation | Signal d'alerte | Réflexe à adopter | |---|---|---| | Message romantique non sollicité | Écriture parfaite, progression rapide, demande d'argent | Vérification image inverse, refus de tout transfert | | Offre de récupération de fonds | Frais demandés avant remboursement | Contacter directement l'organisme officiel (vrai IC3, vraie police) | | Offre d'emploi en conseil | Compensation vague, demande de confidentialité, vidéo-call WhatsApp | Vérifier l'entreprise sur des sources officielles, pas les liens fournis | | Article de presse en colère | Auteur inconnu, page Facebook récente, pas de sources citées | Vérifier l'auteur, la date de création de la page, recouper avec d'autres médias | | Commentaire viral sur un sujet politique | Ton très tranché, absence d'engagement organique | Regarder l'historique du compte qui poste | | Email d'avocat ou de service gouvernemental | Contact via messagerie privée, demande de cryptomonnaie | Vérifier le numéro de barreau, contacter l'institution par ses coordonnées officielles | ## Pourquoi maîtriser les outils IA est la meilleure protection contre leur utilisation malveillante ? La conclusion paradoxale de ce rapport est celle-ci : les personnes les plus exposées aux arnaques et manipulations dopées à l'IA sont celles qui ne comprennent pas comment ces outils fonctionnent. Quand vous savez qu'une IA peut générer en secondes un message romantique parfaitement personnalisé, un faux article de presse avec un auteur fictif crédible, ou un email d'avocat avec les bons termes juridiques, vous développez un regard critique naturel. Vous ne devenez pas paranoïaque — vous devenez lucide. Comprendre comment utiliser l'IA pour augmenter votre productivité, c'est aussi comprendre ses capacités réelles, et donc ses possibilités d'abus. C'est exactement ce que nous couvrons dans notre formation [Augmenter sa productivité et sa créativité à l'aide de l'intelligence artificielle](https://www.travelearn.fr/formation/augmenter-sa-productivit-et-crativit-laide-de-lintelligence-artificielle) : apprendre à utiliser les outils IA du quotidien de manière efficace, comprendre ce qu'ils font réellement, et développer les bons réflexes de vigilance face aux usages malveillants. Connaître l'outil, c'est ne plus pouvoir en être la victime. --- ## Sources - [Blog d'OpenAI : Disrupting malicious uses of our models (Février 2026)](https://openai.com/index/disrupting-malicious-ai-uses/) - [OpenAI : Rapport PDF complet : « Disrupting malicious uses of our models: an update, February 2026 »](https://openai.com) - [FBI : Internet Crime Complaint Center (IC3)](https://www.ic3.gov) - [Meta : Attribution de Spamouflage à des individus liés à la police chinoise (Août 2023)](https://about.fb.com/news/2023/08/metas-adversarial-threat-report/) - [US Department of Justice : Accusations contre des officiers chinois pour harcèlement de dissidents (2023)](https://www.justice.gov) - [IO Breakout Scale : Référence méthodologique pour évaluer l'impact des opérations d'influence](https://breakoutscale.org) - [VoA Chinese Service — Rapport sur la campagne de faux avis de décès contre le dissident Jie Lijian (Octobre 2023)](https://www.voachinese.com)