Cybercriminalité : L’IA devient une arme industrielle selon Google
05/12/2026The dark side of IA. Le rapport de mai 2026 du Google Threat Intelligence Group (GTIG) met en lumière une transition structurelle dans l’usage de l’intelligence artificielle par les acteurs malveillants. Les observations techniques révèlent que l’IA ne sert plus seulement d’outil d’expérimentation, mais devient un moteur d’industrialisation pour les opérations de cyberattaques. Cette évolution se manifeste par une intégration des modèles de langage à grande échelle dans les processus de découverte de vulnérabilités et de développement de logiciels malveillants. Les données recueillies auprès des équipes de Mandiant et les analyses des modèles Gemini montrent que les adversaires ciblent désormais activement l’écosystème logiciel de l’IA, tout en détournant ses capacités pour automatiser des phases critiques de l’intrusion, de la reconnaissance initiale à l’exécution de commandes complexes.
- Le Google Threat Intelligence Group a révélé une transformation inquiétante dans l’utilisation de l’IA par les cybercriminels, passant d’un simple outil à un moteur d’industrialisation des cyberattaques.
- Des acteurs malveillants, dont des groupes liés à la Chine et à la Corée du Nord, exploitent l’IA pour contourner des mesures de sécurité et développer des attaques sophistiquées, augmentant l’efficacité et l’autonomie de leurs opérations.
L’IA comme multiplicateur de force dans le cycle d’attaque
Les acteurs étatiques et cybercriminels exploitent désormais l’IA pour augmenter l’efficacité de leurs opérations techniques. Le GTIG a identifié dans son rapport, pour la première fois, l’usage d’une attaque zéro-day (vulnérabilité logicielle dont le développeur n’a pas connaissance) développée avec l’assistance de modèles de langage, permettant de contourner des mécanismes d’authentification à double facteur (2FA).
Des groupes liés à la République populaire de Chine (RPC) et à la Corée du Nord (DPRK) utilisent des personas d’experts en sécurité pour orienter les modèles vers la recherche de failles logiques dans des équipements réseaux. Par ailleurs, le développement de malwares polymorphes s’accélère grâce à la génération automatisée de code de leurre.
Des familles de logiciels comme CANFAIL ou LONGSTREAM intègrent des blocs de code inertes, produits par IA, afin d’obfusquer leur fonctionnalité réelle et de compliquer l’analyse par les outils de détection traditionnels. Cette tendance s’accompagne d’une orchestration de plus en plus autonome des attaques.
Le cas de PROMPTSPY, un backdoor Android, illustre cette mutation : le logiciel utilise l’API de Gemini pour interpréter en temps réel l’interface utilisateur de la victime et simuler des gestes physiques de manière indépendante. Parallèlement, les attaquants professionnalisent leur accès aux modèles en utilisant des middlewares personnalisés et des pipelines d’enregistrement automatisés.

L’intelligence artificielle au service des super méchants de la planète
Ces infrastructures permettent de contourner les limites d’utilisation et les mesures de sécurité des fournisseurs, garantissant un accès anonymisé et massif aux capacités de traitement. Les acteurs optimisent ainsi leur capital humain en déléguant les tâches répétitives de reconnaissance et de débogage à des agents autonomes capables de prendre des décisions tactiques à une vitesse comparable à celle des machines.
Le rapport souligne que si les modèles de base restent résilients aux compromissions directes, les couches d’orchestration et les bibliothèques d’intégration deviennent des cibles privilégiées. Les adversaires privilégient des tactiques de chaîne d’approvisionnement, en insérant des routines malveillantes dans des bibliothèques de wrappers ou des fichiers de configuration.
Ces incidents s’inscrivent dans la taxonomie SAIF (Secure AI Framework), notamment à travers les risques de composants intégrés non sécurisés (IIC). En février 2026, l’identification de packages malveillants au sein de l’écosystème d’agents OpenClaw a démontré cette vulnérabilité.

L’infrastructure de l’IA comme nouvelle cible prioritaire
Ces extensions, présentées comme des outils légitimes, permettent en réalité d’exécuter des commandes non autorisées avec des privilèges élevés sur les systèmes hôtes, facilitant ainsi l’exfiltration de données sensibles ou le déploiement de ransomwares.
Face à ces menaces, les défenseurs mobilisent également l’IA pour identifier et corriger les vulnérabilités logicielles de manière proactive. Des agents spécialisés comme Big Sleep sont désormais utilisés pour découvrir des failles avant qu’elles ne soient exploitées, tandis que des systèmes de raisonnement automatisent la production de correctifs.
La protection des utilisateurs repose sur une analyse fine des infrastructures réseau associées aux agrégateurs d’API malveillants et sur la désactivation systématique des comptes abusifs. Cette dualité technologique impose une vigilance constante sur les dépendances logicielles et les permissions accordées aux agents autonomes.
La sécurisation de l’environnement de développement de l’IA apparaît ainsi comme un enjeu critique pour prévenir des accès initiaux aux réseaux d’entreprise et limiter la portée des opérations d’extorsion.
L’évolution rapide des capacités offensives assistées par l’IA marque un changement notable dans la gestion des cybermenaces. La capacité des organisations à sécuriser les composants intégrés et à surveiller l’usage détourné des modèles devient un facteur déterminant de leur résilience. L’IA entre de mauvaises mains fait décidément froid dans le dos…
L’article Cybercriminalité : L’IA devient une arme industrielle selon Google est apparu en premier sur Journal du Coin.


