Phishing & intelligence artificielle générative, une aubaine pour les cybercriminels
Ces dernières années, les cyberattaques de type phishing (ou hameçonnage) font partie du quotidien des entreprises et des organisations, tout comme des particuliers. D’ailleurs, ce type de cyberattaque s’est réellement accéléré lors de la crise sanitaire du COVID-19.
A ce moment-là, les cybercriminels ont vu l’augmentation du télétravail comme une opportunité. Aujourd’hui, les cybercriminels s’intéressent de près à l’intelligence artificielle générative pour perfectionner leur cyberattaques de type “phishing”. ChatGPT, WormGPT ou encore FraudGPT : comment l’intelligence artificielle (IA) peut-elle participer à une tentative d'hameçonnage ? Est-ce le début d’une nouvelle vague de cyberattaques ? Voici un aperçu de ce qui nous attend dès 2024.
LE PHISHING, NUMÉRO 1 DE LA CYBERMENACE LA PLUS RÉPANDUE
Voilà plusieurs années que le phishing, aussi appelé hameçonnage, détient la première place du classement des types de cyberattaques les plus fréquentes. Les chiffres de 2023 confirment encore ce phénomène mondial. Selon une étude du cabinet de conseil Statista publiée en 2023, 75% des entreprises sont victimes de tentatives de phishing (ou spear phishing). Parmi les tentatives d'hameçonnage, la méthode la plus utilisée reste le partage d’un lien frauduleux envoyé par email ou sms.
Pour contrer ces tentatives de phishing, il est indispensable de sensibiliser et former les employés. Cette nécessité est d’autant plus vraie, d’année en année. La communication interne aux employés reste un pilier fort des 5 bonnes pratiques à mettre en place en termes de cybersécurité dans une organisation.
DES TENTATIVES DE PHISHING DE PLUS EN PLUS PERFECTIONNÉES GR CE À L’INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE
L’intelligence artificielle générative consiste à générer du contenu textuel pertinent et personnalisé à partir d’une requête. Avec l’arrivée d’outils gratuits comme ChatGPT, l’intelligence artificielle générative se démocratise largement. Pas un jour ne se passe sans que l’on arrive à démontrer la puissance de ces outils d’IA.
Dans ce contexte, bien sûr que les cybercriminels y voient une aubaine pour améliorer considérablement l’efficacité de leurs campagnes mondiales de phishing. Ces développements deviennent même des investissements prioritaires pour :
- personnaliser et enrichir les messages
- trouver des formulations incitatives
- engager des conversations convaincantes
- multiplier son terrain de cyberattaques grâce à la traduction
LA CRÉATION D’OUTILS D’INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE DÉDIÉS AUX CYBERCRIMINELS COMME WormGPT ou FraudGPT
Peut-être avez-vous déjà entendu parler de WormGPT ou encore de FraudGPT ? Il s’agit d’outil d’intelligence artificielle (IA) générative, comme l’est ChatGPT. A la différence que ceux-ci sont dédiés aux activités cybercriminelles et vendus sur des marchés noirs.
Ces outils sont spécifiquement conçus par des cybercriminels et ils sont entraînés pour perfectionner leurs connaissances sur ce domaine. Comme l’explique le chercheur Daniel Kelley, “les cybercriminels peuvent utiliser cette technologie pour automatiser la création de faux courriels très convaincants, personnalisés en fonction du destinataire, augmentant ainsi les chances de réussite de l'attaque”.
LA CREATION DE PROMPTS POUR DOMPTER LES OUTILS D’IA GRAND PUBLIC
Autre tendance qui commence à s’installer : la création et l’utilisation de “jailbreak” appliquée aux outils d’IA générative accessibles au grand public, comme ChatGPT ou encore Bard.
Ces jailbreaks sont des prompts spécialisés pour supprimer les restrictions mises en place par l’outil d’IA. Ainsi, les cybercriminels peuvent accéder à des fonctionnalités comme la génération et personnalisation de contenus textuels performants pour inciter à divulguer des informations sensibles lors de leurs campagnes de phishing. Aussi, dans un autre registre, ces jailbreaks inquiètent sur la démocratisation de la cybercriminalité puisqu’ils permettent aussi de générer directement du code nuisible.
UNE PRÉVENTION À MENER PAR LES OUTILS D’IA GÉNÉRATIVE
Chat GPT, Character.AI, Bard, Poe… Les outils d’Intelligence Artificielle (IA) générative se basent sur le principe du LLM (Large Language Model, soit grand modèle de langage). Tous ont conscience que cette technologie peut être utilisée à des fins malveillantes. C’est pourquoi des actions sont mises en place par les outils pour repérer des demandes qui ne seraient pas appropriées. Toutefois, le niveau de prévention est encore très disparate selon les outils. Ainsi, certains outils sont préférés à d’autres par les cybercriminels.
Au-delà de la requête, les outils d’Intelligence Artificielle Générative ont aussi un besoin croissant de protéger les données des utilisateurs qui pourraient être utilisés à des fins de cyberattaques pour personnaliser encore davantage des campagnes d'hameçonnage.
L’IA générative se démocratise et les cybercriminels en profitent. Face à ce nouveau phénomène, les entreprises et les organisations doivent adapter leurs actions de cybersécurité. Rappelons que les cybercriminels comptent avant tout sur l’erreur humaine. Une de ses actions fortes reste donc la sensibilisation des employés et utilisateurs à ces nouveautés.