Lorsque les outils d’intelligence artificielle et ChatGPT se sont popularisés, tout le monde s’est jeté dessus pour les essayer. Dont les arnaqueurs. Récemment, les chercheurs en cybersécurité de Norton Antivirus ont publié un rapport concernant les risques liés à ChatGPT : attention aux arnaqueurs !
Phishing, malwares, ChatGPT facilite l’arnaque
Selon eux, ce chatbot est utilisé de manière préoccupante dans des campagnes de phishing. En effet, ChatGPT a la capacité de générer des textes bien structurés dans de multiples langues. Par conséquent, son utilisation pourrait améliorer les contenus présents dans les e-mails d’hameçonnage, rendant ces tentatives de fraude moins facilement identifiables par les utilisateurs.
D’après les chercheurs de Norton, les aptitudes en programmation de ChatGPT seraient également exploitées par des arnaqueurs pour concevoir des malwares. En effet, le chatbot peut passer un code d’un langage à l’autre, ce qui permettrait de contourner certaines couches de protection des antivirus.
Certains langages de programmation sont rarement utilisés pour créer des malwares, et il est simple d’utiliser ChatGPT pour « traduire » le code source d’un langage vers un autre moins courant.
ChatGPT génère des textes qui peuvent être utilisés, avec l’aide d’autres outils d’intelligence artificielle, pour produire facilement du contenu malveillant. Récemment, sur YouTube, des vidéos ont été publiées, réalisées à l’aide d’un générateur de vidéos par IA. Présentant des avatars réalistes, ces vidéos étaient de faux tutoriels pour contourner des logiciels payants (notamment ceux de la suite Adobe). Mais en réalité, elles redirigeaient les internautes vers des malwares.
Usurpation du nom
Les arnaqueurs exploitent la popularité considérable du chatbot en cherchant à se faire passer pour lui. C’est notamment le cas de la fausse extension pour Chrome, Quick access to ChatGPT. Cette extension prétendait offrir un raccourci direct vers le chatbot, mais son véritable objectif était de pirater des comptes Facebook. Elle permettait ainsi aux pirates d’émettre des publicités pour elle-même. La fausse extension a atteint plus de 2 000 téléchargements par jour avant son retrait.
De plus, si vous avez cherché à installer ChatGPT sur votre smartphone, il se peut que vous ayez téléchargé l’une des nombreuses applications portant son nom. Mais pour le moment, Open AI n’a pas encore développé d’application pour Android. En revanche, il en existe une pour iOS, disponible sur l’App Store.
Au cours des derniers mois, plusieurs centaines de projets de cryptomonnaie ont pris le nom de ChatGPT. Elles ont émergé sur les blockchains de Binance, Ethereum et Arbitrum, dans le but de tromper les investisseurs.
Autre usurpation plus littérale, la création d’un faux chatbot se présentant comme ChatGPT. Celui-ci attirait les internautes avec la promesse d’un investissement lucratif dans les cryptomonnaies grâce à l’intelligence artificielle. Le véritable objectif des arnaqueurs derrière cette opération était bien sûr de subtiliser les informations bancaires de la cible via ce faux ChatGPT.
Repérer les arnaques
Si vous avez des doutes sur la véracité d’un contenu, il existe aujourd’hui des outils pour identifier un texte généré par ChatGPT (mais cela ne veut pas dire que le texte est nécessairement malveillant). Et à l’avenir, de nouveaux outils vont probablement émerger afin de détecter les images créées par l’IA (comme les deepfakes). Concernant le nom ChatGPT, prenez le temps de vérifier que le programme que vous comptez utiliser est bien développé par Open AI. Si ce n’est pas le cas, mieux vaut éviter de l’utiliser.
S’il va de soi de rester vigilant face à la cyber malveillance, il faudra probablement le devenir encore plus à l’avenir. En effet, les escroqueries engendrées à l’aide d’intelligence artificielle sont particulièrement difficiles à détecter.
One Reply to “ChatGPT : nouvel outil redoutable des arnaqueurs”