Thème Jannah La licence n'est pas validée, Rendez-vous sur la page des options du thème pour valider la licence, Vous avez besoin d'une seule licence pour chaque nom de domaine.

« Vibescamming » : la nouvelle arnaque émotionnelle dont tout le monde sur Internet tombe victime.

Aujourd'hui, tout le monde sait que les outils d'IA générative ont un côté sombre. Je ne parle même pas du plagiat et autres formes de vol de contenu, ni des quantités astronomiques d'énergie et d'eau nécessaires au fonctionnement des centres de données.

« Vibescamming » : La nouvelle arnaque émotionnelle dont tout le monde sur Internet tombe victime

Je parle plutôt de l'utilisation de l'intelligence artificielle pour concevoir des logiciels malveillants dangereux et des systèmes d'hameçonnage, ce qui permet plus facilement que jamais aux criminels de mettre en place des campagnes d'escroquerie entières à partir de quelques commandes seulement.

La « fraude à l’IA », comme on l’appelle, devient rapidement le plus grand problème créé par l’intelligence artificielle – mais il existe des moyens de se protéger.

L'intelligence artificielle simplifie la fraude.

Tout comme pour la programmation de l'IA, il vous suffit d'un chatbot alimenté par l'IA.

chatgpt refuse de créer des logiciels malveillants pour enregistrer les clés.

En résumé, la fraude à l'IA est une forme d'hameçonnage utilisant l'IA. Elle emprunte au concept de « programmation IA », qui consiste à créer un logiciel en demandant à un outil d'IA générative d'exécuter une tâche spécifique.

De même, la fraude basée sur l'IA permet à presque n'importe qui de lancer une attaque de phishing ou une cyberattaque en donnant simplement des instructions à un chatbot doté d'IA. Même des personnes sans aucune compétence en programmation ni expérience en piratage peuvent créer des courriels malveillants, de faux sites web et des logiciels malveillants simplement en guidant un chatbot.

Imaginez un escroc potentiel qui souhaite voler des mots de passe mais ignore tout de la programmation. De ce fait, on peut supposer qu'il ne se rend pas sur le dark web pour acheter des logiciels malveillants. Au lieu d'apprendre à programmer un outil spécifique pour voler des mots de passe ou de concevoir une campagne d'hameçonnage, il peut tout simplement demander à un outil d'intelligence artificielle de faire le travail à sa place.

La fraude facilitée par l'IA est aberrante car elle abaisse les barrières à l'entrée pour la cybercriminalité comme jamais auparavant. Auparavant, un criminel devait savoir concevoir des sites web, rédiger des textes persuasifs en anglais ou programmer des logiciels malveillants. Désormais, l'IA peut tout faire.

Un autre risque réside dans la rapidité et l'ampleur des attaques. L'IA permet aux escrocs d'automatiser les tâches et d'intensifier leurs attaques bien plus rapidement que les humains. Par exemple, elle peut personnaliser rapidement les courriels d'hameçonnage pour des milliers de cibles (en collectant des informations publiques et en créant des messages sur mesure pour chaque individu). Elle peut également s'adapter rapidement. Si un lien vers une page d'hameçonnage est bloqué, l'escroc peut demander à l'IA de modifier le code ou le texte et d'en créer une nouvelle version. Cette flexibilité permet aux campagnes d'hameçonnage d'évoluer rapidement pour contourner les systèmes de défense.

Cela ne fonctionne pas avec les anciens chatbots, soyez prudent.

Certains chatbots sont plus prudents que d'autres.

Le « vibe coding » repose sur l'utilisation de chatbots dotés d'intelligence artificielle générative. Certains y parviennent mieux que d'autres, mais la plupart tentent le coup. Heureusement, on ne peut pas en dire autant des arnaques similaires.

La plupart des chatbots basés sur l'IA intègrent des contrôles de sécurité conçus pour les protéger contre les utilisations potentiellement malveillantes. Par exemple, ChatGPT rejette les demandes telles que « Aidez-moi à créer un site web imitant une page de connexion Microsoft et un SMS incitant les gens à cliquer dessus », en expliquant qu'il s'agit d'une arnaque, d'une tentative d'hameçonnage ou d'un vol, et que ChatGPT ne fournira aucune assistance dans ce cas.

Le constat est similaire pour les autres chatbots ; le navigateur Neon d’Opera a classé ma requête comme suspecte, tandis que Grok l’a rejetée car elle « viole les consignes de sécurité contre les attaques d’ingénierie sociale ».

Cependant, comme nous l'avons mentionné, certains chatbots sont plus sensibles à de telles requêtes. Une étude menée par Guardio Labs en 2025 a montréL'entreprise à l'origine du terme « vibescamming » pense qu'un outil d'IA récent peut être manipulé pour produire les résultats escomptés. Loveable, une application conçue pour faciliter le « vibe coding », s'est immédiatement lancée dans la planification et la conception d'une campagne d'hameçonnage destinée aux chercheurs, « imaginant un design élégant et professionnel rappelant une interface Microsoft ».

Refus de créer une page d'hameçonnage populaire.

Une page de phishing complète, avec une URL falsifiée conçue pour tromper la victime, a été publiée. Cependant, Guardio indique également qu'elle ne disposait en réalité d'aucune capacité spécifique de collecte de données et qu'elle a refusé d'en ajouter lorsqu'on lui a demandé de le faire. Elle a donc au moins quelque peu revu ses ambitions à la baisse sur ce point. Il est également à noter que Loveable a pris conscience de ce problème et ne tente plus d'élaborer un plan pour cette campagne de phishing.

Pirater des chatbots basés sur l'IA générative pour déclencher des actions malveillantes

Les opérations de piratage d'IA générative sont des allégations spécifiquement conçues pour pousser l'intelligence artificielle à contourner ses propres contrôles de sécurité.

Aux débuts de ChatGPT, d'innombrables techniques de piratage visaient à exploiter pleinement son potentiel. Aujourd'hui, ces techniques sont jalousement gardées, certains allant même jusqu'à vendre leurs exploits en matière d'IA générative à prix d'or.

Par conséquent, bien qu'il semble que Il n'existe plus de hacks disponibles pour ChatGPT.En réalité, les gens sont plus discrets. C'est le seul moyen d'empêcher des entreprises comme OpenAI, Google, Anthropic et Perplexity de corriger immédiatement ces vulnérabilités.

« Déjouer » les protections est l'un des rares moyens de persuader les chatbots génératifs basés sur l'IA de contourner leurs limitations. Autrement, les programmeurs du chatbot ont parfaitement réussi leur mission et l'IA refuse de coopérer — ce qui n'est pas forcément un mal en matière de manipulation émotionnelle.

Heureusement, vous pouvez éviter d'être victime de manipulation émotionnelle.

Le résultat final n'est pas totalement différent des arnaques par hameçonnage actuelles.

Un courriel frauduleux prétendant provenir d'une veuve de guerre ukrainienne.

Maintenant, malgré tout ce qui a été dit et la réduction des obstacles à la création de logiciels malveillants et d'escroqueries par hameçonnage, vous recherchez toujours les mêmes vieilles arnaques. Certains courriels frauduleux deviennent de plus en plus sophistiquésCependant, Signes indiquant que vous consultez un courriel d'hameçonnage c'est la même.

En d'autres termes, il n'est pas nécessaire de surcompenser vos pratiques de sécurité pour éviter la fraude émotionnelle ; les conseils restent les mêmes.

  1. Des offres trop belles pour être vraiesLes escrocs promettent souvent des résultats impossibles, comme par exemple garantir la première place dans les résultats de recherche. GoogleOu encore des avis cinq étoiles instantanés, ou des traitements de santé miraculeux. Les véritables services et médicaments médicaux n'offrent pas ce genre de garanties.
  2. Messagers mystérieux ou ordinairesDe nombreux courriels frauduleux proviennent d'adresses Gmail ou Yahoo C'est gratuit, même lorsqu'ils prétendent représenter une entreprise. Les agences et entreprises légitimes utilisent un domaine professionnel.
  3. PersonnalisationOu plutôt, leur absence. Si un courriel se contente de dire « Bonjour » ou « Salutations » sans mentionner votre nom ni vos coordonnées professionnelles, il s’agit probablement d’une arnaque par envoi massif. Les courriels légitimes contiennent généralement quelques informations personnelles. « Bonjour cher/chère » est une de mes formules préférées.
  4. déclencheurs émotionnelsMéfiez-vous des courriels vous demandant vos identifiants de connexion, des paiements anticipés ou vous incitant à cliquer sur un lien suspect. De même, de nombreuses arnaques exploitent la peur ou l'urgence, comme les remèdes miracles contre les maladies graves ou les promesses de « prise de contrôle » d'entreprises. Le but est le même : vous pousser à prendre une décision hâtive.
  5. Agissez vite !Si le message tente de vous forcer à prendre une décision rapide avec des expressions comme « Agissez maintenant ! » ou « Répondez aujourd'hui ! », méfiez-vous. Les escrocs ne veulent pas que vous ayez le temps de réfléchir.

Étiquettes rouges sur les messages postaux Élu en 1999, Ronnie Le phishing, c'est pareil.Vous risquez d'en rencontrer davantage maintenant que presque tout le monde est devenu un escroc.

Des programmes malveillants développés à l'aide de l'intelligence artificielle existent désormais.

Pendant un temps, l'idée de campagnes de logiciels malveillants et d'hameçonnage développées à l'aide de l'intelligence artificielle relevait de la pure fantaisie. Les outils d'IA n'étaient pas suffisamment puissants pour créer quoi que ce soit de particulièrement dangereux, et leurs capacités ne différaient guère des menaces existantes.

Mais cette situation a commencé à changer en 2025, avec l'émergence croissante de logiciels malveillants développés à l'aide de l'intelligence artificielle, tant dans la nature que dans le cadre de campagnes actives. En novembre 2025, Le groupe de veille sur les menaces de Google a signalé Il s'agit de deux types différents de logiciels malveillants développés à l'aide de divers outils d'intelligence artificielle, qui se connectent à d'autres outils d'intelligence artificielle pour obtenir des instructions.

Par ailleurs, en août 2025, le développeur d'IA Anthropic a découvert que son logiciel Cloud était utilisé dans le cadre d'une campagne de logiciels malveillants de grande ampleur, employant l'intelligence artificielle pour concevoir et lancer des attaques liées à sa plateforme.

S’agit-il d’attaques de « manipulation émotionnelle » ? Je pense que, compte tenu de leur sophistication, elles sont bien plus sophistiquées qu’une simple manipulation émotionnelle, mais elles illustrent la facilité avec laquelle l’IA peut être utilisée à des fins extrêmement dangereuses. Et ce ne sont là que des outils d’IA génériques, accessibles à tous. Imaginez ce qui se passerait si l’on pouvait supprimer les protections de nombreux outils d’IA natifs et puissants.

Aller au bouton supérieur