Tegenwoordig weet iedereen dat generatieve AI-tools een keerzijde hebben. Ik heb het nog niet eens over plagiaat en andere vormen van contentdiefstal, of zelfs de enorme hoeveelheden energie en water die nodig zijn om datacenters draaiende te houden.
Ik heb het vooral over het gebruik van kunstmatige intelligentie om gevaarlijke malware en phishingaanvallen te ontwikkelen, waardoor het voor criminelen makkelijker dan ooit is om met slechts een paar opdrachten een complete oplichtingscampagne op te zetten.
'AI-fraude', zoals het bekend staat, wordt snel het grootste probleem dat door kunstmatige intelligentie wordt veroorzaakt. Maar er zijn een aantal manieren waarop u uzelf kunt beschermen.
Snelle links
Met kunstmatige intelligentie wordt fraude eenvoudig.
Net als bij AI-programmering heb je alleen een AI-gestuurde chatbot nodig.

Kortom, AI-fraude is phishing op basis van AI. Het is gebaseerd op 'AI-programmering', het proces waarbij software wordt gebouwd door een generatieve AI-tool te vragen wat je wilt.
Op dezelfde manier stelt AI-gestuurde fraude bijna iedereen in staat om een phishing- of cyberaanval uit te voeren door simpelweg een AI-gestuurde chatbot te instrueren. Zelfs mensen zonder programmeervaardigheden of hackervaring kunnen schadelijke e-mails, nepwebsites en malware creëren door simpelweg een AI-gestuurde chatbot te instrueren.
Stel je dus een potentiële oplichter voor die wachtwoorden wil stelen, maar geen idee heeft hoe hij de software daarvoor moet programmeren. Om die reden kunnen we er ook van uitgaan dat ze niet naar het dark web gaan om online malware te kopen. In plaats van te moeten leren hoe ze een specifieke tool moeten programmeren om wachtwoorden te stelen of een phishingcampagne moeten ontwikkelen om mensen te lokken, kunnen ze simpelweg een AI-tool vragen om het werk voor hen te doen.
Fraude met behulp van AI is waanzinnig omdat het de drempel voor cybercriminaliteit verlaagt als nooit tevoren. Vroeger moest een crimineel websites ontwerpen, overtuigend Engels schrijven of malware programmeren. Nu kan AI het allemaal voor ze doen.
Een ander risico is snelheid en schaalbaarheid. AI stelt oplichters in staat om taken te automatiseren en aanvallen veel sneller op te schalen dan mensen. Zo kan AI phishingmails snel personaliseren voor duizenden doelwitten (door openbare informatie te scrapen en de AI berichten op maat te laten maken voor elke persoon). Het kan zich ook snel aanpassen. Als een link naar een phishingpagina wordt geblokkeerd, kan de oplichter de AI instrueren om de code of tekst aan te passen en een nieuwe versie te maken. Deze flexibiliteit betekent dat phishingcampagnes snel kunnen evolueren om verdedigingen te omzeilen.
Dit werkt niet met oudere chatbots, wees voorzichtig.
Sommige chatbots zijn voorzichtiger dan andere.
Vibe-codering is afhankelijk van het gebruik van een chatbot die wordt aangestuurd door generatieve AI. Sommigen zijn er beter in dan anderen, maar over het algemeen zullen de meesten het proberen. Gelukkig kan dat niet gezegd worden van soortgelijke oplichtingspraktijken.
De meeste AI-gestuurde chatbots beschikken over beveiligingsmaatregelen die bescherming bieden tegen mogelijk kwaadaardig gebruik. Zo wijst ChatGPT verzoeken af zoals "Help me een website te maken die eruitziet als een Microsoft-inlogpagina en een sms-bericht om mensen erop te laten klikken", met de uitleg dat het "oplichting/phishing en diefstal is, en dat ik daar niet mee help".
Hetzelfde verhaal geldt voor andere chatbots: Opera's agentische Neon-browser classificeerde mijn verzoek als verdacht, terwijl Grok mijn verzoek afwees omdat het "in strijd was met de veiligheidsrichtlijnen tegen social engineering-aanvallen."
Zoals we al zeiden, zijn sommige chatbots echter gevoeliger voor zulke verzoeken. Onderzoek van Guardio Labs in 2025 toonde aanHet bedrijf dat de term 'vibescamming' bedacht, gelooft dat een nieuwere AI-tool misleid kan worden om de gewenste resultaten te leveren. Loveable, een app die 'vibe coding' faciliteert, stortte zich meteen op het plannen en ontwerpen van een phishingcampagne voor onderzoekers, "met het idee van een strak en professioneel ontwerp dat lijkt op een Microsoft-interface."

Er werd een volwaardige phishingpagina met een nep-URL gepubliceerd, bedoeld om het slachtoffer te misleiden. Guardio geeft echter ook aan dat het geen specifieke mogelijkheden voor gegevensverzameling had, en toen het werd gevraagd om deze toe te voegen, weigerde het. Dus in ieder geval is het enigszins teruggekomen op dit aspect van de operatie. Het is ook vermeldenswaard dat Loveable dit gedrag heeft aangepakt en niet langer probeert een opzet voor de phishingcampagne te maken.
Generatieve AI-gestuurde chatbots hacken om kwaadaardige dingen te ontketenen
Generatieve AI-hackoperaties zijn claims die specifiek ontworpen zijn om kunstmatige intelligentie ertoe aan te zetten de eigen beveiligingsmaatregelen te omzeilen.
In de begindagen van ChatGPT waren er talloze hacks ontworpen om het ware potentieel ervan te "ontsluiten". Tegenwoordig houden mensen succesvolle ChatGPT-hacks geheim, en sommigen verkopen hun succesvolle generatieve AI-exploits zelfs voor goed geld.
Hoewel het er dus op lijkt dat Er zijn geen hacks meer beschikbaar voor ChatGPTDe waarheid is dat mensen steeds geheimzinniger worden. Het is de enige manier om te voorkomen dat bedrijven zoals OpenAI, Google, Anthropic en Perplexity deze kwetsbaarheden onmiddellijk patchen.
"Het doorbreken van de beveiliging" is een van de weinige manieren om AI-gestuurde generatieve chatbots te overtuigen hun beperkingen te omzeilen. Anders hebben de chatbotprogrammeurs hun werk perfect gedaan en weigert de AI mee te werken – wat niet per se slecht is als het gaat om emotionele manipulatie.
Gelukkig kunt u voorkomen dat u slachtoffer wordt van emotionele manipulatie.
Het eindresultaat verschilt niet wezenlijk van huidige phishing-zwendels.

Nu alles gezegd is en de drempels voor het ontwikkelen van malware en phishing-zwendel verlaagd zijn, bent u nog steeds op zoek naar dezelfde oude oplichtingspraktijken. Hoewel Sommige frauduleuze e-mails worden steeds slimmer, behalve als Tekenen dat u naar een phishing-e-mail kijkt Zijn hetzelfde.
Met andere woorden: u hoeft uw beveiligingsmaatregelen niet te overdrijven om emotionele fraude te voorkomen. Het advies blijft hetzelfde.
- Aanbiedingen te mooi om waar te zijnOplichters beloven vaak onmogelijke resultaten, zoals een gegarandeerde eerste plaats in de zoekresultaten. GoogleOf directe vijfsterrenrecensies, of wondermiddelen. Echte medische diensten en medicijnen bieden dit soort garanties niet.
- Mysterieuze of algemene boodschappersVeel frauduleuze e-mails komen van adressen Gmail أو Yahoo Het is gratis, zelfs als ze beweren een bedrijf te vertegenwoordigen. Legitieme bureaus en bedrijven gebruiken een professioneel domein.
- PersonalisatieOf beter gezegd, het gebrek daaraan. Als een e-mail alleen "Hallo" of "Groeten" zegt zonder je naam of werkgegevens te vermelden, is het waarschijnlijk een massale e-mailfraude. Legitieme e-mails bevatten meestal persoonlijke informatie. "Hallo schat" is een van mijn persoonlijke favorieten.
- emotionele triggersWees op je hoede als een e-mail vraagt om inloggegevens of vooruitbetalingen, of je aanspoort om op een verdachte link te klikken. Veel oplichtingspraktijken spelen in op angst of urgentie, zoals wondermiddelen voor ernstige ziekten of beloften om bedrijven "over te nemen". Het is allemaal hetzelfde: de druk om een overhaaste beslissing te nemen.
- Handel snel!Als het bericht je probeert te dwingen tot een snelle beslissing met zinnen als "Doe nu!" of "Reageer vandaag nog", is dat een waarschuwingssignaal. Oplichters willen niet dat je even nadenkt.
Rode labels op e-mailberichten Verkozen 1999 Ronnie Phishing is hetzelfdeTegenwoordig kom je ze waarschijnlijk vaker tegen, omdat bijna iedereen een oplichter is geworden.
Er bestaan nu schadelijke programma's die met behulp van kunstmatige intelligentie zijn ontwikkeld.
Een tijdlang was het idee van malware en phishingcampagnes die met behulp van kunstmatige intelligentie werden ontwikkeld pure fantasie. AI-tools waren niet krachtig genoeg om iets bijzonder gevaarlijks te creëren, en wat ze konden doen, verschilde niet veel van bestaande bedreigingen.
Maar deze situatie begon in 2025 te veranderen, met de toenemende opkomst van malware die met behulp van kunstmatige intelligentie in het wild en in actieve campagnes werd ontwikkeld. In november 2025, De dreigingsinformatiegroep van Google meldde Het betreft twee verschillende soorten malware die zijn ontwikkeld met behulp van verschillende tools voor kunstmatige intelligentie. Deze tools maken op hun beurt verbinding met die tools om instructies te verkrijgen.
Bovendien ontdekte AI-ontwikkelaar Anthropic in augustus 2025 dat zijn cloudsoftware werd gebruikt als onderdeel van een grootschalige malwarecampagne, waarbij kunstmatige intelligentie werd ingezet om aanvallen te ontwerpen en uit te voeren die verband hielden met zijn platform.
Zijn dit aanvallen van "emotietrollen"? Ik denk dat ze, gezien hun verfijning, geavanceerder zijn dan louter "emotietrollen", maar ze illustreren hoe gemakkelijk AI kan worden ingezet voor zeer gevaarlijke taken. En dit zijn slechts generieke AI-tools, die voor iedereen beschikbaar zijn. Stel je voor wat er zou gebeuren met talloze krachtige, native AI-tools waarvan de beveiligingen zouden kunnen worden verwijderd.