hackers phishing

AI wordt nu gebruikt om je te hacken - en Google legt bewijs op tafel

Cybercrime13 mei , 6:15doorJeroen de Hooge
Hackers gebruiken AI niet langer alleen als hulpmiddel voor eenvoudige taken. Ze gebruiken het om kwetsbaarheden te ontdekken die zelfs traditionele beveiligingsscanners missen, om malware te schrijven die zichzelf aanpast, en om je telefoon autonoom over te nemen. Google's Threat Intelligence Group publiceerde een nieuw rapport met de meest concrete bewijzen tot nu toe van hoe ver dat is gegaan.
Dit zijn de vijf meest schokkende bevindingen.

1. Voor het eerst ooit: een zero-day exploit gemaakt door AI

Google identificeerde voor het eerst een zero-day exploit die naar alle waarschijnlijkheid is ontwikkeld met behulp van een AI-model. Criminelen waren van plan hem in te zetten voor een massa-exploitatieaanval, maar Google ontdekte het op tijd en werkte samen met de getroffen leverancier om de aanval te verijdelen.
Wat maakt dit bijzonder? De exploit betrof een 2FA-bypass in een populair webgebaseerd serverbeheer-programma. Het ging niet om een klassieke programmeersfout zoals geheugenbeschadiging, maar om een semantische logicafout waarbij een ontwikkelaar een vertrouwensaanname had hardcoded. Traditionele scanners missen dit soort fouten - maar frontier AI-modellen kunnen de intentie van een ontwikkelaar lezen en de tegenstrijdige logica herkennen.
Het bewijs dat AI erbij betrokken was? De code bevatte een overvloed aan educatieve commentaren, een gehalluceerde CVSS-score en een gestructureerde Pythonische opmaak die kenmerkend is voor LLM-trainingsdata. Kortom: de handtekening van een AI die zorgvuldig uitgelegd heeft wat hij aan het doen was.

2. PROMPTSPY: de malware die je telefoon autonoom overneemt

PROMPTSPY is een Android-backdoor die Google's eigen Gemini API gebruikt om autonoom je telefoon over te nemen. De malware heeft een module genaamd GeminiAutomationAgent die de volledige gebruikersinterface van je telefoon in realtime analyseert, naar de Gemini API stuurt en terugkrijgt welke knoppen er precies aangeklikt moeten worden - zonder menselijke tussenkomst.
Dat klinkt technisch, maar de implicaties zijn concreet. De malware kan zelfstandig door je telefoon navigeren, apps openen en acties uitvoeren die normaal een mens vereisen. En als je hem probeert te verwijderen, blokt hij je: PROMPTSPY plaatst een onzichtbare overlay direct over de verwijderknop, zodat je tik wordt onderschept en de knop gewoon niet reageert.
Wordt je telefoon toch inactief? Dan kunnen de aanvallers via Firebase Cloud Messaging de backdoor op afstand heractiveren. En als extra klap: de malware kan biometrische data vastleggen — zoals je pinpatroon of vingerafdrukgebaar - om later opnieuw toegang te krijgen tot je vergrendeld toestel.
Google heeft inmiddels actie ondernomen en de betrokken assets uitgeschakeld. PROMPTSPY is niet aangetroffen in de Play Store en Google Play Protect detecteert bekende versies automatisch.

3. China en Noord-Korea hacken op industriële schaal met AI

Staatshackers gelieerd aan China en Noord-Korea tonen een bijzonder gesofisticeerde aanpak van AI-gestuurde kwetsbaarheidsonderzoek. Ze sturen duizenden repetitieve prompts die recursief verschillende CVE's analyseren en exploits valideren - een arsenaal dat zonder AI-assistentie onbeheersbaar zou zijn.
Een van de tactieken: hackers geven het AI-model een neppersona, zoals "senior beveiligingsauditor" of "C/C++ binary security expert", en bouwen vervolgens een geloofwaardige scenario op om de veiligheidsfilters te omzeilen.
Daarnaast experimenteerden Chinese staatshackers met een gespecialiseerde kwetsbaarhedendatabank van meer dan 85.000 real-world gevallen, als plugin voor AI-modellen. Door het model te primen met die data kunnen ze het laten redeneren als een ervaren beveiligingsexpert die logische fouten in code herkent die een basismodel zou missen.

4. Russische malware schrijft zichzelf om met AI

Russische hackers die Oekraïne aanvallen gebruiken AI-gegenereerde decoy-code om malware te camoufleren. De malwarefamilies CANFAIL en LONGSTREAM bevatten grote blokken inactieve code die speciaal is gegenereerd om de kwaadaardige functionaliteit te verdoezelen voor beveiligingssoftware.
Een concreet voorbeeld: LONGSTREAM bevat 32 instanties van code die de zomertijdstatus van het systeem opvraagt - een volstrekt zinloze handeling die alleen bestaat om de malware er onschuldig uit te laten zien.

5. Criminelen omzeilen AI-veiligheidsfilters op industriële schaal

Er bestaat inmiddels een professioneel ecosysteem van middleware, proxyrelays en geautomatiseerde registratiepipelines waarmee criminelen anoniem en op grote schaal toegang krijgen tot premium AI-modellen - inclusief ChatGPT, Claude en Gemini.
Tools zoals Claude-Relay-Service bundelen meerdere accounts van verschillende AI-providers in één interface. Geautomatiseerde scripts registreren en annuleren premium accounts in een eindeloze cyclus om gratis credits te misbruiken. Anti-detectiebrowsers zorgen ervoor dat platformen de geautomatiseerde activiteit niet kunnen herkennen.
Het doel: toegang tot de krachtigste AI-modellen zonder te betalen en zonder te worden geblokkeerd.

Wat betekent dit?

AI maakt aanvallen sneller, slimmer en toegankelijker. De drempel voor complexe cyberaanvallen daalt. Fouten die traditionele scanners missen worden door AI gevonden. En malware die zichzelf aanpast is moeilijker te detecteren.
Het goede nieuws: Google gebruikt dezelfde technologie ook defensief. AI-agent Big Sleep vond al een eerste echte kwetsbaarheid in het wild, en het nieuwe CodeMender-project gebruikt Gemini om kritieke codefouten automatisch te patchen.
De wapenwedloop is begonnen. En AI staat aan beide kanten van de frontlinie.
Deel dit bericht

Loading