![new dc](https://dutchcowboys.nl/wp-content/uploads/2024/04/cropped-logo-new-dc-100x100.png)
De redactie van Dutchcowboys is te bereiken via redactie@dutchcowboys.nl
Cybercriminelen gebruiken steeds vaker spraakberichten voor phishingaanvallen, ook wel bekend als ‘vishing’. Deze aanvalsmethode gaat een piek bereiken in 2020. Zo weet Mimecast te melden in een nieuw Threat Intelligence-rapport.
De securityspecialist wijst ook op de toenemende dreiging van aanvallen met deepfake-audio. Daarmee kunnen cybercriminelen stemmen nabootsen door middel van kunstmatige intelligentie. De combinatie van spraak met kunstmatige intelligentie maakt ook verfijndere aanvallen mogelijk.
Deepfake gaat dus niet alleen meer om beeld. De Wall Street Journal wist in september van dit jaar al te melden dat een Brits energiebedrijf voor 220.000 euro is opgelicht met zogeheten deepfake-audio. De CEO dacht namelijk dat hij een telefoongesprek had met de CEO van het Duitse moederbedrijf. Hij kreeg het verzoek om met spoed een bedrag over te maken naar een Hongaarse leverancier. In werkelijkheid werd de stem zeer overtuigend nagebootst met behulp van AI-technologie.
Bij de eerste gefotoshopte afbeeldingen was er altijd duidelijk te zien dat er iets niet klopte. Datzelfde geldt ook voor de productie van deepfake-audio. “De meeste aanvallers maken hiervoor gebruik van relatief simpele software. De spraakberichten en stemmen die daarmee worden gegenereerd, klinken niet erg overtuigend,” aldus Jonathan Miles, threat intelligence-expert bij Mimecast. “Maar cybercriminelen die veel financiële middelen hebben, kunnen geavanceerdere software betalen. Dan klinkt een nagebootste stem opeens levensecht.”
Maar naarmate deze technologie volwassener wordt, zal het ook steeds makkelijker en goedkoper worden om geloofwaardige audiocontent te ontwikkelen. “Aanvallers kunnen algoritmes bijvoorbeeld voeden met stemopnames die ze van YouTube halen. En als je dan ook nog een platform gebruikt dat tekst automatisch omzet naar spraak in een nagebootste stem, wordt het mogelijk om zeer geloofwaardige, interactieve dialogen te voeren. Social engineering krijgt hierdoor een nieuwe dimensie.”
Maar wat doe je er zelf tegen? Om te voorkomen dat jij of het bedrijf waar je voor werkt niet het volgende slachtoffer is. Mimecast heeft een aantal tips om schade door dergelijke aanvallen te voorkomen:
Het is niet eenvoudig om vishing of een poging tot oplichting met deepfake-audio te herkennen. Want vooral deepfake-audio is nog een relatief nieuw verschijnsel. De meesten van ons hebben er waarschijnlijk nog nooit van gehoord. En dus is awareness weer de eerste stap. Spread the word. It’s out there!
[Fotocredits © folienfeuer – Adobe Stock]
De redactie van Dutchcowboys is te bereiken via redactie@dutchcowboys.nl
Verder lezen over Hackers
Cybercrime25.07.2024
Cybercrime04.07.2024
Cybercrime27.06.2024
Cybercrime26.06.2024
Cybercrime14.06.2024
Cybercrime05.06.2024
Cybercrime15.05.2024
Cybercrime08.05.2024
Verder lezen over Security
Cybercrime25.07.2024
Cybercrime23.07.2024
Cybercrime04.07.2024
Cybercrime04.07.2024
Cybercrime01.07.2024
Cybercrime27.06.2024
Cybercrime19.06.2024
Online12.06.2024
Verder lezen over Voice
Technology18.11.2022
Automotive08.02.2022
Online27.01.2022
Gadgets24.12.2021
Mobile31.05.2021
Nieuws16.04.2021
Nieuws02.04.2021
Online01.04.2020