‘Werkgevers moeten medewerkers beter voorlichten over de gevaren van deepfakes’

Dit is een expertquote van Jelle Wieringa, Security Awareness Advocate, KnowBe4

U kunt dit bericht, of delen hiervan gebruiken op uw kanalen, met vermelding van de naam van de expert en organisatie. Aanleiding: Deepfakes van Tom Hanks en topman Bunq laten risico zien van AI-video’s

Steeds meer beroemdheden krijgen te maken met deepfakes die cybercriminelen van hen maken met behulp van AI-technologie. Door de toegankelijkheid en het gebruiksgemak van AI-technologie wordt het steeds makkelijker om mensen op te lichten en desinformatie te verspreiden. Cybercriminelen zetten deepfakes ook in om achter gevoelige bedrijfsinformatie te komen. Daarom moeten werkgevers hun medewerkers bewust maken van de gevaren van deepfakes.

Om fraude te plegen of data te stelen van bedrijven proberen cybercriminelen hun slachtoffers te manipuleren. Meestal doen ze dat met phishing e-mails. Maar omdat technologie om deepfakes te produceren steeds beter wordt, zien we ook dat ze hier audio voor gaan gebruiken.

Zo had het bedrijf Retool vorige maand nog te maken met een hacker die de stem van een medewerker van de IT-helpdesk had gereproduceerd. Een andere medewerker die dacht zijn collega aan de lijn te hebben werd op deze manier opgelicht.

Nu ook deepfake-video’s steeds makkelijker te maken zijn, gaan cybercriminelen ze ook inzetten om medewerkers op te lichten. Zo deed een cybercrimineel zich vorige week in een deepfake-video nog voor als de CEO van Bunq. In die hoedanigheid vroeg hij aan een nietsvermoedende medewerker om een aanzienlijk geldbedrag over te maken.

Toegankelijke en effectief inzetbare technologie om AI te detecteren bestaat jammer genoeg nog niet. Daarom is het een bittere noodzaak dat werkgevers hun medewerkers voorlichten over hoe cybercriminelen AI gebruiken en de gevaren die dat met zich meebrengt. Door zo het bewustzijn van medewerkers te vergroten, helpen ze de kans verkleinen dat bedrijfsinformatie in verkeerde handen valt.



You may also like...