Word gematcht

Deep fake

Aanvallen

Synthetische media waarbij de beeltenis of de stem van een persoon in een bestaand audiobestand, beeld of video wordt vervangen door de beeltenis van iemand anders.

Een deep fake is synthetische media die met behulp van kunstmatige intelligentie het gezicht, de stem of het lichaam van een bestaand persoon nabootst. De term combineert "deep learning" met "fake" en verwijst naar de neurale netwerken die worden gebruikt om deze vervalsingen te creeren. Wat begon als een technologische curiositeit is uitgegroeid tot een serieuze cybersecurity-dreiging. Aanvallers zetten deep fakes in voor CEO-fraude, identiteitsdiefstal en desinformatiecampagnes, met miljoenen euro's aan schade als gevolg.

De technologie achter deep fakes ontwikkelt zich razendsnel. Waar het twee jaar geleden nog uren kostte om een overtuigende deep fake te maken, kan dat nu in minuten met gratis beschikbare tools. Real-time deep fakes maken het mogelijk om tijdens een videogesprek een ander persoon na te bootsen, inclusief stem en gezichtsuitdrukkingen. In 2024 verloor een multinational 25,5 miljoen dollar nadat een medewerker werd misleid door een videoconferentie waarin alle deelnemers, op het slachtoffer na, door AI werden nagebootst. Dit soort incidenten toont aan dat deep fakes niet langer sciencefiction zijn maar een actuele dreiging voor elke organisatie die digitaal communiceert.

Hoe werkt een deep fake?

Deep fakes worden gecreeerd met generative adversarial networks (GAN's) of diffusiemodellen. Een GAN bestaat uit twee neurale netwerken: een generator die vervalsingen maakt en een discriminator die probeert echt van nep te onderscheiden. Door deze netwerken miljoenen keren tegen elkaar te laten spelen, wordt de generator steeds beter in het produceren van overtuigende vervalsingen die zelfs experts niet meer van echt kunnen onderscheiden.

Voor een video-deep fake heeft de aanvaller beeldmateriaal nodig van het doelwit. Publiek beschikbare foto's en video's op social media, YouTube en bedrijfswebsites zijn vaak voldoende. De AI analyseert gezichtsuitdrukkingen, huidtextuur en lichtval, en leert deze te reproduceren op een ander gezicht. Voor audio-deep fakes volstaan soms al enkele seconden spraak om een overtuigende stemkloon te maken. Nieuwere modellen hebben zelfs minder dan drie seconden audio nodig om een redelijke imitatie te produceren.

De meest gevaarlijke variant is de real-time deep fake, waarbij het gezicht en de stem van een persoon live worden nagebootst tijdens een videoconferentie. De aanvaller gebruikt hierbij een webcam en speciale software die zijn eigen gezicht in real-time vervangt door dat van het doelwit. Gecombineerd met voorkennis over het doelwit en de organisatie, kan dit uiterst overtuigend zijn, zelfs voor waakzame medewerkers. De latency van deze systemen is inmiddels zo laag dat het gesprek natuurlijk aanvoelt.

Hoe herken je een deep fake?

Het herkennen van deep fakes wordt steeds moeilijker naarmate de technologie verbetert. Onderzoek toont aan dat mensen deep fakes slechts in 55-60% van de gevallen correct identificeren, nauwelijks beter dan een muntje opgooien. Toch zijn er signalen waar je op kunt letten. Let bij video op onnatuurlijke gezichtstransities wanneer het hoofd beweegt, inconsistenties in belichting en schaduwen, vreemde knippatronen en artefacten rond de haargrens of oorlijn. Bij snelle hoofdbewegingen of wanneer iemand een hand voor het gezicht houdt, kan de deep fake-software artefacten produceren.

Bij audio-deep fakes let je op onnatuurlijke pauzes, een gebrek aan achtergrondgeluid, subtiele veranderingen in toon en emotie, en een stem die "te perfect" klinkt zonder de gebruikelijke onvolkomenheden van natuurlijke spraak. Bij verzoeken om financiele transacties via telefoon of video is het altijd verstandig om via een ander kanaal te verifieren, bijvoorbeeld door terug te bellen naar het bekende telefoonnummer van de vermeende beller.

Technische detectietools gebruiken dezelfde AI-technieken als de makers van deep fakes. Ze analyseren pixels, frequentiepatronen en biometrische inconsistenties. Echter, volgens onderzoek van CrowdStrike daalt de nauwkeurigheid van automatische detectiesystemen met 45-50% wanneer ze worden geconfronteerd met deep fakes in de echte wereld, vergeleken met laboratoriumomstandigheden. Een combinatie van menselijke alertheid en technische tools biedt een geschikte bescherming, waarbij procesmatige waarborgen zoals het vier-ogen principe de laatste verdedigingslinie vormen.

Hoe bescherm je je tegen deep fakes?

Bescherming tegen deep fakes vereist een combinatie van technische en organisatorische maatregelen. Train medewerkers via security awareness training om deep fakes te herkennen en verdachte verzoeken altijd via een tweede kanaal te verifieren. Implementeer een beleid dat financiele transacties boven een bepaald bedrag altijd via meerdere kanalen worden bevestigd, niet alleen via video of telefoon. Dit geldt ook voor andere gevoelige acties zoals het wijzigen van betaalgegevens of het verlenen van toegangsrechten.

Technische maatregelen omvatten het implementeren van multi-factor verificatie voor gevoelige acties, het beperken van de hoeveelheid publiek beschikbaar beeld- en audiomateriaal van sleutelfiguren in de organisatie, en het inzetten van deep fake detectie-software voor inkomende videogesprekken. Sommige organisaties introduceren codewoorden of challenge-response protocollen die moeilijk na te bootsen zijn met AI. Real-time voice authentication systemen worden steeds geavanceerder en kunnen helpen bij het detecteren van AI-gegenereerde stemmen.

Op organisatorisch niveau is het essentieel om procedures te hebben die bestand zijn tegen social engineering via deep fakes. Het vier-ogen principe bij financiele transacties, verplichte terugbelverificatie bij ongebruikelijke verzoeken, en duidelijke escalatieprocedures vormen de basis. Zorg er ook voor dat je incident response-plan scenario's voor deep fake-aanvallen bevat. een geschikte bescherming combineert technische detectie met robuuste bedrijfsprocessen die niet afhankelijk zijn van een enkel communicatiekanaal. Daarnaast is het verstandig om regelmatig je crisisprotocollen te evalueren en aan te passen aan de nieuwste deep fake-technieken.

Veelgestelde vragen over deep fakes

Hoe duur is het om een deep fake te maken?

De drempel is dramatisch gedaald. Met gratis beschikbare open-source tools en een consumentenlaptop kan iemand in minuten een basis deep fake creeren. Hoogwaardige real-time deep fakes vereisen meer rekenkracht en expertise, maar zijn met enkele honderden euro's aan clouddiensten al realiseerbaar.

Zijn deep fakes illegaal in Nederland?

Het maken van een deep fake is op zichzelf niet strafbaar. Het gebruik ervan voor fraude, oplichting, identiteitsdiefstal of het verspreiden van desinformatie is dat wel. Bij deep fake-pornografie zonder toestemming van het afgebeelde persoon geldt strafrechtelijke aansprakelijkheid onder het Wetboek van Strafrecht.

Kan ik herkennen of een videogesprek een deep fake is?

Let op onnatuurlijke gezichtsbewegingen, vervorming bij snel draaien van het hoofd, en inconsistenties in belichting. Vraag de persoon iets onverwachts te doen, zoals een hand voor het gezicht te houden. Real-time deep fakes hebben moeite met abrupte, onverwachte bewegingen.

Wat moet ik doen als mijn organisatie doelwit is van een deep fake-aanval?

Stop direct de transactie of communicatie. Verifieer de identiteit van de beller via een ander kanaal. Documenteer het incident inclusief opnames als dat mogelijk is. Meld het bij je IT-beveiligingsteam en overweeg aangifte bij de politie. Informeer medewerkers om herhaling te voorkomen.

Hoe bescherm ik mijn eigen gezicht en stem tegen misbruik?

Beperk de hoeveelheid publiek beschikbaar video- en audiomateriaal. Stel social media-profielen in op prive. Overweeg digitale watermerken voor officiele video's. Wees terughoudend met het delen van langere gesproken fragmenten op publieke platforms.

Bescherm je organisatie tegen AI-aanvallen. Vind de juiste aanbieder via Social engineering testen op IBgidsNL.