Uit het AI and Adversarial Testing Benchmark Report 2026 van Pentera blijkt dat veel beveiligingsleiders moeite hebben om AI-systemen adequaat te beveiligen met vaardigheden en tools die niet zijn afgestemd op de huidige uitdagingen. Het rapport, gebaseerd op een enquête onder 300 Amerikaanse CISOs en senior security leiders, toont aan dat organisaties belangrijke hiaten ervaren door een tekort aan gespecialiseerde kennis en het gebruik van beveiligingsmaatregelen die niet specifiek voor AI zijn ontwikkeld.
AI-systemen worden zelden geïsoleerd ingezet en zijn geïntegreerd in bestaande technologieën zoals cloudplatforms, identiteitsbeheer en data pipelines. Door de verspreide verantwoordelijkheid over verschillende teams ontbreekt het aan centraal overzicht. Zo gaf 67 procent van de CISOs aan beperkte zichtbaarheid te hebben in het gebruik van AI binnen hun organisatie. Geen enkele respondent meldde volledige controle, waarbij men vaak onbeheerste of ongeautoriseerde AI-toepassingen accepteert. Dit gebrek aan inzicht bemoeilijkt een effectieve risico-inschatting, waarbij fundamentele vragen over toegangsrechten, data en gedrag bij falende controles vaak onbeantwoord blijven.
Hoewel AI-beveiliging regelmatig op de bestuursagenda staat, blijkt uit het onderzoek dat het grootste obstakel niet het budget is, maar het gebrek aan interne expertise. De belangrijkste uitdagingen zijn het tekort aan kennis (50 procent), beperkte zichtbaarheid in AI-gebruik (48 procent) en het ontbreken van specifieke beveiligingstools voor AI-systemen (36 procent). Slechts 17 procent noemt budget als primaire beperking. Dit wijst erop dat organisaties bereid zijn te investeren, maar nog niet beschikken over de benodigde vaardigheden om AI-gerelateerde risico’s in de praktijk te beoordelen.
De meeste organisaties vertrouwen nog op bestaande beveiligingsmaatregelen om AI-infrastructuur te beschermen. Volgens het rapport gebruikt 75 procent van de CISOs legacy beveiligingscontroles zoals endpoint-, applicatie-, cloud- of API-beveiliging. Slechts 11 procent beschikt over tools die specifiek zijn ontworpen voor AI-beveiliging. Deze aanpak volgt een bekend patroon bij technologische verschuivingen, waarbij bestaande verdedigingsmechanismen worden aangepast voordat er gespecialiseerde oplossingen beschikbaar zijn. Hoewel dit basisbescherming biedt, houden traditionele controles vaak onvoldoende rekening met de veranderde toegangspatronen en uitgebreide aanvalsmogelijkheden die AI introduceert.
Samenvattend laat het rapport zien dat de uitdagingen rond AI-beveiliging vooral voortkomen uit fundamentele tekortkomingen in kennis en tooling, en niet uit een gebrek aan bewustzijn. Nu AI een integraal onderdeel wordt van bedrijfsinfrastructuren, is het noodzakelijk dat organisaties zich richten op het ontwikkelen van expertise en het verbeteren van de validatie van beveiligingsmaatregelen in omgevingen waar AI actief is.
Reacties
Geef een reactie
Vereiste velden zijn gemarkeerd met *