Het gebruik van generatieve kunstmatige intelligentie (GenAI) binnen bedrijven is in 2024 letterlijk geëxplodeerd. Uit nieuw onderzoek blijkt dat het verkeer naar AI-diensten met maar liefst 890% is toegenomen, terwijl tegelijkertijd het aantal beveiligingsincidenten gerelateerd aan AI-gebruik met 150% is gestegen.

Van experiment naar bedrijfskritische tool
Wat begon als voorzichtig experimenteren met chatbots en schrijfassistenten, is inmiddels uitgegroeid tot een essentieel onderdeel van de moderne werkplek. Organisaties gebruiken gemiddeld 66 verschillende AI-tools, variërend van Microsoft Copilot tot gespecialiseerde code-assistenten en enterprise search-platforms.
“We zien dat bijna de helft van alle bedrijven inmiddels werkt met Microsoft Copilot of Copilot Studio,” aldus het onderzoek van Palo Alto Networks. “De productiviteitswinsten zijn aanzienlijk, maar tegelijkertijd ontstaan er nieuwe risico’s die veel organisaties nog niet volledig onder controle hebben.”
Schaduwzijde van de AI-revolutie
Het succes van AI-tools brengt echter een donkere keerzijde met zich mee. Van alle AI-applicaties die bedrijven gebruiken, wordt ongeveer 10% als ‘hoog risico’ geclassificeerd. Vooral het ongecontroleerde gebruik van AI-tools buiten het zicht van IT-afdelingen – ook wel ‘shadow AI’ genoemd – zorgt voor hoofdbrekens.
Deze trend heeft geleid tot een dramatische toename van beveiligingsincidenten. AI-gerelateerde datalekken maken inmiddels 14% van alle beveiligingsincidenten uit binnen bedrijfsnetwerken. Het probleem wordt verergerd doordat meer dan 70% van de populaire AI-tools vatbaar blijkt voor zogenaamde ‘jailbreak’-aanvallen, waarbij kwaadwillenden de veiligheidssystemen van AI-modellen kunnen omzeilen.
Nederland loopt voorop in AI-adoptie
Nederlandse organisaties lopen voorop in de adoptie van AI-technologie, maar worstelen tegelijkertijd met de complexiteit van het beveiligen ervan. Volgens Palo Alto Networks vinden bedrijven het lastig om het persoonlijke gebruik van AI-tools door werknemers te monitoren. “Ook krijgen ze soms te maken met malafide of gemanipuleerde AI-modellen,” waarschuwt het bedrijf.
De uitdaging wordt vergroot door de razendsnelle ontwikkeling van nieuwe AI-plugins, bots en agents die elk nieuwe ‘side doors’ creëren in IT-omgevingen. Deze tools blijven vaak onder de radar van beveiligingsteams, terwijl ze wel toegang hebben tot bedrijfsgevoelige informatie.
Regelgeving vergroot de druk
Naast technische dreigingen zorgt ook de regulatory druk voor extra uitdagingen. Toezichthouders wereldwijd proberen de AI-ontwikkelingen bij te benen met nieuwe wetgeving, wat leidt tot onzekerheid bij bedrijven over wat wel en niet toegestaan is.
Niet-naleving van deze nieuwe regels kan leiden tot zware boetes en reputatieschade. Organisaties moeten daarom niet alleen investeren in technische beveiliging, maar ook in juridische compliance en governance-structuren.
Naar een veilige AI-toekomst
Experts adviseren organisaties om een proactieve, meerlaagse AI-governance strategie te implementeren. Dit begint met het verkrijgen van inzicht in welke AI-tools werknemers gebruiken en het opstellen van heldere richtlijnen over wat wel en niet is toegestaan.
Belangrijke maatregelen omvatten voorwaardelijk toegangsbeheer, real-time databeveiliging en de implementatie van een zero trust-architectuur. Deze aanpak stelt organisaties in staat om AI-gedreven dreigingen tijdig te signaleren en te blokkeren, terwijl werknemers wel kunnen profiteren van de productiviteitsvoordelen van AI.
De boodschap is duidelijk: AI is gekomen om te blijven en biedt enorme kansen voor organisaties. Maar alleen degenen die nu investeren in adequate beveiliging en governance kunnen op de lange termijn veilig profiteren van deze revolutionaire technologie.
Dit artikel is gebaseerd op onderzoek van Palo Alto Networks onder meer dan 7.000 organisaties wereldwijd, inclusief Nederlandse bedrijven.