This is the Trace Id: 48c6f00385f03d96ac58bf9607ccf6f3

 

Cyber Pulse: Een AI-beveiligingsrapport

Recente telemetrie en onderzoeken van Microsoft tonen aan dat veel organisaties AI-agents omarmen. Leiders moeten nú waarneembaarheid, governance en beveiliging implementeren.

Probleem 1: Introductie

Frontier-organisaties herdefiniëren werkprocessen, waarbij mensen en agents samenwerken om menselijke ambities te versterken. Recente Microsoft-gegevens laten zien dat teams van mensen en agents wereldwijd groeien en breed worden ingezet.

AI-agents schalen sneller dan sommige bedrijven kunnen volgen, en dat gebrek aan volgbaarheid vormt een serieus bedrijfsrisico. Organisaties hebben dringend effectieve governance en beveiliging nodig om agents veilig te adopteren, innovatie te stimuleren en risico’s te beperken. Net als menselijke gebruikers hebben AI-agents bescherming nodig via waarneembaarheid, governance en sterke beveiliging gebaseerd op Zero Trust-principes. De bedrijven die succesvol zijn in de volgende fase van AI-adoptie, zijn degenen die snel handelen en business-, IT-, security- en ontwikkelteams samenbrengen om hun AI-transformatie te monitoren, beheren en beveiligen.

Binnen het Microsoft-ecosysteem bouwen klanten agents op alle belangrijke platforms - van Fabric en Foundry tot Copilot Studio en Agent Builder - wat een brede verschuiving naar AI-gedreven automatisering in het werkproces weerspiegelt.

Het bouwen van agents is niet langer alleen voor technische specialisten; medewerkers in diverse functies creëren en gebruiken agents dagelijks. Microsoft-data toont aan dat meer dan 80% van de Fortune 500 actieve agents inzet die zijn ontwikkeld met low-code/no-code hulpprogramma's.1 Nu het gebruik van agents groeit en transformatiekansen toenemen, is het essentieel om de basiscontroles op orde te hebben.

Net als voor menselijke medewerkers betekent Zero Trust voor agents het volgende:
 

  • Minimale toegangsrechten: Geef elke gebruiker, AI-agent of systeem alleen de toegang die strikt noodzakelijk is, niet meer.

  • Expliciete verificatie: Bevestig altijd wie of wat toegang vraagt, op basis van identiteit, apparaatstatus, locatie en risiconiveau.

  • Ga uit van mogelijke inbreuk: Ontwerp systemen met de verwachting dat aanvallers binnen kunnen dringen.

Grafiek die toont dat meer dan 80% van de Fortune 500-bedrijven actief gebruikmaakt van low-code agenttools, Vraag het aan Copilot

AI-agents schalen razendsnel op, in alle regio’s en sectoren

De adoptie van agents versnelt wereldwijd - van EMEA tot de Amerika’s en Azië.2
 Staafdiagram met regionale verdeling: EMEA 42%, Verenigde Staten 29%, Azië 19%, Amerika 10%.
Microsoft ziet groei van agents in elke sector. Financiële dienstverlening, productie en detailhandel lopen voorop in de adoptie van agents. Financiële diensten - waaronder banken, kapitaalmarkten en verzekeringen - vertegenwoordigen nu ongeveer 11% van alle actieve agents wereldwijd.2 De maakindustrie is goed voor 13% van het wereldwijde agentgebruik, met brede adoptie in fabrieken, toeleveringsketens en energiebedrijven.2 De detailhandel vertegenwoordigt 9%, waarbij agents worden ingezet om klantervaring, voorraadbeheer en frontliniewerkzaamheden te verbeteren.2

Het punt is: sommige van deze agents zijn goedgekeurd door IT, andere niet. Sommige agents zijn veilig, andere niet.
Overlappende cirkels die de sectorverdeling weergeven: Software en Technologie 16%, Productie 13%, Financiële diensten 11%, Detailhandel 9%.

Het risico van dubbelagents

De snelle inzet van agents kan beveiligings- en compliancecontroles voorbijstreven, waardoor het risico op schaduw-AI toeneemt. Kwaadwillenden kunnen misbruik maken van de toegang en rechten van agents en ze veranderen in onbedoelde 'dubbelagents.' Net als bij menselijke medewerkers kan een agent met te veel toegang of verkeerde instructies een kwetsbaarheid vormen.

Het risico dat dubbelagents worden misbruikt als ze niet goed worden beheerd, verkeerd zijn geconfigureerd of gemanipuleerd door onbetrouwbare input, is geen theoretisch gevaar. Onlangs ontdekte het Defender-team van Microsoft een frauduleuze campagne waarin meerdere actoren een AI-aanvalstechniek, bekend als 'memory poisoning', gebruikten om het geheugen van AI-assistenten blijvend te manipuleren, waardoor toekomstige reacties subtiel werden gestuurd en het vertrouwen in de nauwkeurigheid van het systeem afnam.

In onafhankelijk, beveiligd testonderzoek uitgevoerd door Microsofts eigen AI Red Team, documenteerden onderzoekers hoe agenten werden misleid door bedrieglijke interface-elementen, zoals het opvolgen van schadelijke instructies die in alledaagse inhoud waren ingebed. Het Red Team ontdekte ook hoe de redenatie van agents subtiel kon worden beïnvloed door gemanipuleerde taakformuleringen. Deze bevindingen onderstrepen het belang voor bedrijven om volledige waarneembaarheid en beheer te hebben over alle agents binnen hun organisatie, zodat controles centraal kunnen worden afgedwongen en risico’s integraal beheerd.
Uit een onderzoek uit 2025 blijkt dat 29 procent van de medewerkers ongeautoriseerde AI-agents inzet voor werkgerelateerde taken
Volgens de Data Security Indexvan Microsoft geeft slechts 47% van de organisaties in diverse sectoren aan specifieke GenAI-beveiligingsmaatregelen te implementeren,3 wat een duidelijke kans biedt om de noodzakelijke zichtbaarheid te creëren voor veilige AI-adoptie. Nog belangrijker: uit een wereldwijd onderzoek onder meer dan 1700 dataspecialisten, uitgevoerd door Hypothesis Group in opdracht van Microsoft, blijkt dat al 29% van de medewerkers ongeautoriseerde AI-agents gebruikt voor werkgerelateerde taken.4
Cirkeldiagram toont dat slechts 47 procent van de organisaties beveiligingsmaatregelen heeft voor het gebruik van generatieve AI.

Nu de adoptie versnelt, hoeveel leiders zijn zich bewust van de onderliggende risico’s? Hoeveel leiders hebben echt inzicht in hun agentpopulatie? Onbeheerde of ongereguleerde AI-agents vergroten de risico’s binnen organisaties - ze vormen een bedreiging voor beveiliging, bedrijfscontinuïteit en reputatie, en leggen de verantwoordelijkheid rechtstreeks bij de CISO en het managementteam. Dit vormt de kern van het dilemma rond cyberrisico’s. AI-agents bieden nieuwe kansen op de werkvloer en worden steeds meer geïntegreerd in interne processen. Maar risicovol gedrag van agents kan interne dreigingen versterken en nieuwe faalpunten creëren voor organisaties die hier niet op zijn voorbereid.

 

De dubbele aard van AI is een feit: baanbrekende innovatie gaat gepaard met ongekende risico’s.

Het maximale halen uit je AI-agents

Vooruitstrevende organisaties benutten de AI-revolutie om governance te moderniseren, onnodige gegevensblootstelling te beperken en organisatiebrede controles te implementeren. Ze combineren dit met een cultuurverandering: bedrijfsleiders bepalen de AI-strategie, terwijl IT- en securityteams nu volwaardige partners zijn in waarneembaarheid, governance en veilig experimenteren. Voor deze organisaties is het beveiligen van agents geen beperking, maar juist een concurrentievoordeel - door AI-agents als mensen te behandelen en dezelfde Zero Trust-principes toe te passen.

Het begint met waarneembaarheid: je kunt immers niet beschermen wat je niet ziet, en niet beheren wat je niet begrijpt. Waarneembaarheid betekent een controlelaag over alle organisatieonderdelen (IT, beveiliging, ontwikkelaars en AI-teams) om inzicht te krijgen in:

  • welke agents er actief zijn,
     

  • wie er verantwoordelijk voor is,
     

  • welke systemen en gegevens ze gebruiken
     

  • en hoe ze zich gedragen


 

Waarneembaarheid omvat vijf kerngebieden:

  • Een gecentraliseerd register fungeert als de enige betrouwbare bron voor alle agents binnen de organisatie - goedgekeurd, van derden en opkomende shadow-agents. Deze inventaris voorkomt wildgroei van agents, bevordert verantwoordelijkheid en ondersteunt opsporing, terwijl ongeautoriseerde agents indien nodig kunnen in quarantaine kunnen worden geplaatst of geïsoleerd.
  • Elke agent wordt beheerd met dezelfde identiteits- en beleidsgestuurde toegangscontroles die ook gelden voor menselijke gebruikers en applicaties. Minimale toegangsrechten, consequent toegepast, zorgen ervoor dat agents alleen toegang hebben tot de gegevens, systemen en werkstromen die ze nodig hebben - niet meer, niet minder.
  • Realtime dashboards en telemetrie bieden inzicht in hoe agents omgaan met mensen, gegevens en systemen. Leiders zien waar agents actief zijn, begrijpen afhankelijkheden en monitoren gedrag en impact, waardoor misbruik, afwijkingen of nieuwe risico’s sneller worden gedetecteerd.
  • Agents functioneren op Microsoft-platforms, open-source frameworks en ecosystemen van derden binnen één consistent governance-model. Deze interoperabiliteit maakt samenwerking mogelijk tussen mensen en agents binnen werkstromen, terwijl ze onder dezelfde bedrijfscontroles blijven.
  • Ingebouwde beveiligingen beschermen agents tegen intern misbruik en externe dreigingen. Beveiligingssignalen, beleidsuitvoering en geïntegreerde hulpprogramma's helpen organisaties om gecompromitteerde of niet-conforme agents vroegtijdig te detecteren en snel te reageren - voordat problemen escaleren tot zakelijke, regelgevende of reputatieschade.

De kloof dichten: checklist voor AI-governance en beveiliging

De weg naar het beheersen van AI-risico’s is helder: behandel AI-agents met dezelfde zorgvuldigheid als elke medewerker of elk software service account. Hier zijn zeven essentiële punten voor je checklist.
  • Documenteer het doel van elke agent en geef alleen toegang tot wat strikt noodzakelijk is. Geen brede toegangsrechten.
  • Pas regels voor gegevensbescherming toe op AI-kanalen. Houd auditlogs bij en label AI-gegenereerde inhoud duidelijk.
  • Bied veilige alternatieven om schaduw-AI effectief te beperken. Blokkeer ongeautoriseerde applicaties.
  • Werk Business Continuity-plannen bij met scenario’s voor AI-incidenten. Voer tabletop-oefeningen uit en monitor observatiemaatstaven voor identiteit, gegevens en dreigingsvlakken.
  • Bouw nu AI-governance op en regel het zelf: documenteer trainingsgegevens, beoordeel bias en zorg voor menselijke controle op juridisch, gegevens- en beveiligingsgebied, zodat naleving vanaf het begin is ingebouwd en niet achteraf moet worden toegevoegd.
  • Breng AI-risico’s naar ondernemingsniveau door bestuurlijke verantwoordelijkheid, meetbare KPI’s en zichtbaarheid op bestuursniveau te verankeren, naast financiële en operationele risico’s.
  • Train medewerkers in veilig en verantwoord gebruik van AI. Bevorder transparantie en samenwerking.

Organisaties die succesvol zijn met AI-agents, zijn degenen die waarneembaarheid, governance en beveiliging consequent prioriteren. Dit vereist samenwerking tussen alle teams en volledige zichtbaarheid van AI-agents op alle niveaus binnen de organisatie: IT-professionals, beveiligingsteams, AI-teams en ontwikkelaars, die allemaal centraal beheerd en gemonitord kunnen worden via één uniform controleplatform.

Agent 365 is Microsoft’s uniforme beheersysteem voor het centraal beheren van AI-agents binnen je organisatie. Het biedt een gecentraliseerd platform op bedrijfsniveau om AI-agents te registreren, beheren, beveiligen, monitoren en aan te sturen - ongeacht of ze zijn gebouwd op Microsoft-platforms, opensource-frameworks of systemen van derden. Meer informatie over Microsoft-producten en -diensten die helpen AI en agents te beveiligen, vind je hier.
Microsoft Beveiliging resourcekaarten met handleidingen voor AI-toepassingen, AI-governance en AI-compliance op een blauwe achtergrond
Handleidingen voor het beveiligen van AI

Microsoft-handleidingen voor het beveiligen van door AI aangedreven ondernemingen

Ontvang advies om een solide basis voor AI te leggen, inclusief hoe je AI-applicaties effectief beheert, beveiligt en compliance waarborgt.

Meer informatiebronnen

Iemand werkt op laptop aan een gedeelde werkplek en bekijkt informatie op een smartphone

Microsoft-gegevensbeveiligingsindex

Ontdek hoe generatieve AI de gegevensbeveiliging transformeert.
Een presentator staat op het podium met schermnotities over risico’s begrijpen, juiste controles toepassen, meten en monitoren

Versnel kansen met betrouwbare AI

Luister naar Microsoft-leiders die praktische inzichten delen om vertrouwen in elke fase van je AI-traject te waarborgen.
Een blauw-wit icoon met een envelop en een papier met de tekst Nieuw.

Download CISO Digest

Blijf voorlopen met deskundige inzichten, trends in de sector en beveiligingsonderzoek met deze tweewekelijkse e-mailserie.
  1. [1]
    Gebaseerd op Microsoft first-party telemetrie van agents gebouwd met Microsoft Copilot Studio of Microsoft Agent Builder, die in gebruik waren tijdens de laatste 28 dagen van november 2025.
  2. [2]
    Gebaseerd op Microsoft first-party telemetrie van agents gebouwd met Microsoft Copilot Studio of Microsoft Agent Builder, die in gebruik waren tijdens de laatste 28 dagen van november 2025.
  3. [3]
    Multinationale enquête in juli 2025 onder meer dan 1700 gegevensbeveiligingsprofessionals, uitgevoerd in opdracht van Microsoft door Hypothesis Group
  4. [4]

    Microsoft Gegevensbeveiligingsindex 2026: Gegevensbeveiliging en AI-innovatie samenbrengen, Microsoft Beveiliging, 2026

     

    Methodologie:

     

    Gebaseerd op Microsoft first-party telemetrie van agents gebouwd met Microsoft Copilot Studio of Microsoft Agent Builder, die in gebruik waren tijdens de laatste 28 dagen van november 2025.

     

    Gegevensbeveiligingsindex 2026:

     

    Van 16 juli tot 11 augustus 2025 is een online enquête van 25 minuten gehouden onder 1725 gegevensbeveiligingsleiders uit meerdere landen.

     

    De vragen richtten zich op het gegevensbeveiligingslandschap, incidenten, het beveiligen van het gebruik van GenAI door medewerkers en het inzetten van GenAI in gegevensbeveiligingsprogramma’s, met vergelijkingen ten opzichte van 2024.

     

    Er zijn diepgaande interviews van een uur gehouden met 10 gegevensbeveiligingsleiders in de VS en het VK om inzichten te verzamelen over hun aanpak van gegevensbeveiliging binnen hun organisaties.

     

    Definities:

     

    Actieve Agents zijn 1) ingezet in productie en 2) vertonen enige 'echte activiteit' in de afgelopen 28 dagen.

     

    “Echte activiteit” wordt gedefinieerd als 1+ interactie met een gebruiker (assistent agents) OF 1+ autonome uitvoeringen (autonome agents).

Volg Microsoft Beveiliging