This is the Trace Id: 7b843158fa02d1e628ea671844499be9

Deltag i RSAC's ledelsespanel den 24. marts med temaet "AI-agenter er her! Er du klar?".

Tilmeld dig nu

Microsofts vejledning til beskyttelse af den AI-drevne virksomhed

baggrundsbillede

Kom godt i gang med AI-programmer

Kunstig intelligens (AI) transformerer virksomhedsdrift ved at åbne op for innovation og introducerer samtidig nye risici. Fra skygge-AI (værktøjer på forbrugerniveau, der er taget i brug uden tilsyn) til prompt-injicerede angreb – og lovgivning under udvikling såsom EU AI Act – organisationer skal håndtere disse udfordringer for at bruge AI sikkert.

Denne guide dækker de risici, som er forbundet med AI: udfordringer med datalækage, nyopståede trusler og overholdelse samt de unikke risici ved agentisk AI. Den tilbyder også vejledning og praktiske skridt, du kan tage, baseret på strukturen for ibrugtagning af AI. Du kan få dybere indsigt og handlingsrettede trin ved at downloade guiden.

AI ændrer alt – men kun hvis du kan bruge det sikkert. Lad os komme i gang.

De tre største risici inden for AI-sikkerhed


Når organisationer tager AI i brug, skal ledere håndtere tre grundlæggende udfordringer:
  • 80 % af ledere nævner datalækage som en af de største bekymringer. 1
    Skygge-AI-værktøjer – brugt uden it-godkendelse – kan eksponere følsomme oplysninger, hvilket øger risikoen for brud.
  • 88 % af organisationer bekymrer sig om manipulation af AI-systemer udført af ondsindede aktører.2
    Angreb som prompt-injicering udnytter sårbarheder i AI-systemer, hvilket sætter fokus på behovet for proaktive forsvar.
  • 52 % af ledere føler sig usikre i forhold til at navigere i AI-lovgivning.3
    Det er afgørende vedvarende at overholde love som EU AI Act for at skabe tillid og bevare momentum for innovation.

Agentbaseret AI: Vigtige risici, og hvordan du håndterer dem

Agentisk AI er potentielt transformerende, men dets autonomi introducerer unikke sikkerhedsudfordringer, der kræver proaktiv risikostyring. Nedenfor finder du de vigtigste risici og strategier, som er skræddersyet til at håndtere dem:

Hallucinationer og utilsigtede resultater

Agentiske AI-systemer kan producere unøjagtige, forældede eller uoverensstemmende resultater, hvilket kan føre til driftsforstyrrelser eller dårlige beslutninger.

For at mindske disse risici bør organisationer implementere strenge overvågningsprocesser for at gennemgå AI-genererede resultater i forhold til nøjagtighed og relevans. Regelmæssig opdatering af træningsdata sikrer overensstemmelse med aktuel information, mens eskaleringsveje for komplekse sager muliggør menneskelig indgriben, når det er nødvendigt. Menneskelig overvågning forbliver afgørende i forhold til at opretholde pålidelighed og tillid i AI-drevet drift.

Overafhængighed af AI-beslutninger

Blind tillid til agentiske AI-systemer kan føre til sårbarheder, når brugere handler på fejlbehæftede resultater uden validering.

Organisationer bør etablere politikker, der kræver menneskelig gennemgang af beslutninger med høj risiko, som er påvirket af AI. Uddannelse af medarbejdere om AI-begrænsninger fremmer informeret skepsis, hvilket reducerer sandsynligheden for fejl. Kombination af AI-indsigt med menneskelig dømmekraft gennem lagdelte beslutningsprocesser styrker den samlede modstandsdygtighed og forhindrer overafhængighed.

Nye angrebsvektorer

Autonomien og tilpasningsevnen ved agentisk AI skaber muligheder for angribere til at udnytte sårbarheder, hvilket introducerer både driftsmæssige og systemiske risici.

Driftsmæssige risici omfatter manipulation af AI-systemer for at udføre skadelige handlinger, f.eks. uautoriserede opgaver eller phishing-forsøg. Organisationer kan reducere disse risici ved at implementere robuste sikkerhedsforanstaltninger, herunder registrering af uregelmæssigheder i realtid, kryptering og strenge adgangskontroller.
Systemiske risici opstår, når kompromitterede agenter forstyrrer internt forbundne systemer, hvilket forårsager kaskader af fejl. Fejlsikre mekanismer, protokoller for redundans og regelmæssig overvågning – tilpasset til cybersikkerhedsstrukturer såsom NIST – medvirker til at minimere disse trusler og styrker forsvar mod fjendtlige angreb.

Ansvar

Agentisk AI fungerer ofte uden direkte menneskelig overvågning, hvilket rejser komplekse spørgsmål om ansvar for fejl.

Organisationer bør definere klare rammer for ansvar, der specificerer hvilke roller, der har ansvaret for AI-relaterede resultater. Gennemsigtig dokumentation af processer til AI-beslutningstagen understøtter fejlfinding og ansvarstildeling. Samarbejde med juridiske teams sikrer overholdelse af regler, mens vedtagelse af etiske standarder for AI-styring opbygger tillid og reducerer omdømmerisici.

Kom godt i gang med en faseopdelt tilgang

Med nye AI-innovationer som agenter skal organisationer etablere et solidt fundament baseret på Zero Trust-principperne – "hav aldrig tillid, bekræft altid". Denne tilgang hjælper med at sikre, at hver interaktion er godkendt, bekræftet og kontinuerligt overvåget. Selvom det tager tid at opnå Zero Trust, muliggør en faseopdelt strategi stabil fremgang og opbygger tillid til sikkert at integrere AI.

 

Microsofts struktur for ibrugtagning af kunstig intelligens fokuserer på tre centrale faser: Styr AI, Administrer AI og Beskyt AI.

Ved at håndtere disse områder kan organisationer lægge grundlaget for ansvarlig AI-brug, samtidig med at de reducerer kritiske risici.

For at få succes skal man prioritere mennesker ved at træne medarbejdere til at genkende AI-risici og bruge godkendte værktøjer sikkert. Frem samarbejdet mellem it-, sikkerheds- og forretningsteams for at sikre en samlet tilgang. Øg gennemsigtigheden ved åbent at kommunikere dine AI-sikkerhedsinitiativer for at opbygge tillid og demonstrere lederskab.

Med den rette strategi, forankret i Zero Trust-principper, kan du reducere risici, muliggøre innovation og navigere sikkert i det foranderlige AI-landskab.

Mere som dette

Bogomslag med titlen Microsoft Security Strategies for AI Compliance og en illustration af en mand og en kvinde, der ser på en bærbar computer.
5 minutter

Microsofts guide til beskyttelse af AI-drevne virksomheder: Strategier for AI-overholdelse

En mand, der ser på en tablet i sin hånd.
3 minutter

Mere værdi, mindre risiko: Sådan implementerer du generativ AI sikkert og ansvarligt på tværs af organisationen

En hvid stregtegning af et brev i en kuvert med teksten "Ny" på en blå baggrund.

Hent CISO Digest

Hold dig på forkant med ekspertviden, branchetendenser og sikkerhedsforskning i denne halvårlige mailserie.

Følg Microsoft Security