This is the Trace Id: 58d112f7214cc898b8f81c1bb9df479d

 

Cyber Pulse: mākslīgā intelekta drošības atskaite

Nesenie Microsoft pirmās puses telemetrijas dati un pētījumi liecina, ka daudzas organizācijas ievieš AI aģentus. Tagad ir laiks vadītājiem ieviest novērojamību, pārvaldību un drošību.

1. izdevums: Ievads

Frontier organizācijas pārdefinē darba procesu, ļaujot cilvēkiem un aģentiem sadarboties, lai paceltu cilvēka ambīcijas jaunā līmenī. Nesenie Microsoft dati rāda, ka cilvēku un aģentu komandas strauji aug un tiek plaši ieviestas visā pasaulē.

AI aģentu izmantošana pieaug ātrāk, nekā daži uzņēmumi spēj to pārraudzīt, un šis redzamības trūkums rada uzņēmējdarbības risku. Organizācijām steidzami nepieciešama efektīva pārvaldība un drošība, lai droši ieviestu aģentus, veicinātu inovācijas un mazinātu riskus. Tāpat kā cilvēkiem lietotājiem, arī AI aģentiem nepieciešama aizsardzība, izmantojot novērojamību, pārvaldību un stingru drošību, kas balstīta uz nulles uzticamības principiem. Uzņēmumi, kas gūs panākumus nākamajā AI ieviešanas posmā, būs tie, kas ātri rīkosies un apvienos biznesa, IT, drošības un izstrādātāju komandas, lai novērotu, pārvaldītu un nodrošinātu savas AI transformācijas drošību.

Visā Microsoft ekosistēmā klienti tagad veido un izvieto aģentus visās vadošajās platformās — no Fabric un Foundry līdz Copilot Studio un Agent Builder — atspoguļojot plašu pāreju uz AI darbinātu automatizāciju darba plūsmā.

Aģentu izstrāde vairs nav tikai tehnisko speciālistu prerogatīva; mūsdienās darbinieki dažādos amatos veido un izmanto aģentus ikdienas darbā. Microsoft dati liecina , ka vairāk nekā 80% Fortune 500 uzņēmumu izvieto aktīvos aģentus , kas izveidoti ar mazkoda/bezkoda rīkiem.1 Tā kā aģentu izmantošana paplašinās un transformācijas iespējas pieaug, tagad ir īstais laiks ieviest pamatkontroles mehānismus.

Tāpat kā cilvēkiem darbiniekiem, nulles uzticamības pieeja aģentiem ietver tālāk norādīto.
 

  • Minimālo privilēģiju piekļuve: katram lietotājam, AI aģentam vai sistēmai piešķirt tikai nepieciešamo — ne vairāk.

  • Tieša verifikācija: vienmēr apstiprināt, kas pieprasa piekļuvi, izmantojot identitāti, ierīces stāvokli, atrašanās vietu un riska līmeni.

  • Pieņemt apdraudējuma iespēju: izstrādāt sistēmas, pieņemot, ka uzbrucēji var iekļūt.

Grafikā attēlots, ka vairāk nekā 80 % Fortune 500 uzņēmumu izmanto aktīvus zema koda aģentu rīkus, piemēram, Ask Copilot.

AI aģentu strauja izplatība — visos reģionos un nozarēs

Aģentu ieviešana strauji pieaug visos pasaules reģionos — no EMEA līdz Amerikai un Āzijai.2
 Stabiņu diagramma, kas attēlo reģionālo sadalījumu: EMEA 42 %, Amerikas Savienotās Valstis 29 %, Āzija 19 %, Amerikas 10 %.
Microsoft novēro aģentu izaugsmi visās nozarēs. Finanšu pakalpojumi, ražošanas un mazumtirdzniecības nozares ir līderi aģentu ieviešanā. Finanšu pakalpojumi — tostarp banku, kapitāla tirgu un apdrošināšanas nozares — veido aptuveni 11% no visiem aktīvajiem aģentiem pasaulē.2 Ražošana veido 13% no globālās aģentu izmantošanas, kas liecina par plašu ieviešanu rūpnīcās, piegādes ķēdēs un enerģētikas nozarē.2 Mazumtirdzniecība veido 9%, izmantojot aģentus klientu pieredzes, krājumu pārvaldības un priekšlīnijas procesu uzlabošanai.2

Problēma: daļu no šiem aģentiem IT nodaļa ir apstiprinājusi, bet citus — nav apstiprinājusi. Daļa no šiem aģentiem ir droši, bet citi — nav droši.
Pārklājošas aploces, kas ilustrē nozaru sadalījumu: programmatūra un tehnoloģijas 16 %, ražošana 13 %, finanšu pakalpojumi 11 %, mazumtirdzniecība 9 %.

Dubulto aģentu risks

Ātra aģentu izvietošana var apsteigt drošības un atbilstības kontroles mehānismus, palielinot ēnu AI risku. Nelabvēlīgi lietotāji var izmantot aģentu piekļuvi un privilēģijas, pārvēršot tos par nevēlamiem “dubultajiem aģentiem”. Tāpat kā cilvēku darbinieku gadījumā, aģents ar pārmērīgu piekļuvi vai nepareizām instrukcijām var kļūt par ievainojamību.

Draudi, ka dubultie aģenti tiks izmantoti, ja tie netiks pārvaldīti, tiks piešķirtas nepareizas atļaujas vai arī tie tiks manipulēti ar neuzticamu ievadi, nav tikai teorētisks risks. Nesen Microsoft Defender komanda atklāja krāpniecisku kampaņu, kurā vairāki dalībnieki izmantoja AI uzbrukuma paņēmienu “atmiņas indēšana”, lai pastāvīgi manipulētu AI palīgu atmiņu, klusi ietekmējot nākotnes atbildes un vājinot uzticību sistēmas precizitātei.

Neatkarīgā, drošā testēšanas vidē, ko veica Microsoft AI sarkanā komanda, pētnieki dokumentēja, kā aģenti tika maldināti ar viltus interfeisa elementiem, piemēram, izpildot kaitīgas instrukcijas, kas iegultas ikdienas saturā. Sarkanā komanda arī atklāja, kā aģentu spriešana var tikt smalki novirzīta, manipulējot ar uzdevuma formulējumu. Šie atklājumi parāda, kāpēc uzņēmumiem ir ļoti svarīgi pilnībā novērot un pārvaldīt visus aģentus, kas mijiedarbojas ar uzņēmumu, lai kontroles mehānismus varētu centralizēti piemērot un riskus centralizēti pārvaldīt, izmantojot integrētu pieeju.
Saskaņā ar 2025. gada aptauju, 29 % darbinieku izmanto neatļautus mākslīgā intelekta rīkus darba uzdevumu veikšanai.
Saskaņā ar Microsoft Datu drošības indeksutikai 47% organizāciju dažādās nozarēs ziņo, ka tās ievieš specifiskus ģeneratīvā AI drošības kontroles mehānismus,3 uzsverot iespēju organizācijām iegūt skaidru pārredzamību drošai AI ieviešanai. Vēl svarīgāk, saskaņā ar Microsoft pasūtīto Hypothesis Group veikto daudzvalstu aptauju, kurā piedalījās vairāk nekā 1700 datu drošības speciālistu, jau 29% darbinieku darba uzdevumiem izmanto nesankcionētus AI aģentus.4
Sektoru diagramma atklāj, ka tikai 47 % organizāciju ir ieviestas drošības kontroles ģeneratīvā mākslīgā intelekta izmantošanai.

Paātrinoties ieviešanai, cik daudz vadītāju apzinās ar to saistītos pamatriskus? Cik daudz vadītāju patiesi pārrauga savu AI aģentu kopu? Neuzraudzīti vai nepārvaldīti AI aģenti var palielināt riskus uzņēmumā — apdraudot drošību, darbības nepārtrauktību un reputāciju, un par to tieši atbild CISO un augstākā vadība. Šī ir kiberriska dilemmas būtība. AI aģenti sniedz jaunas iespējas darbavietā un kļūst par neatņemamu iekšējo procesu daļu. Tomēr aģentu riskantā uzvedība var pastiprināt iekšējos draudus un radīt jaunus kļūmes scenārijus organizācijām, kas nav gatavas tās pārvaldīt.

 

AI divējādā daba ir skaidra: izcila inovācija kopā ar bezprecedenta riskiem.

Kā maksimāli izmantot savus AI aģentus

Vadošie uzņēmumi izmanto AI vilni, lai modernizētu pārvaldību, samazinātu nevajadzīgu datu atklāšanu un ieviestu uzņēmuma līmeņa kontroli. Tāpat notiek kultūras maiņa: biznesa vadītāji pārvalda AI stratēģiju, bet IT un drošības komandas kļūst par pilnvērtīgiem partneriem novērošanā, pārvaldībā un drošā eksperimentēšanā. Šīm organizācijām AI aģentu nodrošināšana nav ierobežojums — tā ir konkurences priekšrocība, kas balstīta uz attieksmi pret AI aģentiem kā pret cilvēkiem un to pašu nulles uzticamības principu piemērošanu.

Tas sākas ar novērojamību — nevar aizsargāt to, ko neredzi, un nevar pārvaldīt to, ko nesaproti. Novērojamība nozīmē vadības līmeņa nodrošināšanu visos organizācijas līmeņos (IT, drošība, izstrādātāji un AI komandas), lai skaidri saprastu:

  • Kādi aģenti darbojas
     

  • Kam tie pieder
     

  • Kādas sistēmas un dati tiem ir pieejami
     

  • Kā tie uzvedas


 

Novērojamība ietver piecas galvenās jomas:

  • Centralizēts reģistrs kalpo kā vienots patiesības avots visiem organizācijas aģentiem — gan apstiprinātiem, gan trešo pušu, gan jaunajiem ēnu aģentiem. Šī uzskaite palīdz novērst aģentu nekontrolētu izplatīšanos, nodrošina atbildību un atbalsta atklāšanu, vienlaikus ļaujot ierobežot vai ievietot karantīnā nesankcionētus aģentus, kad tas nepieciešams.
  • Katrs aģents tiek pārvaldīts, izmantojot tās pašas identitātes un uz politikām balstītu piekļuves vadību, kas tiek piemērotas cilvēkiem lietotājiem un lietojumprogrammām. Minimālo privilēģiju atļaujas, kas tiek konsekventi piemērotas, nodrošina, ka aģenti var piekļūt tikai tiem datiem, sistēmām un darbplūsmām, kas nepieciešamas to uzdevuma izpildei — ne vairāk, ne mazāk.
  • Reāllaika informācijas paneļi un telemetrija sniedz ieskatu tajā, kā aģenti mijiedarbojas ar cilvēkiem, datiem un sistēmām. Vadītāji redz, kur aģenti darbojas, saprot atkarības un uzrauga uzvedību un ietekmi — tādējādi ātrāk atklājot ļaunprātīgu izmantošanu, novirzes vai jaunus riskus.
  • Aģenti darbojas Microsoft platformās, atvērtā koda ietvaros un trešo pušu ekosistēmās saskaņā ar vienotu pārvaldības modeli. Šī sadarbspēja ļauj aģentiem sadarboties ar cilvēkiem un citiem aģentiem darbplūsmās, vienlaikus saglabājot pārvaldību ar tām pašām uzņēmuma kontrolēm.
  • Iebūvētās aizsardzības pasargā aģentus no iekšējās ļaunprātīgas izmantošanas un ārējiem draudiem. Drošības signāli, politikas īstenošana un integrēti rīki palīdz organizācijām agrīni atklāt apdraudētus vai neatbilstošus aģentus un ātri reaģēt — pirms problēmas pāraug uzņēmējdarbības, regulatīvos vai reputācijas zaudējumos.

Trūkumu novēršana: AI pārvaldības un drošības kontrolsaraksts

Ceļš, kā ierobežot AI riskus, ir skaidrs: pret AI aģentiem jāizturas ar tādu pašu stingrību kā pret jebkuru darbinieku vai programmatūras pakalpojuma kontu. Šeit ir septiņi būtiski punkti jūsu kontrolsarakstam.
  • Dokumentējiet katra aģenta funkciju un piešķiriet tam piekļuvi tikai nepieciešamajiem resursiem. Izvairieties no plašām privilēģijām.
  • Piemērojiet datu aizsardzības noteikumus AI kanāliem. Uzturiet audita žurnālus un skaidri atzīmējiet AI ģenerētu saturu.
  • Piedāvājiet drošas alternatīvas, lai ierobežotu ēnu AI izmantošanu. Bloķējiet nesankcionētas programmas.
  • Atjauniniet darbības nepārtrauktības rokasgrāmatas AI scenārijiem. Veiciet galda simulācijas vingrinājumus un sekojiet novērojamības rādītājiem identitātes, datu un draudu līmeņos.
  • Veidojiet AI pārvaldību un pašregulāciju jau tagad — dokumentējiet apmācības datus, novērtējiet aizspriedumus un nodrošiniet cilvēka pārraudzību juridiskajā, datu un drošības jomā, lai regulatīvā atbilstība būtu integrēta no sākuma, nevis pievienota vēlāk.
  • Paaugstiniet AI risku līdz uzņēmuma līmenim — nosakiet vadības atbildību, izmērāmus KPI un pārredzamību valdes līmenī līdzās finanšu un operacionālajiem riskiem.
  • Apmāciet darbiniekus drošai mākslīgā intelekta lietošanai. Veiciniet caurspīdīgumu un sadarbību.

Organizācijas, kas gūs panākumus ar AI aģentiem, būs tās, kas par prioritāti izvirzīs novērojamību, pārvaldību un drošību. Lai to sasniegtu, nepieciešama cieša sadarbība starp visām komandām un AI aģentu novērojamība visos organizācijas līmeņos: IT speciālisti, drošības komandas, AI komandas un izstrādātāji — visi var tikt pārvaldīti un novēroti, izmantojot vienotu centrālo vadības platformu.

Agent 365 ir Microsoft vienots vadības līmenis AI aģentu pārvaldībai visā organizācijā. Tā nodrošina centralizētu, uzņēmuma līmeņa sistēmu AI aģentu reģistrēšanai, pārvaldībai, aizsardzībai, novērošanai un darbībai — neatkarīgi no tā, vai tie ir veidoti Microsoft platformās, atvērtā koda ietvaros vai trešo pušu sistēmās. Papildinformācija par Microsoft produktiem un pakalpojumiem, kas palīdz nodrošināt AI un aģentu drošību, ir pieejama šeit.
Microsoft drošības resursu kartītes, kas uz zila fona parāda ceļvežus par AI lietojumprogrammām, AI pārvaldību un AI atbilstību
AI drošības ceļveži

Microsoft ceļveži mākslīgā intelekta lieluzņēmuma aizsardzības nodrošināšanā

Saņemiet norādījumus, kas palīdz izveidot stabilu pamatu AI, tostarp ieteikumus AI lietojumprogrammu pārvaldībai, drošībai un atbilstības nodrošināšanai.

Papildu resursi

Persona strādā ar klēpjdatoru pie koplietošanas darbvietas galda, vienlaikus pārbaudot informāciju viedtālrunī

Microsoft datu drošības indekss

Iegūstiet ieskatus par to, kā ģeneratīvais AI pārveido datu drošības jomu.
Prezentētājs, kas stāv uz skatuves ar ekrānā redzamām piezīmēm: riska izpratne, pareizu kontroles mehānismu ieviešana, mērīšana un uzraudzība

Paātriniet iespējas ar uzticamu mākslīgo intelektu

Klausieties Microsoft vadītāju praktiskus ieteikumus, kā ieviest uzticību katrā jūsu AI ceļojuma posmā.
Zils un balts ikonas attēls ar papīru aploksnē un tekstu “Jauns”.

Iegūt CISO ziņojumu īssavilkumu

Esiet soli priekšā ar ekspertu ieskatiem, nozares tendencēm un drošības pētījumiem šajā divreiz mēnesī izsūtītā e-pasta sērijā.
  1. [1]
    Dati balstīti uz Microsoft pirmās puses telemetriju, kas mēra ar Microsoft Copilot Studio vai Microsoft Agent Builder izveidotus aģentus, kas tika izmantoti 2025. gada novembra pēdējās 28 dienās.
  2. [2]
    Nozares un reģionālie aģentu rādītāji balstīti uz Microsoft pirmās puses telemetriju, kas mēra ar Microsoft Copilot Studio vai Microsoft Agent Builder izveidotus aģentus, kas tika izmantoti 2025. gada novembra pēdējās 28 dienās.
  3. [3]
    2025. gada jūlijā Microsoft veikta daudzvalstu aptauja, kurā piedalījās vairāk nekā 1700 datu drošības speciālistu, ko Microsoft pasūtīja Hypothesis Group
  4. [4]

    2026. gada Microsoft datu drošības indekss: datu aizsardzības un AI inovāciju apvienošana, Microsoft drošība, 2026

     

    Metodoloģija:

     

    Nozares un reģionālie aģentu rādītāji balstīti uz Microsoft pirmās puses telemetriju, kas mēra ar Microsoft Copilot Studio vai Microsoft Agent Builder izveidotus aģentus, kas tika izmantoti 2025. gada novembra pēdējās 28 dienās.

     

    2026. gada datu drošības indekss:

     

    No 2025. gada 16. jūlija līdz 11. augustam tika veikta 25 minūšu daudzvalstu tiešsaistes aptauja, kurā piedalījās 1725 datu drošības vadītāji.

     

    Aptaujas jautājumi koncentrējās uz datu drošības ainavu, datu drošības incidentiem, darbinieku ģeneratīvā AI drošības nodrošināšanu un ģeneratīvā AI izmantošanu datu drošības programmās, lai salīdzinātu ar 2024. gadu.

     

    Tika veiktas stundu garas padziļinātas intervijas ar 10 datu drošības vadītājiem ASV un Apvienotajā Karalistē, lai iegūtu stāstus par to, kā viņi savās organizācijās risina datu drošības jautājumus.

     

    Definīcijas:

     

    Aktīvie aģenti ir 1) izvietoti ražošanas vidē un 2) pēdējo 28 dienu laikā ar tiem ir saistīta kāda “reāla darbība”.

     

    “Reāla darbība” tiek definēta kā vismaz viena mijiedarbība ar lietotāju (palīdzības aģenti) VAI vismaz viena autonomā darbība (autonomie aģenti).

Sekot Microsoft drošībai