This is the Trace Id: f6b07ee57bde2a2ef15ce7bc0d3b8588

 

Cyber Pulse: Zostava o zabezpečení AI

Najnovšie telemetrické údaje a výskum spoločnosti Microsoft potvrdzujú, že mnohé organizácie aktívne prijímajú AI agentov. Teraz je čas, aby lídri zaviedli pozorovateľnosť, riadenie a zabezpečenie.

Požiadavka 1: Úvod

Priekopnícke organizácie menia spôsob práce, kde ľudia a agenti spolupracujú bok po boku, aby posunuli ľudské ambície na novú úroveň. Nedávne údaje spoločnosti Microsoft ukazujú, že tímy ľudí a agentov rýchlo rastú a sú prijímané globálne.

AI agenti sa rozširujú rýchlejšie, než ich mnohé spoločnosti dokážu sledovať, čo predstavuje významné obchodné riziko. Organizácie naliehavo potrebujú efektívne riadenie a zabezpečenie, aby mohli bezpečne prijať agentov, podporovať inovácie a minimalizovať riziká. Ako ľudskí používatelia, tak aj AI agenti vyžadujú ochranu prostredníctvom pozorovateľnosti, riadenia a silného zabezpečenia pomocou princípov modelu Nulová dôvera (Zero Trust). Podniky úspešné v ďalšej fáze prijatia AI budú tie, ktoré rýchlo spoja obchodné, IT, bezpečnostné a vývojárske tímy na sledovanie, riadenie a zabezpečenie svojej transformácie AI.

V celom ekosystéme spoločnosti Microsoft zákazníci vytvárajú a nasadzujú agentov na všetkých hlavných platformách – od platforiem Fabric a Foundry až po Copilot Studio a zostavovač agentov – čo odráža široký posun k automatizácii pracovných postupov založenej na umelej inteligencii.

Zostavovanie agentov už nie je výsadou len technických tímov; dnes zamestnanci na rôznych pozíciách aktívne vytvárajú a využívajú agentov v každodennej práci. Údaje spoločnosti Microsoft v skutočnosti ukazujú, že viac ako 80 % spoločností z rebríčka Fortune 500 nasadzuje aktívnych agentov zostavených pomocou nástrojov s malým množstvom napísaného kódu/bez písania kódu.1 Vzhľadom na rozširujúce sa používanie agentov a znásobovanie transformačných príležitostí nastal čas zaviesť základné kontroly.

Rovnako ako pre ľudských zamestnancov, aj pre agentov Nulová dôvera (Zero Trust) znamená toto:
 

  • Prístup s najmenšími oprávneniami: Poskytnite každému používateľovi, AI agentovi alebo systému len to nevyhnutné – nič viac.

  • Explicitné overenie: Vždy overte, kto alebo čo žiada o prístup, na základe identity, stavu zariadenia, polohy a úrovne rizika.

  • Predpokladajte možnosť zneužitia: Navrhujte systémy s očakávaním, že útočníci do nich preniknú.

Grafika ukazuje, že viac než 80 % spoločností z rebríčka Fortune 500 aktívne využíva nástroje s nízkym kódom a riešenie Ask Copilot.

AI agenti sa rýchlo rozširujú – vo všetkých oblastiach a odvetviach

Prijatie agentov sa zrýchľuje vo všetkých oblastiach sveta – od EMEA po Severnú a Južnú Ameriku a Áziu.2
 Stĺpcový graf zobrazuje regionálne rozdelenie: EMEA 42 %, Spojené štáty 29 %, Ázia 19 % a Amerika 10 %.
Spoločnosť Microsoft zaznamenáva nárast agentov vo všetkých odvetviach. Finančné služby, výroba a maloobchod vedú v prijímaní agentov. Finančné služby – vrátane bankovníctva, kapitálových trhov a poisťovníctva – v súčasnosti predstavujú približne 11 % všetkých aktívnych agentov na celom svete.2 Výroba sa podieľa na 13 % globálneho využívania agentov, čo svedčí o ich širokom využití v továrňach, dodávateľských reťazcoch a energetických prevádzkach.2 Maloobchod predstavuje 9 %, pričom agenti sa používajú na zlepšenie zákazníckej skúsenosti, riadenia zásob a procesov prvého kontaktu.2

Háčik: niektorí z týchto agentov sú schválení IT oddelením – iní nie. Niektorí z týchto agentov sú bezpeční – iní nie.
Prekrývajúce sa kruhy znázorňujú rozdelenie odvetví: softvér a technológie 16 %, výroba 13 %, finančné služby 11 % a maloobchod 9 %.

Riziko dvojitých agentov

Rýchle nasadenie agentov môže predbehnúť kontroly zabezpečenia a súladu, čím sa zvyšuje riziko tieňovej AI. Útočníci môžu zneužiť prístup a oprávnenia agentov a zmeniť ich na neúmyselných „dvojitých agentov“. Rovnako ako ľudskí zamestnanci, aj agent s nadmerným prístupom alebo nesprávnymi pokynmi môže predstavovať vážne riziko.

Hrozba zneužitia dvojitých agentov, ak zostanú nespravovaní, majú nesprávne povolenia alebo sú manipulovaní nedôveryhodným vstupom, nie je len teoretickým rizikom. Tím Defender spoločnosti Microsoft nedávno identifikoval podvodnú kampaň s viacerými aktérmi, ktorí využívali techniku ​​útoku AI, ktorá je známa ako „memory poisoning” (otrava pamäte) na trvalú manipuláciu s pamäťou AI asistentov, čím potichu riadili budúce reakcie a oslabovali dôveru v presnosť systému.

nezávislom a zabezpečenom testovacom výskume, ktorý vedie AI Red Team, vlastný tím spoločnosti Microsoft, výskumníci zdokumentovali, ako boli agenti oklamaní zavádzajúcimi prvkami rozhrania, napríklad vykonávaním škodlivých pokynov skrytých v každodennom obsahu. Red Team tiež zistil, ako sa dá uvažovanie agentov nenápadne presmerovať prostredníctvom manipulovaného rámcovania úloh. Tieto zistenia ilustrujú, prečo je pre podniky nevyhnutná úplná pozorovateľnosť a správa všetkých agentov, ktorí prichádzajú do kontaktu s ich podnikom, aby mohli centrálne uplatňovať kontroly a centrálne riadiť riziká v integrovanom prístupe.
Podľa prieskumu z roku 2025 využíva 29 % zamestnancov na pracovné úlohy nepovolených AI agentov.
Podľa indexu zabezpečenia údajov spoločnosti Microsoft iba 47 % organizácií v rôznych odvetviach uvádza, že implementujú špecifické bezpečnostné kontroly GenAI3, čo zdôrazňuje príležitosť pre organizácie získať jasný prehľad potrebný pre bezpečné prijatie AI. Ešte dôležitejšie je, že podľa medzinárodného prieskumu viac ako 1700 odborníkov na zabezpečenie údajov, ktorý si objednala spoločnosť Microsoft od spoločnosti Hypothesis Group, už 29 % zamestnancov používa neschválených AI agentov na pracovné úlohy.4
Koláčový graf odhaľuje, že len 47 % organizácií má zavedené bezpečnostné opatrenia pre využívanie generatívnej umelej inteligencie.

Koľko lídrov si uvedomuje skryté riziká pri zrýchľovaní prijatia? Koľko lídrov má skutočný prehľad o svojej populácii agentov? AI agenti, ktorí sú bez dohľadu alebo sú nespravovaní, môžu v podniku znásobiť riziká a ohrozovať zabezpečenie, kontinuitu prevádzky a reputáciu, pričom zodpovednosť padá priamo na CISO a vrcholový manažment. Toto je jadro dilemy kybernetického rizika. AI agenti prinášajú do pracovného prostredia nové príležitosti a stávajú sa neoddeliteľnou súčasťou interných operácií. Rizikové správanie agentov však môže zosilniť hrozby zvnútra a vytvoriť nové spôsoby zlyhania pre organizácie, ktoré nie sú pripravené ich spravovať.

 

Dvojitá povaha AI je tu: výnimočná inovácia sprevádzaná bezprecedentnými rizikami.

Využívanie AI agentov na maximum

Priekopnícke spoločnosti využívajú vlnu AI na modernizáciu riadenia, zníženie zbytočnej miery rizika pre údaje a zavedenie kontrol v celom podniku. S tým prichádza aj kultúrna zmena: vedúci pracovníci síce môžu niesť zodpovednosť za stratégiu AI, no IT a bezpečnostné tímy sú dnes rovnocennými partnermi v oblasti pozorovateľnosti, riadenia a bezpečného experimentovania. Pre tieto organizácie nie je zabezpečenie agentov obmedzením, ale konkurenčnou výhodou založenou na prístupe, ktorý AI agentov vníma ako ľudí a používa rovnaké princípy modelu Nulová dôvera (Zero Trust).

Všetko začína pozorovateľnosťou – nemôžete chrániť to, čo nevidíte, a nemôžete riadiť to, čomu nerozumiete. Pozorovateľnosť znamená mať riadiacu časť zabezpečenia na všetkých úrovniach organizácie (IT, zabezpečenie, vývojári a AI tímy) na vysvetlenie:

  • akí agenti existujú,
     

  • kto je za nich zodpovedný,
     

  • s akými systémami a údajmi prichádzajú do kontaktu,
     

  • ako sa správajú.


 

Pozorovateľnosť zahŕňa päť kľúčových oblastí:

  • Centralizovaný register slúži ako jediný zdroj pravdy pre všetkých agentov v celej organizácii – schválených agentov, agentov tretích strán aj vznikajúcich tieňových agentov. Tento prehľad pomáha predchádzať nekontrolovanému rozširovaniu agentov, zvyšuje zodpovednosť a podporuje ich zisťovanie, pričom umožňuje obmedziť alebo izolovať neschválených agentov podľa potreby.
  • Každý agent je riadený rovnakými prístupovými kontrolami založenými na identite a politikách, ktoré sa používajú aj na ľudských používateľov a aplikácie. Dôsledné uplatňovanie povolení s minimálnymi oprávneniami zabezpečuje, že agenti majú prístup len k tým údajom, systémom a pracovným postupom, ktoré potrebujú na plnenie svojich úloh – nič viac, nič menej.
  • Tabule a telemetrické údaje v reálnom čase poskytujú prehľad o tom, ako agenti interagujú s ľuďmi, údajmi a systémami. Vedúci pracovníci tak môžu sledovať, kde agenti pôsobia, pochopiť závislosti a monitorovať správanie a vplyv – čo podporuje rýchlejšie odhaľovanie zneužitia, odchýlok alebo nových rizík.
  • Agenti fungujú na platformách spoločnosti Microsoft, open-source rámcoch a ekosystémoch tretích strán pod konzistentným modelom riadenia. Táto interoperabilita umožňuje agentom spolupracovať s ľuďmi a inými agentmi v rámci pracovných postupov, pričom zostávajú spravovaní v rámci rovnakých podnikových kontrol.
  • Vstavané ochrany zabezpečujú agentov pred vnútorným zneužitím aj vonkajšími hrozbami. Bezpečnostné signály, presadzovanie politík a integrované nástroje pomáhajú organizáciám včas odhaliť zneužitých alebo nesprávne nastavených agentov a rýchlo reagovať – ešte predtým, než problémy prerastú do obchodných, regulačných alebo reputačných škôd.

Uzavretie prázdneho miesta: kontrolný zoznam riadenia a zabezpečenia AI

Cesta k zvládnutiu rizík AI je jasná: zaobchádzajte s AI agentmi rovnako prísne ako s každým zamestnancom alebo softvérovým kontom služby. Tu je sedem kľúčových bodov kontrolného zoznamu.
  • Zdokumentujte účel každého agenta a poskytnite im prístup len k nevyhnutným zdrojom. Bez širokých oprávnení.
  • Použite pravidlá ochrany údajov na kanály AI. Uchovávajte audítorské záznamy a označujte obsah vygenerovaný pomocou AI.
  • Ponúkajte zabezpečené alternatívy na obmedzenie tieňovej AI. Zablokujte nepovolené aplikácie.
  • Aktualizujte štandardizované postupy obchodnej kontinuity na scenáre AI. Vykonávajte simulované cvičenia a sledujte metriky pozorovateľnosti v rámci rovín identity, údajov a hrozieb.
  • Budujte riadenie AI a samoreguláciu už dnes – dokumentujte údaje o trénovaní, vyhodnocujte zaujatosti a zavádzajte ľudský dohľad v oblasti právnych záležitostí, údajov a zabezpečenia, aby bol súlad s regulačnými nariadeniami integrovaný od začiatku, nie dodatočne.
  • Zvýšte riadenie rizík AI na úroveň celej organizácie – stanovte zodpovednosť vedenia, merateľné kľúčové ukazovatele výkonu a zabezpečte viditeľnosť na úrovni predstavenstva spolu s finančnými a prevádzkovými rizikami.
  • Škoľte zamestnancov v bezpečnom používaní AI. Podporujte transparentnosť a spoluprácu.

Organizácie, ktoré uspejú s AI agentmi, budú tie, ktoré kladú dôraz na pozorovateľnosť, riadenie a zabezpečenie. Dosiahnutie tohto cieľa si vyžaduje spoluprácu všetkých tímov a pozorovateľnosť AI agentov na všetkých úrovniach organizácie – od IT odborníkov, bezpečnostných tímov, AI špecialistov až po vývojárov, pričom všetko je možné riadiť a pozorovať cez zjednotenú centrálnu riadiacu platformu.

Agent 365 je zjednotená riadiaca časť zabezpečenia spoločnosti Microsoft na správu AI agentov v celej organizácii. Poskytuje centralizovaný, podnikový systém na registráciu, riadenie, zabezpečenie, pozorovanie a prevádzku AI agentov – či už sú postavení na platformách spoločnosti Microsoft, open source rámcoch, alebo systémoch tretích strán. Ďalšie informácie o produktoch a službách Microsoft, ktoré pomáhajú zabezpečiť AI a agentov, nájdete tu.
Karty zdrojov zabezpečenia od spoločnosti Microsoft zobrazujú príručky pre aplikácie AI, riadenie AI a súlad AI na modrom pozadí
Príručky k zabezpečeniu AI

Príručky od spoločnosti Microsoft pre zabezpečenie veľkých organizácií využívajúcich umelú inteligenciu

Získajte odporúčania na vybudovanie pevného základu pre AI vrátane riadenia a zabezpečenia aplikácií AI a udržania súladu.

Ďalšie zdroje informácií

Osoba pracuje na prenosnom počítači v zdieľanom pracovnom priestore a kontroluje informácie na smartfóne

Index zabezpečenia údajov spoločnosti Microsoft

Získajte prehľad o tom, ako generatívna AI mení zabezpečenie údajov.
Prezentujúci stojí na pódiu s poznámkami na obrazovke o vysvetlení rizík, zavádzaní správnych kontrol, meraní a monitorovaní

Rýchlo využite príležitosti vďaka dôveryhodnej AI

Vypočujte si vedúcich pracovníkov spoločnosti Microsoft, ako hovoria o svojich praktických spôsoboch budovania dôvery v každej fáze cesty AI.
Modro-biela ikona zobrazujúca papier v obálke s textom Nové.

Získať prehľad pre hlavných manažérov informačnej bezpečnosti

Udržte si náskok s odbornými poznatkami, trendmi v odvetví a výskumom zabezpečenia v tejto dvojmesačnej e-mailovej sérii.
  1. [1]
    Na základe telemetrie prvej strany spoločnosti Microsoft merajúcej agentov vytvorených pomocou Microsoft Copilot Studia alebo Microsoft Zostavovača agentov, ktorí boli aktívni počas posledných 28 dní v rámci novembra 2025.
  2. [2]
    Metriky agentov podľa odvetvia a oblasti boli vytvorené pomocou telemetrie prvej strany spoločnosti Microsoft merajúcej agentov vytvorených pomocou Microsoft Copilot Studia alebo Microsoft Zostavovača agentov, ktorí boli aktívni počas posledných 28 dní v rámci novembra 2025.
  3. [3]
    Medzinárodný prieskum z júla 2025 viac ako 1 700 odborníkov na zabezpečenie údajov, ktorý si objednala spoločnosť Microsoft od spoločnosti Hypothesis Group
  4. [4]

    Index zabezpečenia údajov spoločnosti Microsoft 2026: Zjednotenie ochrany údajov a inovácií AI, zabezpečenie od spoločnosti Microsoft, 2026

     

    Metodika:

     

    Metriky agentov podľa odvetvia a oblasti boli vytvorené pomocou telemetrie prvej strany spoločnosti Microsoft merajúcej agentov vytvorených pomocou Microsoft Copilot Studia alebo Microsoft Zostavovača agentov, ktorí boli aktívni počas posledných 28 dní v rámci novembra 2025.

     

    Index zabezpečenia údajov 2026:

     

    Medzinárodný online prieskum trvajúci 25 minút sa uskutočnil od 16. júla do 11. augusta 2025 medzi 1 725 vedúcimi pracovníkmi v oblasti zabezpečenia údajov.

     

    Otázky boli zamerané na zabezpečenie údajov, incidenty zabezpečenia údajov, zabezpečenie používania GenAI zamestnancami a používanie GenAI v programoch zabezpečenia údajov na porovnanie s rokom 2024.

     

    Hĺbkové hodinové rozhovory boli vedené s 10 vedúcimi pracovníkmi v oblasti zabezpečenia údajov v USA a Spojenom kráľovstve a priniesli pohľad na ich prístup k zabezpečeniu údajov v organizáciách.

     

    Definície:

     

    Aktívni agenti sú 1) nasadení do produkcie a 2) preukázali počas posledných 28 dní „skutočnú aktivitu“.

     

    „Skutočná aktivita“ je definovaná ako aspoň jedna interakcia s používateľom (asistujúci agenti) ALEBO aspoň jedno autonómne spustenie (autonómni agenti).

Sledujte zabezpečenie od spoločnosti Microsoft