This is the Trace Id: 9d60bb5e47552e81dbe44f402f9abec3

 

Cyber Pulse: studie zabezpečení AI

Aktuální telemetrie a výzkum Microsoftu potvrzují, že řada organizací začíná využívat agenty AI. Právě teď by lídři měli začít zavádět pozorovatelnost, řízení a zabezpečení.

1. číslo: Úvod

Průkopnické organizace přicházejí s novými způsoby práce, kde lidé a agenti spolupracují bok po boku a posouvají lidské ambice na novou úroveň. Nedávná data Microsoftu ukazují, že týmy lidí a agentů se rychle rozvíjejí a jsou nasazovány na globální úrovni.

AI agenti škálují rychleji, než je mnohé firmy dokážou sledovat, což představuje významné obchodní riziko. Organizace naléhavě potřebují efektivní řízení a zabezpečení, aby mohly agenty bezpečně nasadit, podpořit inovace a minimalizovat rizika. Stejně jako lidé vyžadují i agenti AI ochranu prostřednictvím pozorovatelnosti, řízení a robustního zabezpečení založeného na principech nulové důvěry (Zero Trust). Podniky, které uspějí v další fázi nasazování AI, budou ty, které dokážou rychle jednat a propojovat obchodní, IT, bezpečnostní a vývojářské týmy s cílem pozorovat, řídit a zabezpečit AI transformaci.

V celém ekosystému Microsoftu zákazníci nyní vytvářejí a nasazují agenty na všech hlavních platformách – od Fabric a Foundry po Copilot Studio a Tvůrce agentů – což odráží široký posun k automatizaci pracovních procesů využívající umělou inteligenci.

Vytváření agentů už není jen výsadou technických specialistů. Dnes je běžné, že zaměstnanci na různých pozicích vytvářejí a využívají agenty v každodenní práci. Data Microsoftu ukazují, , že víc než 80 % společností z žebříčku Fortune 500 nasazuje aktivní agenty vytvořené pomocí nástrojů s minimálním psaním kódu či bez psaní kódu.1 S rostoucím využitím agentů a násobícími se příležitostmi k transformaci je teď nezbytné zavést základní kontrolní mechanismy.

Stejně jako u lidských zaměstnanců znamená princip nulové důvěry (Zero Trust) pro agenty:
 

  • Princip nejmenších oprávnění: Poskytněte každému uživateli, agentovi AI či systému jen nezbytný přístup – nic navíc.

  • Explicitní ověření: Vždy ověřte, kdo nebo co žádá o přístup, na základě identity, stavu zařízení, lokace a úrovně rizika.

  • Předpokládejte možnost kompromitace: Navrhujte systémy s vědomím, že útočníci mohou proniknout dovnitř.

Grafika ukazuje, že více než 80 % společností z žebříčku Fortune 500 využívá aktivní nástroje low-code agentů Ask Copilot.

Agenti AI rychle škálují napříč všemi regiony a odvětvími

Nasazování agentů zrychluje ve všech regionech světa – od EMEA přes Ameriku až po Asii.2
 Sloupcový graf znázorňuje regionální rozdělení: EMEA 42 %, Spojené státy 29 %, Asie 19 % a Amerika 10 %.
Microsoft zaznamenává růst agentů ve všech průmyslových odvětvích. Finanční služby, výroba a maloobchod vedou v míře nasazování agentů. Finanční služby – včetně bankovnictví, kapitálových trhů a pojišťovnictví – nyní představují přibližně 11 % všech aktivních agentů na světě.2 Výroba představuje 13 % globálního využití agentů, což dokládá široké nasazování ve výrobních závodech, dodavatelských řetězcích a energetice.2 Maloobchod představuje 9 %, přičemž agenti pomáhají zlepšovat zákaznickou zkušenost, řízení zásob a procesy v první linii.2

Problém: někteří z těchto agentů jsou schválení IT, jiní nikoliv. Někteří z těchto agentů jsou bezpeční, jiné nikoliv.
Překrývající se kruhy znázorňující rozložení odvětví: software a technologie 16 %, výroba 13 %, finanční služby 11 %, maloobchod 9 %.

Riziko dvojitých agentů

Rychlé nasazení agentů může předběhnout bezpečnostní kontroly a kontroly dodržování předpisů, čímž roste riziko stínové AI. Škodliví aktéři mohou zneužít přístup a oprávnění agentů a proměnit je v nechtěné „dvojité agenty“. Stejně jako u lidí může agent s neúměrně volným přístupem nebo nesprávnými instrukcemi představovat bezpečnostní riziko.

Hrozba zneužití dvojitých agentů, pokud nejsou správně spravováni, mají nesprávná oprávnění nebo jsou pod vlivem nedůvěryhodných instrukcí, není jen teoretickým rizikem. Nedávno tým Microsoft Defenderu odhalil podvodnou kampaň, při níž více aktérů využilo techniku útoku na AI známou jako „memory poisoning“ k soustavné manipulaci paměti agentů AI a tichému ovlivňování budoucích odpovědí, což vedlo k oslabení důvěry v přesnost systému.

V nezávislém a bezpečném testovacím výzkumu provedeném interním týmem AI Red Teamspolečnosti Microsoft výzkumníci zdokumentovali, jak se agenti nechali oklamat zavádějícími prvky rozhraní, například škodlivými instrukcemi skrytými v běžném obsahu. Red Team také zjistil, že argumentaci agentů lze nenápadně ovlivňovat úpravou formulací zadání. Z těchto poznatků vyplývá, že pro podniky je zásadní, aby všichni agenti zasahující do jejich prostředí podléhali zásadám pozorovatelnosti a plnému řízení, aby bylo možné centrálně prosazovat kontrolní mechanismy a integrovaně řídit rizika.
Podle průzkumu z roku 2025 využívá 29 % zaměstnanců při plnění pracovních úkolů neschválené AI agenty.
Podle indexu Data Security Index společnosti Microsoft uvádí jen 47 % organizací napříč odvětvími, že zavádějí specifická bezpečnostní opatření pro GenAI,3 což představuje příležitost pro firmy získat dobrý přehled, nezbytný pro bezpečné nasazení AI. Ještě důležitější je, že podle mezinárodního průzkumu mezi více než 1 700 odborníky na bezpečnost dat, který Microsoft zadal skupině Hypothesis Group, už 29 % zaměstnanců využívá pro pracovní úkoly neschválené agenty AI.4
Koláčový graf ukazuje, že jen 47 % organizací má zavedená bezpečnostní opatření pro využívání generativní umělé inteligence.

Kolik lídrů si uvědomuje rizika spojená s rychlým rozšiřováním AI? Kolik lídrů má skutečný přehled o počtu a typu agentů AI používaných v jejich organizaci? Agenti AI nepodléhající sledování nebo řízení můžou v podniku výrazně zvýšit rizika – ohrožují bezpečnost, kontinuitu podnikání i reputaci, a to přímo dopadá na odpovědnost CISO a vrcholového vedení. To je základní dilema kybernetických rizik. Agenti AI přinášejí do pracovního prostředí nové příležitosti a stávají se neoddělitelnou součástí interních procesů. Jejich rizikové chování však může v organizacích, které nejsou připraveny je efektivně řídit, zesílit vnitřní hrozby a přivodit selhání nového typu.

 

Máme co do činění s dvojí tváří AI: mimořádná inovace spojená s bezprecedentními riziky.

Jak maximálně využít potenciál svých agentů AI

Průkopnické firmy využívají vlnu AI k modernizaci řízení, omezení zbytečného odhalování dat a zavádění podnikových kontrol napříč celou organizací. Současně přichází i kulturní posun: obchodní lídři sice vedou strategii spojenou s AI, ale IT a bezpečnostní týmy jsou nyní klíčovými partnery v oblasti pozorovatelnosti, řízení a bezpečného experimentování. Pro tyto organizace není zabezpečení agentů AI omezením, ale konkurenční výhodou založenou na přístupu, který agenty vnímá jako lidské uživatele a aplikuje na ně stejné principy nulové důvěry.

Na začátku je vždy pozorovatelnost – nelze chránit to, co nevidíte, a nelze řídit to, čemu nerozumíte. Pozorovatelnost vyžaduje jednotnou řídicí platformu napříč všemi úrovněmi organizace (IT, zabezpečení, vývojáři a AI týmy), která umožňuje pochopit:

  • Jací agenti v organizaci existují
     

  • Kdo je vlastní
     

  • Které systémy a data ovlivňují
     

  • Jak se chovají


 

Pozorovatelnost zahrnuje pět klíčových oblastí:

  • Centralizovaný registr slouží jako jediný správný zdroj pro všechny agenty v organizaci – schválené, agenty třetích stran i vznikající stínové agenty. Tento registr pomáhá zabránit nekontrolovanému šíření agentů, zajišťuje odpovědnost a podporuje jejich identifikaci, přičemž umožňuje omezit nebo izolovat neschválené agenty, kdykoli je to potřeba.
  • Každý agent je řízen stejnými přístupovými kontrolami založenými na identitě a zásadách jako lidští uživatelé a aplikace. Důsledně uplatňované pravidlo nejmenších oprávnění zajišťuje, že agenti mají přístup pouze k datům, systémům a pracovním postupům nezbytným pro plnění jejich úkolu – nic víc, nic míň.
  • Přehledy v reálném čase a telemetrie poskytují detailní pohled na to, jak agenti interagují s lidmi, daty a systémy. Vedení tak může sledovat, kde agenti působí, rozumět jejich závislostem a monitorovat jejich chování a dopad – což umožňuje rychlejší odhalování zneužití, odchylek či nových rizik.
  • Agenti fungují na platformách Microsoftu, v open-source rámcích i ekosystémech třetích stran pod jednotným modelem řízení. Tato interoperabilita umožňuje agentům spolupracovat s lidmi i dalšími agenty v rámci pracovních postupů, přičemž podléhají stejným podnikovým kontrolám.
  • Vestavěné ochrany chrání agenty před vnitřním zneužitím i vnějšími hrozbami. Varovné bezpečnostní signály, vynucování zásad a integrované nástroje pomáhají organizacím včas odhalit kompromitované nebo vychýlené agenty a rychle reagovat, než problémy přerostou v škody na podnikání, regulaci či reputaci.

Omezte riziko: kontrolní seznam pro řízení a zabezpečení umělé inteligence

Jasná cesta k omezení rizik AI: zacházejte s agenty AI stejně důsledně jako s každým zaměstnancem nebo účtem softwarové služby. Zde je sedm klíčových bodů.
  • Zdokumentujte účel každého agenta a poskytněte mu přístup pouze k nezbytným zdrojům. Bez širokých oprávnění.
  • Aplikujte pravidla ochrany dat i na kanály umělé inteligence. Veďte si systémové záznamy a označujte obsah generovaný umělou inteligencí.
  • Nabídněte bezpečné alternativy ke snížení rizika stínové umělé inteligence. Blokujte nepovolené aplikace.
  • Aktualizujte plány kontinuity podnikání pro scénáře zahrnující umělou inteligenci. Provádějte simulace a sledujte metriky pozorovatelnosti napříč identitami, daty a hrozbami.
  • Budujte systém řízení umělé inteligence a samoregulaci už teď – dokumentujte tréninková data, vyhodnocujte zaujatost a zajišťujte lidský dohled v právní, datové a bezpečnostní oblasti, aby byla shoda s předpisy integrována od začátku, nikoli až dodatečně.
  • Posuňte řízení rizik umělé inteligence na úroveň celé organizace – zaveďte odpovědnost vedení, měřitelné KPI a přehledy pro představenstvo spolu s informacemi o finančních a provozních rizicích.
  • Školte zaměstnance v bezpečném používání umělé inteligence. Podporujte transparentnost a spolupráci.

Organizace, které uspějí s agenty AI, jsou ty, které kladou důraz na pozorovatelnost, řízení a bezpečnost. K dosažení tohoto cíle je nezbytná spolupráce všech týmů a komplexní pozorovatelnost agentů AI na všech úrovních organizace – od IT odborníků, bezpečnostních týmů, AI specialistů až po vývojáře. Vše lze efektivně řídit a monitorovat prostřednictvím jednotné centrální řídicí platformy.

Agent 365 je sjednocená řídicí platforma Microsoftu pro správu agentů AI v celé organizaci. Nabízí centralizovaný, podnikový systém pro registraci, řízení, zabezpečení, sledování a provoz agentů AI – ať už jsou postaveni na platformách Microsoftu, open source rámcích nebo systémech třetích stran. Další informace o produktech a službách Microsoftu, které pomáhají zabezpečit umělou inteligenci a agenty AI, najdete zde.
Karty zdrojů Microsoft Security představující průvodce pro AI aplikace, správu AI a dodržování předpisů na modrém pozadí
Průvodci zabezpečením AI

Průvodci Microsoftu pro zabezpečení podniku využívajícího umělou inteligenci

Získejte odborné pokyny pro vybudování pevného základu AI – včetně řízení, zabezpečení AI aplikací a zajištění souladu s předpisy.

Další zdroje informací

Osoba pracující na notebooku v sdíleném pracovním prostoru, která zároveň čte informace na chytrém telefonu

Index zabezpečení dat Microsoftu

Získejte přehled o tom, jak generativní umělá inteligence mění oblast zabezpečení dat.
Prezentující na pódiu s hesly na obrazovce: porozumění rizikům, nastavení správných kontrol, měření a monitorování

Rychle se chopte příležitostí díky důvěryhodné AI

Poslechněte si lídry Microsoftu, kteří sdílejí praktické způsoby, jak budovat důvěru v každé fázi vaší cesty s umělou inteligencí.
Modrá a bílá ikona zobrazující papír uvnitř obálky s označením Nové

Získat CISO Digest

Buďte v obraze díky odborným poznatkům, trendům v oboru a výzkumu bezpečnosti v této dvouměsíční e-mailové sérii.
  1. [1]
    Na základě telemetrie Microsoftu měřící agenty vytvořené pomocí Microsoft Copilot Studia nebo Microsoft Agent Builderu, kteří byli aktivní během posledních 28 dnů listopadu 2025.
  2. [2]
    Metriky o agentech dle průmyslu a regionu byly vytvořeny na základě telemetrie Microsoftu měřící agenty vytvořené pomocí Microsoft Copilot Studia nebo Microsoft Agent Builderu, kteří byli aktivní během posledních 28 dnů listopadu 2025.
  3. [3]
    Mezinárodní průzkum z července 2025 mezi víc než 1 700 odborníky na zabezpečení dat, který zadal Microsoft společnosti Hypothesis Group.
  4. [4]

    Microsoft Data Security Index 2026: Sjednocení ochrany dat a inovací v oblasti umělé inteligence, Microsoft Security, 2026

     

    Metodologie:

     

    Metriky o agentech dle průmyslu a regionu byly vytvořeny na základě telemetrie Microsoftu měřící agenty vytvořené pomocí Microsoft Copilot Studia nebo Microsoft Agent Builderu, kteří byli aktivní během posledních 28 dnů listopadu 2025.

     

    Data Security Index 2026:

     

    Mezinárodní online průzkum trvající 25 minut proběhl od 16. července do 11. srpna 2025 mezi 1 725 vedoucími pracovníky v oblasti zabezpečení dat.

     

    Otázky se zaměřovaly na situaci v oblasti zabezpečení dat, incidenty, zabezpečení používání generativní AI zaměstnanci a využití generativní AI v programech zabezpečení dat s cílem porovnat výsledky s rokem 2024.

     

    Hodinové hloubkové rozhovory proběhly s 10 vedoucími pracovníky v oblasti zabezpečení dat v USA a Velké Británii s cílem zmapovat jejich perspektivu ohledně přístupu k zabezpečení dat v organizacích.

     

    Definice:

     

    Aktivní agenti jsou 1) nasazeni v produkčním prostředí a 2) vykazují během posledních 28 dnů skutečnou aktivitu.

     

    „Skutečná aktivita“ znamená alespoň jedna interakce s uživatelem (asistenční agenti) NEBO alespoň jedno autonomní spuštění (autonomní agenti).

Sledujte zabezpečení od Microsoftu