This is the Trace Id: 4d2b6198027c391274af9b0dfc3f4979

 

Cyber Pulse: Raport de securitate a inteligenței artificiale

Datele recente de telemetrie și cercetare proprii Microsoft arată că multe organizații adoptă agenți de inteligență artificială. Acum este momentul ca liderii să implementeze capacitatea de observare, guvernanță și securitate.

Numărul 1: Introducere

Organizațiile de avangardă redefinesc modul de lucru, cu oameni și agenți care lucrează cot la cot pentru a susține ambiția umană. Datele Microsoft recente arată că numărul acestor echipe om-agent este în creștere, începând să fie adoptate pe scară largă la nivel global.

Agenții de inteligență artificială se extind mai rapid decât reușesc unele firme să observe, iar acest decalaj de vizibilitate reprezintă un risc în afaceri. Organizațiile au nevoie urgent de guvernanță și securitate eficiente pentru a adopta agenții în siguranță, a stimula inovarea și a reduce riscurile. La fel ca utilizatorii umani, agenții de inteligență artificială necesită protecție prin capacitatea de observare, guvernanță și securitate solidă, aplicând principiile Zero Trust. Întreprinderile care vor reuși în următoarea etapă a adoptării inteligenței artificiale sunt cele ce acționează rapid și aduc laolaltă echipele de dezvoltatori, business, tehnologia informației și securitate pentru a observa, a guverna și a securiza transformarea inteligenței artificiale.

În ecosistemul Microsoft, clienții construiesc și implementează acum agenți pe toate platformele majore, de la Fabric și Foundry la Copilot Studio și Constructorul de agenți, reflectând o orientare amplă spre automatizarea pe platformă de inteligență artificială în fluxul de lucru.

Construirea agenților nu mai este exclusiv pentru rolurile tehnice; astăzi, angajați din diverse roluri creează și utilizează agenți în activitatea zilnică. De fapt, datele Microsoft arată peste 80 % dintre companiile Fortune 500 implementează agenți activi dezvoltați cu instrumente cu cod redus sau fără cod.1 Odată cu extinderea utilizării agenților și înmulțirea oportunităților de transformare, acum este momentul să implementați controale fundamentale.

La fel ca pentru angajații umani, Zero Trust pentru agenți înseamnă:
 

  • acces cu minim de privilegii: oferiți fiecărui utilizator, agent de inteligență artificială sau sistem doar ce le trebuie, nimic în plus;

  • verificare explicită: confirmați întotdeauna cine sau ce solicită accesul, utilizând identitatea, starea dispozitivului, locația și nivelul de risc;

  • presupuneți posibilitatea compromiterii: proiectați sistemele anticipând că atacatorii pot pătrunde în interior.

Grafic care evidențiază că peste 80% dintre companiile Fortune 500 utilizează activ instrumente low code pentru agenți – întrebați Copilot

Agenții de inteligență artificială se extind rapid, în toate regiunile și sectoarele de activitate

Adoptarea agenților accelerează în toate regiunile lumi, de la EMEA până în Americi și Asia.2
 Diagramă cu bare ce ilustrează distribuția regională: EMEA 42%, Statele Unite 29%, Asia 19%, America 10%.
Microsoft observă o creștere a utilizării agenților în toate sectoarele de activitate. Serviciile financiare, fabricația și comerțul cu amănuntul conduc în materie de adoptare a agenților. Serviciile financiare, inclusiv sectorul bancar, piețele de capital și asigurările, reprezintă acum aproximativ 11 % din totalul agenților activi la nivel global.2 Fabricația este responsabilă pentru 13 % din utilizarea globală a agenților, cu adoptare extinsă în fabrici, lanțuri de aprovizionare și operațiuni energetice.2 Comerțul cu amănuntul reprezintă 9 %, agenții fiind utilizați pentru a îmbunătăți experiența clienților, gestionarea inventarului și procesele din prima linie.2

Problema: unii dintre acești agenți sunt permiși de tehnologia informației, iar alții nu. Unii dintre acești agenți sunt securizați, alții nu.
Cercuri suprapuse care ilustrează distribuția pe industrii: Software și Tehnologie 16%, Producție 13%, Servicii Financiare 11%, Retail 9%.

Riscul agenților dubli

Implementarea rapidă a agenților poate depăși capacitatea controalelor de securitate și conformitate, sporind riscul inteligenței artificiale din zona gri. Actorii rău intenționați pot exploata accesul și privilegiile agenților, transformându-i în „agenți dubli” neintenționați. La fel ca angajații umani, un agent cu prea mult acces sau cu instrucțiuni greșite poate să devină o vulnerabilitate.

Riscul ca agenții dubli să fie exploatați dacă nu sunt gestionați, au permisiuni neadecvate sau sunt manipulați prin mesaje de intrare care nu sunt de încredere nu este doar unul teoretic. Recent, echipa Microsoft Defender a identificat o campanie frauduloasă în care mai mulți actori au profitat de o tehnică de atac asupra inteligenței artificiale numită „otrăvirea memoriei” pentru a manipula persistent memoria asistenților de inteligență artificială, influențând subtil răspunsurile viitoare și erodând încrederea în acuratețea sistemului.

În cercetarea independentă, într-un mediu de testare securizat, realizată de Echipa roșie Microsoft specializată în inteligență artificială, cercetătorii au documentat modul în care agenții au fost induși în eroare de elemente de interfață înșelătoare, de exemplu, urmând instrucțiuni dăunătoare încorporate în conținutul cotidian. De asemenea, Echipa roșie a descoperit și că raționamentul agenților poate fi redirecționat subtil prin manipularea modului în care sunt prezentate sarcinile. Aceste descoperiri ilustrează de ce este esențial ca întreprinderile să aibă capacitate de observare și gestionare pe deplin a tuturor agenților care interacționează cu ele, pentru a putea implementa controale și a gestiona riscurile în mod centralizat, cu o abordare integrată.
Conform unui sondaj realizat în 2025, 29% dintre angajați utilizează agenți AI neautorizați pentru îndeplinirea sarcinilor de serviciu.
Conform Indexului de securitate a datelor Microsoft, doar 47 % dintre organizațiile din toate sectoarele de activitate raportează implementarea unor controale de securitate specifice pentru inteligența artificială generativă,3 evidențiind oportunitatea ca organizațiile să obțină o vizibilitate clară, necesară pentru adoptarea inteligenței artificiale în siguranță. Și mai important de atât, potrivit unui sondaj multinațional la care au participat peste 1.700 de profesioniști în securitatea datelor, comandat de Microsoft de la Hypothesis Group, deja 29 % dintre angajați folosesc agenți de inteligență artificială neautorizați pentru activități de lucru.4
Diagrama circulară evidențiază că doar 47% dintre organizații au implementat controale de securitate pentru utilizarea inteligenței artificiale generative.

Pe măsură ce adoptarea accelerează, câți lideri recunosc riscul ascuns? Câți lideri au vizibilitate asupra populației lor de agenți? Agenții de inteligență artificială nesupravegheați sau neguvernați pot amplifica riscurile în cadrul întreprinderii, punând în pericol securitatea, continuitatea activității și reputația, iar responsabilitatea revine direct CISO-ului și conducerii executive. Aceasta este esența dilemei riscurilor cibernetice. Agenții de inteligență artificială creează noi oportunități la locul de muncă și devin parte integrantă a operațiunilor interne. Însă comportamentul riscant al unui agent poate să amplifice amenințările din interior și să genereze noi moduri de eroare pentru organizațiile care nu sunt pregătite să le gestioneze.

 

Dualitatea inteligenței artificiale a devenit realitate: inovație extraordinară asociată cu riscuri fără precedent.

Profitați la maximum de agenții dvs. de inteligență artificială

Firmele de avangardă utilizează valul inteligenței artificiale pentru a moderniza guvernanța, a reduce expunerea inutilă a datelor și a implementa controale la nivel de întreprindere. Acestea vin la pachet cu o schimbare culturală: liderii de afaceri pot deține strategia inteligenței artificiale, dar echipele de securitate și tehnologia informației devin parteneri reali în materie de capacitate de observare, guvernanță și experimentare sigură. Pentru aceste organizații, securizarea agenților nu este o limitare, ci un avantaj competitiv, bazat pe tratarea agenților de inteligență artificială la fel ca pe oameni și aplicarea acelorași principii Zero Trust.

Totul începe cu capacitatea de observare, întrucât nu puteți proteja ceea ce nu puteți vedea și nu puteți gestiona ceea ce nu înțelegeți. Capacitatea de observare înseamnă să aveți un plan de control la toate nivelurile organizației (echipele de tehnologia informației, securitate, dezvoltatori și inteligență artificială) pentru a înțelege:

  • ce agenți există,
     

  • cine îi deține,
     

  • ce sisteme și ce date accesează,
     

  • cum se comportă.


 

Capacitatea de observare include cinci aspecte principale:

  • Un registru centralizat funcționează ca sursă unică de adevăr pentru toți agenții din organizație: permiși, de la terți și agenți emergenți din zona gri. Acest inventar ajută la prevenirea extinderii agenților, asigură responsabilitatea și sprijină descoperirea, permițând totodată restricționarea sau punerea în carantină a agenților neautorizați atunci când este necesar.
  • Fiecare agent este guvernat utilizând aceleași controale de acces bazate pe identitate și politici care se aplică utilizatorilor umani și aplicațiilor. Implementate consecvent, permisiunile cu minim de privilegii garantează că agenții accesează nici mai mult, nici mai puțin decât datele, sistemele și fluxurile de lucru necesare pentru a-și îndeplini rolul.
  • Panourile de control și telemetria în timp real oferă detalii despre modul în care agenții interacționează cu persoanele, datele și sistemele. Liderii pot să vadă unde operează agenții, să înțeleagă dependențele și să monitorizeze comportamentul și impactul, ceea ce contribuie la detectarea mai rapidă a utilizării abuzive, a devierilor sau a riscurilor emergente.
  • Agenții funcționează pe mai multe platforme Microsoft, cadre open source și ecosisteme terțe, sub un model de guvernanță consecvent. Această interoperabilitate permite agenților să colaboreze cu persoane și alți agenți în fluxurile de lucru, rămânând totodată gestionați de aceleași controale de întreprindere.
  • Protecțiile încorporate asigură protecția agenților împotriva utilizării abuzive interne și a amenințărilor externe. Semnalele de securitate, impunerea politicilor și instrumentele integrate ajută organizațiile să detecteze din timp agenții compromiși sau aliniați greșit și să răspundă rapid, înainte ca problemele să escaladeze și să afecteze procesele de business, conformitatea cu reglementările sau reputația.

Reducerea decalajului: listă de verificare pentru guvernanța și securitatea inteligenței artificiale

Calea spre limitarea riscurilor inteligenței artificiale este clară: tratați agenții de inteligență artificială cu aceeași rigurozitate ca pe orice angajat sau cont de serviciu software. Iată șapte elemente pentru lista dvs. de verificare.
  • Documentați scopul fiecărui agent și acordați-i acces doar la resursele de care are nevoie. Fără privilegii ample.
  • Aplicați reguli de protecție a datelor la canalele de inteligență artificială. Păstrați jurnale de audit și etichetați conținutul generat de inteligența artificială.
  • Oferiți alternative securizate pentru a limita inteligența artificială din zona gri. Blocați aplicațiile neautorizate.
  • Actualizați manualele de proceduri pentru continuarea activității cu scenarii pentru inteligența artificială. Derulați exerciții de simulare și monitorizați indicatorii capacității de observare la nivel de identitate, date și amenințări.
  • Dezvoltați acum guvernanța inteligenței artificiale și autoreglementarea, documentând datele de instruire, evaluând prejudecățile și stabilind o supraveghere umană în domeniul juridic și în ceea ce privește datele și securitatea, astfel încât conformitatea cu reglementările să fie încorporată de la bun început, nu adăugată ulterior.
  • Ridicați riscul inteligenței artificiale la nivel de întreprindere, stabilind responsabilitatea executivă, indicatori de performanță cheie măsurabili și vizibilitate la nivelul consiliului de conducere, însoțite de riscurile financiare și operaționale.
  • Instruiți angajații în ceea ce privește utilizarea inteligenței artificiale în siguranță. Încurajați transparența și colaborarea.

Organizațiile care vor avea succes cu agenții de inteligență artificială vor fi cele care au ca prioritate capacitatea de observare, guvernanța și securitatea. Pentru a reuși, este nevoie de colaborare între toate echipele și de capacitatea de observare a agenților de inteligență artificială la toate nivelurile organizației: specialiști în tehnologia informației, echipe de securitate, echipe de inteligență artificială și dezvoltatori, gestionând și observând totul printr-o platformă de control centralizată, unificată.

Agent 365 este planul de control unificat al Microsoft pentru gestionarea agenților de inteligență artificială în cadrul organizației. Acesta oferă un sistem centralizat, la nivel de întreprindere, pentru înregistrarea, guvernanța, securizarea, observarea și operarea agenților de inteligență artificială, indiferent dacă aceștia sunt dezvoltați pe platforme Microsoft, cadre open source sau sisteme terțe. Mai multe informații despre produsele și serviciile Microsoft care ajută la securizarea inteligenței artificiale și a agenților sunt disponibile aici.
Carduri de resurse Microsoft Security ce afișează ghiduri pentru aplicații de inteligență artificială, guvernanța inteligenței artificiale și conformitatea inteligenței artificiale pe fundal albastru
Ghiduri pentru securizarea inteligenței artificiale

Ghiduri Microsoft pentru securizarea întreprinderilor pe platformă de inteligență artificială

Obțineți îndrumare pentru a construi o fundație solidă pentru inteligența artificială, inclusiv cum să guvernați și să securizați aplicațiile de inteligență artificială, menținând totodată conformitatea.

Mai multe resurse

O persoană care lucrează la laptop într-un spațiu de lucru partajat, consultând informații pe un smartphone

Indexul de securitate a datelor Microsoft

Obțineți detalii despre cum transformă inteligența artificială generativă securitatea datelor.
Un prezentator care stă pe scenă, având afișate pe ecran bule de text despre înțelegerea riscurilor, aplicarea controalelor potrivite, măsurare și monitorizare

Accelerarea oportunităților cu inteligență artificială de încredere

Ascultați liderii Microsoft care împărtășesc metode practice de integrare a încrederii în fiecare etapă a călătoriei dvs. în domeniul inteligenței artificiale.
O pictogramă cu albastru și alb ce ilustrează o hârtie într-un plic, cu textul „Nou”.

Obțineți Rezumatul pentru CISO

Păstrați-vă avantajul, accesând detalii de la experți, tendințele din industrie și cercetări în materie de securitate, în această serie de e-mailuri bilunare.
  1. [1]
    Pe baza datelor de telemetrie proprii Microsoft, care a măsurat agenții construiți cu Microsoft Copilot Studio sau Constructorul de agenți Microsoft utilizați în ultimele 28 de zile din noiembrie 2025.
  2. [2]
    Măsurătorile agenților pe regiuni și sectoare de activitate au fost create utilizând datele de telemetrie proprii Microsoft, care au măsurat agenții construiți cu Microsoft Copilot Studio sau Constructorul de agenți Microsoft utilizați în ultimele 28 de zile din noiembrie 2025.
  3. [3]
    Sondaj multinațional din iulie 2025, la care au participat peste 1.700 de profesioniști în securitatea datelor, comandat de Microsoft de la Hypothesis Group
  4. [4]

    Indexul de securitate a datelor Microsoft din 2026: Unificarea protecției datelor și a inovării în domeniul inteligenței artificiale, Microsoft Security, 2026

     

    Metodologie:

     

    Măsurătorile agenților pe regiuni și sectoare de activitate au fost create utilizând datele de telemetrie proprii Microsoft, care au măsurat agenții construiți cu Microsoft Copilot Studio sau Constructorul de agenți Microsoft utilizați în ultimele 28 de zile din noiembrie 2025.

     

    Indexul de securitate a datelor din 2026:

     

    Între 16 iulie și 11 august 2025, s-a realizat un sondaj online multinațional de 25 de minute, la care au participat 1.725 de lideri în securitatea datelor.

     

    Întrebările s-au concentrat pe peisajul securității datelor, incidentele de securitate a datelor, securizarea utilizării de către angajați a inteligenței artificiale generative și utilizarea inteligenței artificiale generative în programele de securitate a datelor, pentru a evidenția comparații cu anul 2024.

     

    Au fost realizate interviuri aprofundate cu durata de o oră cu zece lideri în securitatea datelor din Statele Unite și Regatul Unit, pentru a obține relatări despre cum abordează securitatea datelor în organizațiile lor.

     

    Definiții:

     

    Agenții activi sunt 1) implementați în producție și 2) au o „activitate reală” asociată în ultimele 28 de zile.

     

    „Activitatea reală” este definită ca cel puțin o interacțiune cu un utilizator (agenți de asistare) SAU cel puțin o execuție autonomă (agenți autonomi).

Urmăriți Microsoft Security