This is the Trace Id: e6bc80e792a713f6441d944159bf9f75

 

Cyber Pulse: relatório sobre segurança em IA

Telemetria e pesquisas recentes da própria Microsoft mostram que muitas organizações já estão adotando agentes de IA. Agora é o momento para lideranças implementarem observabilidade, governança e segurança.

Edição 1: Introdução

Organizações pioneiras estão redefinindo a forma como o trabalho é realizado, com humanos e agentes atuando lado a lado para ampliar a ambição humana. Dados recentes da Microsoft indicam que essas equipes formadas por humanos e agentes estão crescendo e sendo amplamente adotadas globalmente.

Os agentes de IA estão crescendo mais rápido do que algumas empresas conseguem acompanhar, e essa lacuna de visibilidade representa um risco para o negócio. As organizações precisam agir rápido e implementar governança e segurança eficazes para adotar agentes com segurança, promover a inovação e diminuir riscos. Assim como usuários humanos, agentes de IA precisam de proteção por meio de observabilidade, governança e segurança robusta com base nos princípios de Confiança Zero. As empresas que terão sucesso na próxima fase da adoção de IA serão aquelas que avançarem com agilidade e reunirem equipes de negócios, TI, segurança e desenvolvimento para observar, governar e proteger sua transformação em IA.

Em todo o ecossistema da Microsoft, clientes estão desenvolvendo e implantando agentes em todas as principais plataformas, como Fabric, Foundry, Copilot Studio e Construtor de agentes, refletindo uma ampla mudança em direção à automação da plataforma IA no fluxo de trabalho.

Desenvolver agentes já não é algo restrito a cargos técnicos; profissionais de diferentes áreas passaram a criar e usar agentes no dia a dia. De acordo com dados da Microsoft mais de 80% das empresas da Fortune 500 já implantam agentes ativos desenvolvidos com ferramentas low-code ou no-code.1 Com o uso de agentes crescendo e as oportunidades de transformação se multiplicando, agora é o momento de implementar controles fundamentais.

Assim como acontece com funcionários humanos, a Confiança Zero para agentes significa:
 

  • Acesso com privilégio mínimo: conceda a cada usuário, agente de IA ou sistema apenas o que for necessário, nada além disso.

  • Verificação explícita: sempre confirme quem ou o que solicita acesso, considerando identidade, integridade do dispositivo, localização e nível de risco.

  • Parta do princípio de que uma violação pode ocorrer: projete sistemas já prevendo que invasores podem conseguir acesso.

Gráfico mostrando que mais de 80% das empresas da Fortune 500 utilizam ferramentas ativas de agentes low code, como o Ask Copilot

Agentes de IA crescendo rapidamente em todas as regiões e setores

A adoção de agentes está acelerando em regiões ao redor do mundo, da EMEA às Américas e2
 Gráfico de barras ilustrando a distribuição regional: EMEA 42%, Estados Unidos 29%, Ásia 19% e Américas 10%.
A Microsoft registra crescimento no uso de agentes em praticamente todos os setores. Serviços financeiros, manufatura e varejo lideram a adoção de agentes. O setor de serviços financeiros, que inclui bancos, mercados de capitais e seguros, já responde por aproximadamente 11% de todos os agentes ativos no mundo.2 O setor de manufatura representa 13% do uso global de agentes, demonstrando ampla adoção em fábricas, cadeias de fornecedores e operações de energia.2 O varejo responde por 9%, com agentes usados para melhorar a experiência do cliente, o gerenciamento de estoque e os processos de linha de frente.2

O desafio: alguns desses agentes são autorizados pela TI, outros não. Alguns desses agentes são seguros, mas outros não são.
Círculos sobrepostos ilustrando a distribuição por setor: Software e Tecnologia 16%, Manufatura 13%, Serviços Financeiros 11%, Varejo 9%.

O risco dos agentes duplos

A implantação rápida de agentes pode superar os controles de segurança e conformidade, aumentando o risco de shadow IA. Atores mal-intencionados podem explorar o acesso e os privilégios dos agentes, transformando-os em "agentes duplos" sem que a organização perceba. Assim como acontece com funcionários humanos, um agente com permissões demais ou orientações erradas pode se tornar uma vulnerabilidade.

A ameaça de agentes duplos serem explorados por falta de gerenciamento, permissões incorretas ou manipulação por entradas não confiáveis é real, não é apenas um risco teórico. Recentemente, a equipe do Microsoft Defender identificou uma campanha fraudulenta em que vários atores exploraram uma técnica de ataque de IA conhecida como "envenenamento de memória", usada para manipular de forma persistente a memória de assistentes de IA, direcionando silenciosamente respostas futuras e enfraquecendo a confiança na precisão do sistema.

Em pesquisas independentes realizadas em ambiente de teste seguro, conduzidas pela própria AI Red Team da Microsoft, pesquisadores documentaram como agentes foram induzidos ao erro por elementos enganosos de interface, como ao seguir instruções prejudiciais incorporadas em conteúdos cotidianos. A Red Team também descobriu como o raciocínio dos agentes poderia ser redirecionado de forma sutil quando a tarefa é apresentada de maneira manipulada. Essas descobertas reforçam por que é fundamental que empresas tenham observabilidade e gerenciamento total de todos os agentes que interagem com seu ambiente corporativo, permitindo aplicar controles de forma centralizada e gerenciar riscos em uma abordagem integrada.
29% dos colaboradores utilizam agentes de IA não autorizados para suas tarefas profissionais, segundo pesquisa realizada em 2025
Segundo o Data Security Index da Microsoft, apenas 47% das organizações, em diversos setores, relatam estar implementando controles específicos de segurança para GenAI3, o que evidencia ma oportunidade para que organizações ampliem a visibilidade necessária para uma adoção segura de IA. Mais importante ainda, de acordo com uma pesquisa multinacional com mais de 1.700 profissionais de segurança de dados, encomendada pela Microsoft ao Hypothesis Group, 29% dos funcionários já recorreram a agentes de IA não autorizados para tarefas de trabalho.4
Gráfico de pizza revelando que apenas 47% das organizações implementam controles de segurança para o uso de IA generativa.

À medida que a adoção acelera, quantas lideranças reconhecem o risco que está por trás disso? Quantas lideranças têm visibilidade sobre sua população de agentes? Agentes de IA sem supervisão ou governança podem ampliar riscos na empresa, ameaçando a segurança, a continuidade dos negócios e a reputação, recaindo diretamente sobre o CISO e a direção executiva. Esse é o cerne de um dilema de risco cibernético. Agentes de IA estão trazendo novas oportunidades ao ambiente de trabalho e estão sendo incorporados às operações internas. No entanto, se um agente agir de forma arriscada, pode ampliar ameaças internas e criar novos pontos de falha para organizações que não estejam preparadas para lidar com isso.

 

A dualidade da IA já é realidade: inovação extraordinária acompanhada de riscos sem precedentes.

Aproveitando ao máximo seus agentes de IA

Empresas pioneiras estão surfando a onda da IA para modernizar a governança, reduzir exposições desnecessárias de dados e implementar controles corporativos em toda a organização. Essa transformação vem acompanhada de uma mudança cultural: lideranças empresariais podem ser responsáveis pela estratégia de IA, mas as equipes de TI e segurança agora são parceiras reais em observabilidade, governança e experimentação segura. Para essas organizações, proteger agentes não é uma restrição, mas uma vantagem competitiva, baseada em tratar agentes de IA como humanos e aplicar os mesmos princípios de Confiança Zero.

Tudo começa com observabilidade: você não pode proteger o que não vê e não pode gerenciar o que não entende. Observabilidade é contar com um plano de controle de segurança em todas as camadas da organização (TI, segurança, desenvolvimento e equipes de IA) para entender:

  • Quais agentes existem
     

  • Quem é responsável por eles
     

  • Quais sistemas e dados eles acessam
     

  • Como eles se comportam


 

A observabilidade abrange cinco áreas principais:

  • Um registro centralizado funciona como fonte única de verdade para todos os agentes da organização, sejam autorizados, de terceiros ou agentes sombra em surgimento. Esse inventário evitar a proliferação descontrolada de agentes, permite responsabilização e facilita a descoberta, ao mesmo tempo que possibilita restringir ou colocar em quarentena agentes não autorizados quando necessário.
  • Cada agente é governado usando os mesmos controles de acesso baseados em identidade e políticas aplicados a usuários humanos e aplicativos. Permissões de privilégio mínimo, aplicadas de forma padronizada, garantem que agentes acessem apenas os dados, sistemas e fluxos de trabalho necessários para cumprir seu propósito, nada além disso.
  • Painéis em tempo real e telemetria oferecem visibilidade sobre como agentes interagem com pessoas, dados e sistemas. Lideranças podem ver onde os agentes estão operando, entender suas dependências e monitorar comportamento e impacto, permitindo identificar mais rapidamente usos indevidos, desvios ou riscos emergentes.
  • Agentes operam em plataformas da Microsoft, estruturas de código aberto e ecossistemas de terceiros sob um modelo de governança padronizado. Essa interoperabilidade possibilita que agentes colaborem com pessoas e outros agentes em diferentes fluxos de trabalho, sem sair do mesmo modelo de controle corporativo.
  • Proteções integradas protegem agentes contra uso indevido interno e ameaças externas. Sinais de segurança, imposição de políticas e ferramentas integradas ajudam organizações a detectar agentes comprometidos ou desalinhados precocemente e responder rapidamente antes que problemas se tornem danos ao negócio, regulatórios ou à reputação.

Reduza a lacuna: lista de verificação de governança e segurança em IA

O caminho para controlar os riscos de IA é claro: trate agentes de IA com o mesmo rigor aplicado a qualquer funcionário ou conta de serviço de software. Confira sete itens para sua lista de verificação.
  • Documente a finalidade de cada agente e conceda acesso apenas ao que for necessário. Evite privilégios excessivos.
  • Aplique regras de proteção de dados aos canais de IA. Mantenha trilhas de auditoria e rotule conteúdos gerados por IA.
  • Ofereça alternativas seguras para conter a shadow IA. Bloqueie aplicativos não autorizados.
  • Atualize os guias estratégicos de continuidade de negócios para cenários envolvendo IA. Conduza exercícios de simulação e acompanhe métricas de observabilidade em identidade, dados e planos de ameaça.
  • Desenvolva governança de IA e autorregulação agora, documente dados de treinamento, avalie desvios e estabeleça supervisão humana nas áreas jurídica, de dados e segurança, para que a conformidade regulatória seja incorporada desde o início e não adicionada posteriormente.
  • Trate o risco de IA como risco de nível organizacional, estabelecendo responsabilidade executiva, KPIs mensuráveis e visibilidade no nível do conselho, ao lado de riscos financeiros e operacionais.
  • Treine seus colaboradores para usar a IA com segurança. Incentive transparência e colaboração.

Organizações que terão sucesso com agentes de IA serão aquelas que priorizarem observabilidade, governança e segurança. Para chegar lá, é necessária a colaboração de todas as equipes e a observabilidade dos agentes de IA em todas as camadas da organização: profissionais de TI, equipes de segurança, equipes de IA e desenvolvedores, todos gerenciados e monitorados por meio de uma plataforma central de controle unificada.

O Agent 365 é o plano de controle de segurança unificado da Microsoft para gerenciar agentes de IA em toda a organização. Ele disponibiliza um sistema centralizado, de nível empresarial, para registrar, governar, proteger, observar e operar agentes de IA, sejam eles criados em plataformas da Microsoft, estruturas de código aberto ou sistemas de terceiros. Você encontra mais informações sobre produtos e serviços da Microsoft que ajudam a proteger IA e agentes aqui.

Cartões de recursos da Segurança da Microsoft exibindo guias sobre aplicativos de IA, governança de IA e conformidade em IA em fundo azul
Guias sobre segurança em IA

Guias da Microsoft para proteger empresas que utilizam soluções de IA

Receba orientações para construir uma base sólida em IA, incluindo como governar e proteger aplicações de IA e manter a conformidade.

Mais recursos

Pessoa trabalhando em um notebook uma mesa de trabalho compartilhada enquanto verifica informações em um celular

Microsoft Data Security Index

Confira insights sobre como a IA generativa está transformando a segurança de dados.
Apresentador no palco com chamadas na tela destacando reconhecimento de riscos, aplicação dos controles adequados e monitoramento

Acelerando oportunidades com IA confiável

Ouça líderes da Microsoft compartilharem formas práticas de incorporar confiança em cada etapa da sua jornada com IA.
Um ícone azul e branco mostrando um papel dentro de um envelope com o texto Novo.

Receba o CISO Digest

Fique por dentro com insights de especialistas, tendências do setor e pesquisas de segurança nesta série de emails bimestrais.
  1. [1]
    Com base em dados de telemetria da própria Microsoft que mede agentes desenvolvidos no Microsoft Copilot Studio ou no Construtor de agentes da Microsoft que estiveram ativos nos últimos 28 dias de novembro de 2025.
  2. [2]
    As métricas de agentes por setor e região foram criadas com base em dados de telemetria da própria Microsoft que mede agentes desenvolvidos no Microsoft Copilot Studio ou no Construtor de agentes da Microsoft que estiveram ativos nos últimos 28 dias de novembro de 2025.
  3. [3]
    Pesquisa multinacional realizada em julho de 2025 com mais de 1.700 profissionais de segurança de dados, encomendada pela Microsoft ao Hypothesis Group
  4. [4]

    Microsoft Data Security Index de 2026: Unificando proteção de dados e inovação em IA, Segurança da Microsoft, 2026

     

    Metodologia:

     

    As métricas de agentes por setor e região foram criadas com base em dados de telemetria da própria Microsoft que mede agentes desenvolvidos no Microsoft Copilot Studio ou no Construtor de agentes da Microsoft que estiveram ativos nos últimos 28 dias de novembro de 2025.

     

    Data Security Index de 2026:

     

    Uma pesquisa online multinacional, com duração de 25 minutos, foi realizada entre 16 de julho e 11 de agosto de 2025 com 1.725 lideranças de segurança de dados.

     

    As perguntas se concentraram no panorama de segurança de dados, incidentes de segurança de dados, na proteção do uso de GenAI por funcionários e no uso de GenAI em programas de segurança de dados para destacar comparações com 2024.

     

    Foram conduzidas entrevistas aprofundadas, com duração de uma hora, com 10 líderes de segurança de dados nos Estados Unidos e no Reino Unido para entender como eles estão abordando a segurança de dados em suas organizações.

     

    Definições:

     

    Agentes ativos são aqueles que 1) estão implantados em produção e 2) tiveram alguma "atividade real" associada a eles nos últimos 28 dias.

     

    "Atividade real" é definida como uma ou mais interações com um usuário (agentes assistivos) OU uma ou mais execuções autônomas (agentes autônomos).

Siga a Segurança da Microsoft