This is the Trace Id: 2c0a0c08b744f55c47257d82b8123795

 

Cyber Pulse: Um relatório de segurança de IA

Telemetria e pesquisas recentes da Microsoft mostram que muitas organizações estão a adotar agentes de IA. Agora é o momento para os líderes implementarem observabilidade, governação e segurança.

Edição 1: Introdução

Organizações pioneiras estão a reinventar a forma como o trabalho é efetuado, com humanos e agentes a operarem lado a lado para elevar a ambição humana. Os dados recentes da Microsoft indicam que estas equipas de humanos e agentes estão a crescer e a ser amplamente adotadas globalmente.

Os agentes de IA estão a crescer mais rapidamente do que algumas empresas conseguem perceber, e esta lacuna de visibilidade é um risco comercial. As organizações precisam urgentemente de uma governação e segurança eficazes para adotar agentes com segurança, promover a inovação e reduzir riscos. Assim como os utilizadores humanos, os agentes de IA requerem proteção através da observabilidade, governação e segurança robusta através de princípios de Confiança Zero. As empresas que terão êxito na próxima fase de adoção da IA serão aquelas que agirem com rapidez e reunirem as equipas de negócios, TI, segurança e programação para observar, governar e proteger a sua transformação de IA.

Em todo o ecossistema da Microsoft, os clientes estão agora a criar e a implementar agentes em todas as principais plataformas - desde Fabric e Foundry até Microsoft Copilot Studio e o Construtor de Agentes, refletindo uma ampla mudança em direção à automatização com tecnologia de IA no fluxo de trabalho.

A criação de agentes não se limita a funções técnicas; hoje, funcionários em várias posições criam e utilizam agentes no trabalho diário. De facto, os dados da Microsoft mostram que mais de 80% das empresas da Fortune 500 estão a implementar agentes ativos criados com ferramentas de low-code/no-code.1 Com a expansão do uso de agentes e a multiplicação das oportunidades de transformação, agora é o momento de implementar controlos fundamentais.

Tal como para os colaboradores humanos, Confiança Zero para agentes significa:
 

  • Acesso com menos privilégios: Dê a cada utilizador, agente de IA ou sistema apenas o que precisa e nada mais.

  • Verificação explícita: Confirme sempre quem ou o que está a fazer um pedido de acesso através de identidade, estado de funcionamento dos dispositivos, localização e nível de risco.

  • Presuma que pode ocorrer comprometimento: Projete sistemas na expetativa de que os invasores consigam entrar.

Gráfico mostrando que mais de 80% das empresas Fortune 500 utilizam ferramentas ativas de agentes low code, como o Ask Copilot

Agentes de IA em rápida expansão - em todas as regiões e setores

A adoção de agentes está a acelerar em todas as regiões do mundo - da EMEA às Américas e Ásia.2
 Gráfico de barras mostrando a distribuição regional: EMEA 42%, Estados Unidos 29%, Ásia 19%, Américas 10%.
A Microsoft está a observar o crescimento dos agentes em todos os setores. Os serviços financeiros, a manufatura e o retalho estão na liderança na adoção de agentes. Os serviços financeiros, incluindo bancos, mercados de capitais e seguros, representam agora cerca de 11% de todos os agentes ativos em todo o mundo.2 A manufatura representa 13% da utilização global de agentes, o que revela uma adoção generalizada em fábricas, cadeias de abastecimento e operações energéticas.2 O retalho representa 9%, com agentes utilizados para melhorar a experiência do cliente, a gestão de inventário e os processos de primeira linha.2

O problema: alguns desses agentes são sancionados pela TI - outros não. Alguns desses agentes são seguros, outros não.
Círculos sobrepostos ilustrando a distribuição por setor: Software e Tecnologia 16%, Indústria 13%, Serviços Financeiros 11%, Varejo 9%.

O risco dos agentes duplos

A rápida implementação de agentes pode ultrapassar os controlos de segurança e conformidade, aumentando o risco de IA sombra. Atores maliciosos podem explorar o acesso e os privilégios dos agentes, transformando-os em "agentes duplos" indesejados Assim como os colaboradores humanos, um agente com acesso excessivo - ou instruções erradas - pode tornar-se uma vulnerabilidade.

A ameaça de agentes duplos serem explorados se não forem geridos, tiverem permissões incorretas ou forem manipulados por entradas não fiáveis não é um risco teórico. Recentemente, a equipa Defender da Microsoft identificou uma campanha fraudulenta com vários atores a tirar partido de uma técnica de ataque de IA conhecida como "envenenamento de memória" para manipular a memória dos assistentes de IA de forma persistente, orientando silenciosamente respostas futuras e enfraquecendo a confiança na precisão do sistema.

Num estudo independente e seguro em ambiente de teste conduzido pela própria Equipa Vermelha de IA da Microsoft, os investigadores documentaram como os agentes foram enganados por elementos de interface enganosos, como seguir instruções prejudiciais incorporadas em conteúdos do dia a dia. A Equipa Vermelha também descobriu como o raciocínio dos agentes poderia ser subtilmente redirecionado através do enquadramento das tarefas. Estas descobertas ilustram por que é fundamental que as empresas tenham observabilidade e gestão completas de todos os agentes que interagem com a empresa, para que os controlos possam ser impostos de forma centralizada e os riscos geridos de forma integrada.
De acordo com uma pesquisa de 2025, 29% dos colaboradores utilizam agentes de IA não autorizados para realizar tarefas profissionais.
De acordo com o Índice de Segurança de Dados da Microsoft, apenas 47% das organizações em todas as indústrias relatam que estão a implementar controlos de segurança de IA generativa específicos,3 o que constitui uma oportunidade para as organizações obterem a visibilidade clara necessária para a adoção segura da IA. Ainda mais importante, de acordo com um inquérito multinacional com mais de 1.700 profissionais de segurança de dados encomendado pela Microsoft ao Hypothesis Group, 29% dos colaboradores já recorreram a agentes de IA não autorizados para tarefas de trabalho.4
Gráfico de setores revelando que apenas 47% das organizações implementam controles de segurança para o uso de IA generativa.

À medida que a adoção se acelera, quantos líderes reconhecem o risco subjacente? Quantos líderes têm visibilidade sobre a sua população de agentes? Os agentes de IA não supervisionados ou não governados podem agravar os riscos na empresa, o que ameaça a segurança, a continuidade dos negócios e a reputação, o que irá recair diretamente sobre o CISO e o conselho executivo. Este é o cerne do dilema do risco cibernético. Os agentes de IA estão a trazer novas oportunidades para o local de trabalho e estão a tornar-se parte integrante das operações internas. No entanto, o comportamento de risco de um agente pode amplificar as ciberameaças internas e criar novos modos de falha para organizações que não estejam preparadas para os gerir.

 

A natureza dual da IA chegou: inovação extraordinária combinada com riscos sem precedentes.

Tirar o máximo partido dos seus agentes de IA

As empresas pioneiras estão a utilizar a onda da IA para modernizar a governação, reduzir a exposição desnecessária de dados e implementar controlos em toda a empresa. Estas estão a combinar tudo isto com uma mudança cultural: os líderes empresariais podem ser os responsáveis pela estratégia de IA, mas as equipas de TI e segurança são agora verdadeiros parceiros em observabilidade, governação e experimentação segura. Para estas organizações, proteger os agentes não é uma restrição, é uma vantagem competitiva, baseada em tratar os agentes de IA como humanos e aplicar os mesmos princípios de Confiança Zero.

Começa com a observabilidade, uma vez que não se pode proteger o que não se vê e não se pode gerir o que não se compreende. Observabilidade é ter um plano de controlo em todas as camadas da organização (equipas de TI, segurança, programadores e IA) para entender:

  • Que agentes existem
     

  • Quem é o proprietário
     

  • A que sistemas e dados acedem
     

  • Como se comportam


 

A observabilidade inclui cinco áreas principais:

  • Um registo centralizado atua como uma só fonte de verdade para todos os agentes da organização - agentes sancionados, de terceiros e emergentes. Este inventário ajuda a evitar a proliferação de agentes, permite a responsabilização e oferece suporte à descoberta, permitindo que agentes não autorizados sejam restringidos ou colocados em quarentena quando necessário.
  • Cada agente é governado através dos mesmos controlos de acesso baseados em identidade e políticas aplicados a utilizadores humanos e aplicações. As permissões de privilégios mínimos, impostas de forma consistente, garantem que os agentes possam aceder apenas aos dados, sistemas e fluxos de trabalho necessários para cumprir o seu objetivo - nem mais, nem menos.
  • Dashboards em tempo real e telemetria fornecem informações sobre como os agentes interagem com pessoas, dados e sistemas. Os líderes podem ver onde os agentes estão a operar, compreender as dependências e monitorizar o comportamento e o impacto, permitindo uma deteção mais rápida de uso indevido, desvios ou riscos emergentes.
  • Os agentes operam em plataformas Microsoft, frameworks open-source e ecossistemas de terceiros sob um modelo de governação consistente. Esta interoperabilidade permite que os agentes colaborem com pessoas e outros agentes em fluxos de trabalho, permanecendo sob os mesmos controlos empresariais.
  • Proteções integradas protegem os agentes contra uso indevido interno e ameaças externas. Sinais de segurança, aplicação de políticas e ferramentas integradas ajudam as organizações a detetar antecipadamente agentes comprometidos ou desalinhados e a responder rapidamente, antes que os problemas se traduzam em danos comerciais, regulatórios ou reputacionais.

Preencher a lacuna: lista de verificação de governação e segurança de IA

O caminho para controlar os riscos da IA é claro: trate os agentes de IA com o mesmo rigor que qualquer colaborador ou conta de serviço de software. Aqui estão sete itens para a sua lista de verificação.
  • Documente a finalidade de cada agente e conceda-lhe acesso apenas ao que precisa. Sem privilégios amplos.
  • Aplique regras de proteção de dados aos canais de IA. Mantenha registos de auditoria e identifique o conteúdo gerado por IA.
  • Ofereça alternativas seguras para conter a IA sombra. Bloqueie aplicações não autorizadas.
  • Atualize os manuais de continuidade de negócios para cenários de IA. Realize exercícios simulados e monitorize métricas de observabilidade em planos de identidade, dados e ameaças.
  • Crie uma governação de IA e autorregule agora - documente dados de preparação, avalie parcialidades e estabeleça supervisão humana em questões jurídicas, de dados e de segurança - para que a conformidade regulatória seja criada, e não adicionada posteriormente.
  • Eleve o risco de IA ao nível empresarial, ao estabelecer responsabilidade executiva, KPIs mensuráveis e visibilidade ao nível do conselho, juntamente com o risco financeiro e operacional.
  • Dê formação aos colaboradores sobre a utilização segura da IA. Recomende a transparência e a colaboração.

As organizações que têm êxito com agentes de IA serão aquelas que priorizam a observabilidade, a governação e a segurança. Para tal, é necessária a colaboração entre todas as equipas e a observabilidade dos agentes de IA em todas as camadas das organizações: profissionais de TI, equipas de segurança, equipas de IA e programadores, todos os quais podem ser geridos e observados através de uma plataforma de controlo central unificada.

O Agent 365 é o plano de controlo unificado da Microsoft para gerir agentes de IA em toda a organização. Fornece um sistema centralizado de nível empresarial para registar, gerir, proteger, observar e operar agentes de IA, sejam eles criados em plataformas Microsoft, frameworks open-source ou em sistemas de terceiros. Mais informações sobre os produtos e serviços da Microsoft que ajudam a proteger a IA e os agentes estão disponíveis aqui.

Cartões de recursos do Microsoft Security a mostrar guias para aplicações de IA, Governação de IA e conformidade de IA em fundo azul
Guias de proteção de IA

Guias da Microsoft para proteger a empresa com tecnologia de IA

Obtenha orientações para ajudar a criar uma base sólida para a IA, incluindo como controlar e proteger aplicações de IA e ajudar a manter a conformidade.

Mais recursos

Pessoa a trabalhar num computador portátil numa secretária de uma área de trabalho partilhada enquanto verifica informações num smartphone

Índice de segurança de dados da Microsoft

Obtenha informações sobre como a IA generativa está a remodelar a segurança de dados.
Apresentador em pé no palco com chamadas no ecrã com o texto "understanding the risks placing the right controls measuring and monitoring"

Acelerar oportunidades com IA fidedigna

Ouça os líderes da Microsoft partilharem maneiras práticas de criar confiança em todas as etapas do seu percurso de IA.
Um ícone azul e branco a mostrar um papel dentro de um envelope com o texto "New".

Obter o CISO Digest

Mantenha-se um passo à frente com informações de especialistas, tendências da indústria e investigação em segurança nesta série de e-mail bimestral.
  1. [1]
    Com base em agentes de medição de telemetria próprios da Microsoft, criados com o Microsoft Copilot Studio ou o Construtor de Agentes da Microsoft, que estiveram em uso durante os últimos 28 dias de novembro de 2025.
  2. [2]
    As métricas de agentes regionais e da indústria foram criadas através de agentes de medição de telemetria próprios da Microsoft, criados com o Microsoft Copilot Studio ou o Construtor de Agentes da Microsoft, que estiveram em uso durante os últimos 28 dias de novembro de 2025.
  3. [3]
    Inquérito multinacional de julho de 2025 com mais de 1700 profissionais de segurança de dados encomendado pela Microsoft ao Hypothesis Group
  4. [4]

    "Microsoft Data Security Index 2026: Unifying Data Protection and AI Innovation, Microsoft Security, 2026" (Índice de Segurança de Dados da Microsoft 2026: Unificar a Proteção de Dados e a Inovação em IA, Microsoft Security, 2026)

     

    Metodologia:

     

    As métricas setoriais e regionais foram criadas através de agentes de medição de telemetria próprios da Microsoft, desenvolvidos com o Microsoft Copilot Studio ou o Construtor de Agentes da Microsoft, que estiveram em uso durante os últimos 28 dias de novembro de 2025.

     

    Índice de Segurança de Dados 2026:

     

    Uma pesquisa multinacional online de 25 minutos foi realizada de 16 de julho a 11 de agosto de 2025, com 1.725 líderes em segurança de dados.

     

    As perguntas centraram-se no panorama da segurança de dados, incidentes de segurança de dados, proteção do uso da IA generativa por colaboradores e utilização da IA generativa em programas de segurança de dados para realçar comparações com 2024.

     

    Foram realizadas entrevistas aprofundadas de uma hora com 10 líderes de segurança de dados nos EUA e no Reino Unido para reunir histórias sobre como estão a abordar a segurança de dados nas suas organizações.

     

    Definições:

     

    Os Agentes Ativos são 1) implementados em produção e 2) têm alguma "atividade real" associada aos mesmos nos últimos 28 dias.

     

    "Atividade real" é definida como 1+ interação com um utilizador (agentes assistentes) OU 1+ execuções autónomas (agentes autónomos).

Siga o Microsoft Security