Estudo indica avanço da exposição a riscos com a aceleração da adoção de GenAI e aponta fragilidades em novas arquiteturas como o Model Context Protocol (MCP)
Até 2028, 25% de todas as aplicações corporativas de Inteligência Artificial Generativa (GenAI) deverão enfrentar pelo menos cinco incidentes de segurança menores por ano, segundo levantamento da Gartner. O número representa um crescimento significativo em relação a 2025, quando essa proporção era de 9%.
Os dados fazem parte de uma análise da consultoria sobre o avanço da adoção de GenAI nas organizações e seus impactos em segurança, indicando que a ampliação do uso dessas tecnologias tende a elevar a exposição a riscos.
Crescimento da adoção amplia superfície de ataque
De acordo com o estudo, a evolução das aplicações de IA Agêntica, especialmente com o uso de tecnologias como o Model Context Protocol (MCP), deve introduzir novos vetores de ataque em um ambiente ainda marcado por práticas de segurança consideradas imaturas.
“O MCP foi desenvolvido prioritariamente para interoperabilidade, facilidade de uso e flexibilidade; portanto, erros de segurança podem ocorrer sem a supervisão contínua em relação à IA Agêntica”, afirma Aaron Lord, diretor analista sênior do Gartner. “Por isso, a taxa de incidentes de segurança menores em aplicações de GenAI deve crescer em um ritmo acelerado. Eventualmente, veremos 15% de todas as aplicações corporativas de GenAI sofrerem pelo menos um grande incidente de segurança por ano até 2029, contra 3% em 2025.”
Riscos operacionais e necessidade de revisão de segurança
O levantamento aponta que, à medida que cresce o uso de estruturas como o MCP, líderes de engenharia de software precisarão lidar com riscos que vão desde exposição de dados até vulnerabilidades em componentes de terceiros amplamente utilizados.
Entre as recomendações estão a adoção de processos rigorosos de revisão de segurança, priorização de casos de uso de menor risco e mitigação de padrões de ameaças conhecidos, além do envolvimento de especialistas de domínio na definição de proteções para aplicações de IA.
Arquitetura favorece velocidade, mas amplia vulnerabilidades
Segundo o Gartner, o design do MCP prioriza interoperabilidade e agilidade no desenvolvimento, e não a aplicação de segurança por padrão. Isso pode gerar falhas durante o uso cotidiano, especialmente em cenários que combinam acesso a dados sensíveis, consumo de conteúdo não confiável e comunicação externa.
O estudo classifica essas combinações como de alto risco, recomendando que sejam tratadas como “zona proibida” devido à possibilidade de exfiltração de dados.
“Os líderes de engenharia de software devem colaborar com as equipes de dados, segurança e infraestrutura para criar uma revisão formal de segurança para os casos de uso de MCP, para priorizar padrões de baixo risco e excluir explicitamente combinações de alto risco”, diz Lord.
De acordo com o executivo, os líderes de engenharia devem reforçar essas questões com práticas robustas de autenticação e autorização adaptadas especificamente para agentes de IA, e não herdadas de funções de usuários humanos, a fim de manter as permissões estritamente delimitadas. Segundo ele, a aplicação de medidas de mitigação de padrões de ameaças bem conhecidas, como a proteção contra injeção de conteúdo e o reforço da supervisão de componentes MCP de terceiros, ajudaria a fechar as lacunas mais comuns antes que possam ser exploradas.
A consultoria também destaca que a mitigação de riscos passa pelo entendimento de antipadrões que podem gerar vulnerabilidades, incluindo ataques de injeção de conteúdo, ameaças à cadeia de suprimentos e exposição indevida de dados.
“Os líderes de engenharia de software precisarão estabelecer uma propriedade orientada por domínio para servidores MCP, para implementar barreiras de segurança orientadas por domínio”, afirma Lord. “A crescente complexidade da IA Agêntica acabará levando a complicações no gerenciamento do acesso aos dados e na manutenção da conformidade.”

