Estudo da Gartner levanta que tecnologia será essencial para garantir interações seguras e confiáveis com sistemas autônomos de Inteligência Artificial
O Gartner, Inc. estima que os chamados agentes guardiões – tecnologias baseadas em Inteligência Artificial projetadas para supervisionar e proteger interações com outros agentes de IA – conquistarão entre 10% e 15% do mercado de IA agêntica até 2030. Essa previsão reflete o crescimento da superfície de riscos envolvida no uso de sistemas autônomos e semi-autônomos baseados em IA, que exigem níveis elevados de confiabilidade e segurança.
Esses agentes guardiões atuam como mecanismos de controle para garantir que decisões automatizadas estejam alinhadas com os objetivos organizacionais, operando tanto como assistentes em tarefas de revisão, análise e monitoramento, quanto como agentes com autonomia parcial ou total para formular planos de ação e intervir quando necessário.
“A IA agêntica levará a resultados indesejados se não for controlada com as proteções certas. Os agentes guardiões aproveitam um amplo espectro de recursos de IA agêntica e avaliações determinísticas baseadas em Inteligência Artificial para supervisionar e gerenciar toda a gama de capacidades do agente, equilibrando a tomada de decisões em tempo de execução com o gerenciamento de riscos”, ”, afirma Avivah Litan, vice-presidente analista distinta do Gartner.
Crescimento da adoção impulsiona a urgência por supervisão automatizada
Segundo uma pesquisa conduzida pelo Gartner com 147 CIOs e líderes de TI, durante webinar realizado em 19 de maio de 2025, 24% dos entrevistados já haviam implementado até uma dúzia de agentes de IA em suas organizações. Outros 4% relataram ter integrado mais de uma dúzia. Já 50% estão em fase de testes e experimentação, enquanto 17% ainda não iniciaram, mas planejam adotar a tecnologia até o final de 2026.
O estudo mostra que os usos predominantes se concentram em funções administrativas internas, como TI, recursos humanos e contabilidade (52%). Outras aplicações incluem atendimento ao cliente e funções voltadas ao consumidor (23%).
À medida que cresce a adoção, também se expandem os riscos. Os agentes de IA podem ser afetados por ameaças como:
Manipulação de dados ou entradas, resultando em decisões enviesadas;
Roubo de credenciais, levando ao controle indevido dos agentes;
Interações com fontes falsas ou criminosas, que distorcem as ações dos agentes;
Comportamentos não intencionais, causados por falhas internas ou estímulos externos.
Segundo Litan, a sofisticação dos sistemas multiagentes exige uma mudança de paradigma: “A rápida aceleração e o aumento da autonomia dos agentes de IA exigem uma mudança para além da supervisão humana tradicional. […] Esse cenário de ameaças crescentes ressalta a necessidade urgente de agentes guardiões, que fornecem supervisão, controle e segurança automatizados para aplicações e agentes de IA.”
Três formas de atuação dos agentes guardiões
O Gartner destaca três formas principais de uso dos agentes guardiões:
Revisores: Avaliam conteúdos e decisões gerados por IA quanto à precisão e adequação.
Monitores: Acompanham o comportamento dos agentes para análise humana ou automatizada.
Protetores: Intervêm de forma autônoma para ajustar ou bloquear ações inadequadas durante a operação.
Essa camada adicional de supervisão será fundamental diante da expectativa de que 70% dos aplicativos de IA integrarão sistemas multiagentes até 2028, segundo a consultoria.
Metodologia
Os dados foram coletados em 19 de maio de 2025, durante um webinar do Gartner com 147 CIOs e líderes de TI. A amostra inclui informações sobre o estágio de adoção de agentes de IA e suas aplicações prioritárias nas organizações.