Gartner alerta: 25% das aplicações corporativas de IA Generativa terão incidentes de segurança recorrentes até 2028

imagem gerada por IA

Flavio Sartori

A adoção acelerada de Inteligência Artificial Generativa (GenAI) no ambiente corporativo traz consigo um risco crescente e ainda pouco gerenciado: até 2028, um quarto de todas as aplicações empresariais de GenAI sofrerá pelo menos cinco incidentes de segurança menores por ano. O alerta é do Gartner, empresa global de pesquisa e consultoria em tecnologia, e representa um salto expressivo em relação aos 9% registrados em 2025.

A projeção se torna ainda mais preocupante quando se olha para o horizonte seguinte: até 2029, 15% dessas aplicações deverão enfrentar ao menos um grande incidente de segurança por ano, contra apenas 3% atualmente.

No centro dessa vulnerabilidade está o Model Context Protocol (MCP), um padrão emergente que permite a agentes de IA acessar ferramentas, dados e sistemas externos de forma integrada. O problema é que o MCP foi projetado com foco em interoperabilidade e velocidade de desenvolvimento — não em segurança por padrão.

"O MCP foi desenvolvido prioritariamente para interoperabilidade, facilidade de uso e flexibilidade; portanto, erros de segurança podem ocorrer sem a supervisão contínua em relação à IA Agêntica", afirma Aaron Lord, Diretor Analista Sênior do Gartner.

Na prática, isso significa que agentes de IA podem, no mesmo fluxo de trabalho, acessar dados sensíveis, consumir conteúdo não confiável e se comunicar externamente — uma combinação que o Gartner classifica como "zona proibida" pelo alto risco de exfiltração de dados.

  • Injeção de conteúdo — manipulação de entradas para desviar o comportamento do agente
  • Ameaças à cadeia de suprimentos — vulnerabilidades ocultas em componentes MCP de terceiros
  • Escalada de privilégios — quando a IA tenta "ajudar" e acaba acessando recursos além do permitido
  • Divulgação de dados sensíveis — exposição não intencional durante interações normais

O Gartner recomenda que líderes de engenharia de software adotem medidas proativas antes que essas lacunas sejam exploradas:

  • Criar revisões formais de segurança específicas para casos de uso com MCP
  • Priorizar padrões de baixo risco e excluir explicitamente combinações de alto risco
  • Implementar autenticação e autorização desenhadas para agentes de IA — e não simplesmente herdadas de perfis de usuários humanos
  • Estabelecer propriedade orientada por domínio para servidores MCP, com especialistas de cada área definindo as proteções antes de liberar acesso

"Os especialistas do domínio devem predefinir suas proteções antes de permitir que clientes MCP acessem seus dados e recursos", reforça Lord

Comentários