
Blog, Pitang.

Marcelo Almeida - REVL
IA e Cibersegurança em 2026: o que muda quando máquinas protegem (e atacam) máquinas
Cibersegurança
Estamos entrando em uma fase em que a IA deixa de ser apenas uma
ferramenta e passa a atuar como agente, tanto na defesa quanto no
ataque. Decisões são tomadas em velocidade de máquina, ações acontecem
sem intervenção humana e a superfície de risco se amplia na mesma
proporção em que a eficiência aumenta.
Relatórios recentes, como o da Palo Alto Networks, trazem previsões
para 2026 que ajudam a dar nome a esse movimento. Não como verdades
definitivas, mas como sinais claros de mudanças que já começam a se
manifestar no cotidiano de quem trabalha com cibersegurança.
Entender essas mudanças não é um exercício teórico. É uma condição para continuar operando com confiança em ambientes cada vez mais automatizados.
Quando a identidade deixa de ser confiável
Uma das tendências mais relevantes nesse contexto é a fragilização da
identidade digital. Com deepfakes cada vez mais sofisticados e agentes
autônomos operando em escala, distinguir o que é real do que foi
fabricado se torna um desafio concreto.
Imagine receber um áudio, ou mesmo um vídeo, do CEO da sua empresa
solicitando uma ação urgente. A voz é idêntica. A imagem convincente,
o contexto plausível. Ainda assim, não é real.
Esse tipo de situação já acontece, e a tendência é que se torne cada
vez mais comum e mais difícil de identificar. O desafio vai além da
tecnologia: trata-se de como estabelecer confiança em ambientes onde a
autenticidade pode ser simulada com alto grau de precisão.
O novo alvo: agentes de IA com acesso privilegiado
Outro ponto destacado no relatório diz respeito aos próprios agentes
de IA que as empresas vêm adotando. Sistemas desenhados para operar de
forma autônoma, com amplo acesso a dados e processos críticos,
tornam-se alvos naturais.
Além das técnicas de phishing, que exploram o fator humano, agora
surge também a possibilidade de comprometer diretamente esses
agentes, sem interação humana. Um sistema criado para apoiar decisões
pode, se manipulado, causar danos significativos. E, dada a velocidade
com que agentes de IA operam, isso pode acontecer sem que ninguém
perceba a tempo.
Não se trata de abandonar automação ou agentes inteligentes. Trata-se
de reconhecer que novos recursos trazem novos riscos e que esses
riscos precisam ser considerados desde o desenho da solução.
Responsabilidade que vai além do técnico
O relatório aponta ainda um dado preocupante: apenas 6% das
organizações possuem uma estratégia madura de segurança voltada
especificamente para inteligência artificial.
Isso significa que a maioria das empresas está adotando agentes e
ferramentas de IA sem políticas claras de governança, monitoramento ou
limites de atuação. Não é exatamente uma falha, é um reflexo da
velocidade com que a tecnologia avançou.
Mas a ausência de diretrizes tende a cobrar seu preço. Quanto mais
tarde essas políticas forem definidas, maior será o esforço para
corrigir o que já estiver em produção.
O que tudo isso significa na prática
Se há uma mensagem central nessas previsões, é que segurança não pode
ser tratada como um tema isolado. Ela precisa estar integrada à forma
como a empresa utiliza tecnologia, da escolha de ferramentas à
governança de dados, passando pela capacitação das pessoas.
Não existe uma solução única para esse cenário. Mas existe uma
postura clara: em um mundo onde a IA acelera tanto a defesa quanto o
ataque, a vantagem está com quem consegue antecipar movimentos,
estabelecer limites e agir de forma integrada.
O papel da REVL nesse cenário
Na REVL Security, braço de cibersegurança da Pitang, partimos de um
princípio simples: não é possível proteger aquilo que não se enxerga
com clareza.
Revelar o que está oculto, seja uma falha técnica, uma lacuna de
processo ou um risco emergente, é o primeiro passo para qualquer
estratégia de segurança consistente. Em um contexto em que agentes de
IA ganham autonomia e velocidade, essa visibilidade deixa de ser um
diferencial e passa a ser um requisito.
