O avanço da IA generativa transformou profundamente a maneira como empresas operam, criam e se protegem. O que começou como uma revolução em produtividade e inovação também se tornou um novo vetor de risco no cenário de cibersegurança. Os atacantes estão agora usando IA generativa para automatizar, escalar e sofisticar ataques, tornando-os mais convincentes e difíceis de detectar .
Segundo um relatório da Gartner de 2025, ataques direcionados a infraestruturas de IA cresceram significativamente. Se reflete assim uma tendência alarmante: 62% das organizações sofreram ataques de deepfake envolvendo engenharia social, e 29% relataram incidentes contra sua infraestrutura de IA corporativa.
Neste artigo explicaremos como a IA generativa está sendo usada em ataques cibernéticos, quais são os impactos para as organizações e quais medidas práticas podem ser adotadas para mitigar esses riscos.
Porque a IA Generativa muda o jogo para ciberataques
Como já sabemos, a IA generativa é um ramo da inteligência artificial capaz de criar novos conteúdos (como textos, imagens, vídeos e áudios cada vez mais realistas) a partir de grandes volumes de dados. Embora traga benefícios inegáveis para negócios e inovação, essa tecnologia também oferece novas ferramentas aos cibercriminosos.
Através dela é possível automatizar tarefas de ataque, reduzir custos e criar conteúdos falsos altamente convincentes, incluindo deepfakes usados em fraudes e golpes de engenharia social. O relatório da Gartner revela que 62% das organizações já enfrentaram ataques com deepfakes, enquanto 32% relataram tentativas de exploração contra sistemas de biometria de voz e 30% contra sistemas de reconhecimento facial.
Segundo a
Fortinet
em artigo publicado no início de 2025, a IA está democratizando o acesso ao cibercrime ao permitir que indivíduos com pouca ou nenhuma experiência em programação criem códigos maliciosos com mínimo esforço. A tecnologia também alimenta o crescimento do ecossistema de
“Cibercrime como Serviço”
(CaaS), no qual criminosos vendem ou alugam ferramentas, modelos e até serviços de deepfake.
Principais vetores de ataque que utilizam IA generativa
Os ciberataques impulsionados por IA generativa exploram diferentes vetores, que já foram inclusive detalhados em nosso blog:
1. Engenharia social e phishing aprimorado: A Darktrace observou um aumento de 135% em novos ataques de engenharia social nos primeiros meses de 2023, coincidindo com a popularização de ferramentas como o ChatGPT. Esses ataques são mais sofisticados, personalizados e difíceis de reconhecer.
2. Deepfakes e fraude de identidade: Vozes, rostos e vídeos falsos são usados para se passar por executivos, clientes ou parceiros de confiança, facilitando fraudes financeiras e manipulações internas.
3. Ataques à infraestrutura de IA: Modelos de IA e LLMs (grandes modelos de linguagem) são alvos diretos de manipulação de prompts, injeção de código e exploração de APIs. O Protocolo de Contexto de Modelo (MCP), por exemplo, criado para conectar agentes de IA a dados corporativos, ampliou a superfície de ataque ao permitir acesso mais profundo a sistemas internos.
4. Automação e escala de ataques: A IA reduz drasticamente os custos e o tempo necessários para lançar campanhas maliciosas em grande volume.
5. Exploração de assistentes corporativos: A Gartner identificou que assistentes de IA corporativos já se tornaram um dos principais alvos de ataques, com 32% das empresas relatando exploração de prompts de aplicativos de IA.
Impactos para as organizações
Os efeitos do uso de IA generativa em ataques cibernéticos são amplos e atingem desde a reputação até a estrutura operacional das empresas. Riscos reputacionais surgem quando deepfakes ou campanhas de desinformação afetam a credibilidade de uma marca. Riscos financeiros incluem fraudes, roubo de identidade e custos elevados de remediação. Além disso, há impactos operacionais diretos: os modelos de IA são agora parte essencial das infraestruturas empresariais. Quando comprometidos, afetam fluxos de dados, decisões automatizadas e até processos críticos.
O relatório da Gartner aponta que 67% dos líderes de segurança acreditam que os riscos emergentes da IA generativa exigem mudanças significativas nas estratégias atuais de defesa . Isso porque a adoção dessas tecnologias aumenta a superfície de ataque, exigindo que empresas protejam não apenas o uso da IA, mas também o modelo em si e os dados que o alimentam.
De acordo com pesquisa recente da Darktrace, 89% das equipes de segurança acreditam que as ameaças aprimoradas por IA terão impacto significativo em suas organizações nos próximos dois anos, mas 60% admitem não estar preparadas para enfrentá-las.
Por que as abordagens tradicionais de cibersegurança não são mais suficientes
O modelo tradicional de cibersegurança, baseado em “detectar e responder”, está se mostrando insuficiente diante da automação e adaptabilidade trazidas pela IA generativa. A própria Gartner destaca que a segurança reativa (DR-based cybersecurity) não será mais suficiente.
Os atacantes agora conseguem automatizar, aprender e adaptar suas estratégias em tempo real, o que exige das organizações defesas preditivas e antecipatórias. Além disso, os líderes de segurança precisam proteger não apenas usuários e dispositivos, mas também os modelos de IA, fluxos de dados e APIs corporativas, prevenindo que agentes maliciosos manipulem informações ou utilizem os sistemas de IA como ponto de entrada.
A implementação de controles de tempo de execução, governança de acesso e descoberta de agentes de IA não autorizados é altamente recomendada, justamente porque a maioria das falhas de segurança nesses modelos ocorre por falhas de controle de acesso.
Boas práticas para mitigar o impacto e se preparar
Levando em consideração todos esses desafios que surgem para as equipes de TI, as empresas precisam evoluir de uma postura reativa para uma estratégia proativa de segurança cibernética. Entre as medidas essenciais estão:
- Fortalecer os controles básicos de segurança, incluindo autenticação multifator e segregação de privilégios.
- Proteger modelos de IA corporativos, validando entradas e saídas, monitorando o uso de APIs e garantindo higienização de prompts.
- Treinar colaboradores para reconhecer ataques de engenharia social e deepfakes, reduzindo o risco de vazamentos acidentais.
- Implementar monitoramento de comportamento anômalo, detectando acessos suspeitos, uso de voz falsificada e padrões fora da norma.
- Adotar IA defensiva/preditiva, focando em “pre-emptive cybersecurity”, com capacidade de antecipar ameaças antes que ocorram.
- Criar políticas de governança de IA, definindo claramente os usos permitidos, limites e auditorias de segurança para modelos generativos.
- Realizar simulações de ataque (red teaming) com IA generativa para mapear vulnerabilidades.
Essas ações combinadas ajudam a reduzir a exposição e aumentam a resiliência das empresas frente a ameaças cada vez mais dinâmicas.
Conclusão
A IA generativa representa uma mudança estrutural no panorama da cibersegurança. Ao mesmo tempo que acelera a inovação, também amplia e sofistica a capacidade dos atacantes. O relatório já citado da Gartner inclusive mostra que 29% das organizações já sofreram ataques à infraestrutura de IA e que os deepfakes estão entre as principais ferramentas de fraude digital.
Proteger-se nesse novo cenário exige revisão contínua dos controles de segurança, proteção de modelos e dados, e capacitação constante das equipes. Empresas que desejam se antecipar às ameaças devem investir em monitoramento inteligente, governança de IA e estratégias preemptivas de defesa já que essas estratégias se tornaram pilares centrais de uma nova era de cibersegurança.
À medida que a IA generativa continua evoluindo, os ataques também evoluirão. A vigilância e a adaptação contínua serão, mais do que nunca, a chave para manter as organizações seguras em um mundo movido por algoritmos.










