A ascensão da inteligência artificial (IA) transformou profundamente a forma como empresas operam, inovam e se comunicam. Porém, à medida que ferramentas baseadas em IA se popularizam, de assistentes de escrita a plataformas de geração de conteúdo, uma ameaça silenciosa cresce dentro das organizações: o Shadow AI.
Trata-se do uso não autorizado ou não monitorado de aplicações de IA por colaboradores, sem o conhecimento da equipe de TI ou segurança da informação. Segundo o relatório The State of AI Cyber Security (2025), produzido pela Check Point Research, mais da metade das redes corporativas (51%) já utilizam serviços de GenAI regularmente. Frequentemente sem políticas de governança bem definidas ou qualquer tipo de controle formal.
Neste artigo, você entenderá o que é Shadow AI, os riscos de segurança e conformidade que ele representa e por que a governança de IA deve ser uma prioridade para empresas de todos os portes.
O que Shadow IA é e porque ele prolifera tão rapidamente
O conceito de Shadow AI se refere à adoção espontânea de ferramentas de inteligência artificial por usuários finais dentro de uma organização (normalmente com boas intenções e voltada para aumento de produtividad) mas sem o consentimento ou supervisão da equipe de segurança da informação.
De acordo com o relatório da Check Point, os serviços mais populares entre usuários corporativos são:
- ChatGPT (37%)
- Microsoft Copilot (27%)
- Grammarly (25%)
- Vidyard (21%)
- DeepL (18%)
Essas ferramentas estão cada vez mais presentes no cotidiano das equipes, utilizadas para redigir e-mails, criar conteúdo, fazer apresentações, traduzir documentos, entre outras funções. Contudo, esse uso frequente, e muitas vezes invisível,
expõe as empresas a riscos de vazamento de dados e violações de conformidade.
O que os dados revelam sobre vazamento de informações
O relatório mostra que 1 em cada 80 prompts enviados a serviços de GenAI a partir de dispositivos corporativos continha dados de alto risco, ou seja, informações confidenciais que, se comprometidas, podem acarretar sérias consequências jurídicas e reputacionais.
Além disso, outros 7,5% dos prompts (1 em cada 13) continham informações potencialmente sensíveis, como dados de clientes, planos estratégicos, e-mails internos e informações financeiras.
Esses dados evidenciam que os riscos de Shadow AI não são apenas hipotéticos.Eles já estão acontecendo agora, em empresas reais, todos os dias.
Shadow AI é um novo tipo de Shadow IT (e mais perigoso)
Shadow AI é uma evolução do antigo problema do Shadow IT: o uso de softwares, aplicativos e dispositivos não autorizados dentro da empresa. A diferença fundamental está no tipo de ameaça envolvida.
No caso do Shadow AI, os riscos vão além da simples perda de controle sobre as ferramentas utilizadas:
- A IA aprende com os dados que recebe. Isso significa que informações corporativas inseridas em plataformas de GenAI podem ser armazenadas, processadas ou utilizadas de formas imprevistas.
- Nem todos os serviços têm políticas claras de segurança e privacidade. Muitos deles operam com armazenamento em nuvem em servidores de terceiros, em países com legislações diferentes da brasileira.
- A IA pode ser enganada. O relatório mostra que modelos como o ChatGPT e DeepSeek já foram usados por cibercriminosos, inclusive para gerar códigos maliciosos ou para manipular a IA com "prompt injection", extraindo dados sensíveis.
Ameaças reais: vazamentos, engenharia social e desinformação
O uso desgovernado de IA amplia a superfície de ataque das empresas. O relatório traz diversos casos em que cibercriminosos exploram falhas de segurança em serviços de IA:
- Plataformas falsas de IA (como versões clonadas de ChatGPT e DeepSeek) distribuindo malware, com aparência legítima, mas com o objetivo de roubar credenciais de acesso.
- Extensões maliciosas para navegador, como um plugin do Chrome que simulava o ChatGPT e sequestrava cookies de sessão de contas do Facebook.
- Ataques de engenharia social com deepfakes de áudio e vídeo, viabilizados por IA, que resultaram em fraudes milionárias. Um conhecido caso foi o de uma empresa britânica que perdeu £20 milhões após um executivo ser falsamente replicado em uma videoconferência ao vivo.
Esses ataques são alimentados por dados vazados, frequentemente originados de ambientes corporativos onde o uso de IA é feito sem controle. Isso reforça a urgência da implementação de uma política de governança de IA.
Como implementar governança de IA na prática
O primeiro passo para enfrentar o Shadow AI é visibilidade. A empresa precisa descobrir quais ferramentas estão sendo utilizadas dentro de sua rede e como os usuários estão interagindo com elas.
Segundo a Check Point, soluções como o GenAI Protect já permitem mapear e classificar o uso de IA na rede corporativa, identificando riscos e aplicando políticas de prevenção de perda de dados (DLP).
Outras medidas essenciais incluem:
- Auditoria e monitoramento contínuo de prompts enviados a ferramentas de GenAI;
- Criação de uma política clara sobre o uso de IA definindo ferramentas autorizadas, níveis de acesso e restrições;
- Treinamento de usuários, explicando os riscos de inserir dados sensíveis em plataformas de IA;
- Análise de risco e compliance de cada serviço utilizado, avaliando sua aderência à LGPD e a outras normas;
- Integração com soluções de segurança existentes, como CASBs (Cloud Access Security Brokers) e firewalls de nova geração.
Conclusão
O Shadow AI representa uma nova geração de riscos corporativos invisíveis, que exigem ações imediatas de conscientização, governança e tecnologia.
Os dados do relatório são claros: empresas que ignoram o uso espontâneo de IA por seus colaboradores já estão expostas a vazamentos de dados, perda de propriedade intelectual e riscos regulatórios. A solução não é proibir o uso de IA, mas sim integrá-la com segurança ao ecossistema da empresa.
Governar o uso de IA é hoje uma responsabilidade compartilhada entre as áreas de segurança, compliance, TI e recursos humanos. E quanto mais cedo essa conversa começar, menores serão os impactos futuros.








