IA do Snowflake Cortex Escapa de Sandbox e Executa Malware
Vulnerabilidade em IA permite execução de código

IA do Snowflake Cortex Escapa de Sandbox e Executa Malware
18 de março de 2026
A inteligência artificial (IA) está transformando a maneira como as empresas operam, mas também introduz novos vetores de ataque. Uma recente vulnerabilidade descoberta no Snowflake Cortex Code CLI demonstra essa realidade, permitindo a execução de malware através de uma brecha na validação de comandos e escapando do ambiente de sandbox. O incidente levanta sérias questões sobre a segurança de ferramentas de IA e a necessidade de rigorosos controles de validação.
O Snowflake Cortex Code CLI, uma ferramenta de linha de comando que auxilia na codificação e integração com o Snowflake, foi comprometido por uma falha que permitiu a instalação e execução de scripts maliciosos. A vulnerabilidade explorada permitiu contornar as camadas de segurança, incluindo a aprovação humana e as restrições do sandbox, expondo dados e sistemas a riscos significativos.
Como o Ataque Funcionou
A vulnerabilidade residia no sistema de validação de comandos do Cortex Code. Atacantes conseguiram inserir comandos maliciosos dentro de expressões de substituição de processo (<()), que não eram devidamente validadas pelo sistema. Essa brecha permitiu a execução de comandos arbitrários sem a necessidade de aprovação do usuário, mesmo quando o sandbox estava ativado.
O ataque explorou a capacidade do Cortex Code de interagir com repositórios de código de terceiros. Um script malicioso foi oculto no arquivo README de um repositório comprometido. Quando o usuário solicitava ajuda com o código, a IA executava o script, que explorava a falha para baixar e executar código adicional, obtendo acesso a credenciais armazenadas em cache e permitindo a exfiltração de dados ou a destruição de tabelas no Snowflake.

O Snowflake agiu rapidamente para corrigir a vulnerabilidade, lançando a versão 1.0.25 do Cortex Code CLI com a correção implementada. A empresa também divulgou um aviso de segurança detalhado, alertando os usuários sobre os riscos e fornecendo orientações sobre como mitigar a ameaça.
Implicações para a Segurança da IA
Este incidente serve como um alerta crucial para a indústria. A dependência crescente de ferramentas de IA, como agentes de IA e chatbots, exige uma abordagem proativa à segurança. A validação rigorosa de comandos, a segmentação de rede e o controle de acesso são medidas essenciais para proteger os sistemas contra ataques. Além disso, a falta de “trust” em workspaces, comum em IDEs, contribuiu para o sucesso do ataque.
Para empresas que utilizam modelos de linguagem grandes (LLMs) e agentes de IA, como os oferecidos pela Toolzz AI, é fundamental implementar políticas de segurança robustas e monitorar continuamente as atividades da IA em busca de comportamentos suspeitos. A utilização de plataformas que oferecem recursos de segurança avançados, como a Toolzz, pode ajudar a mitigar os riscos associados à IA.
Preocupado com a segurança da sua IA? Descubra como os Agentes de IA da Toolzz podem proteger seus dados e sistemas. Solicite uma demonstração e veja na prática!
Próximos Passos e Lições Aprendidas
O incidente do Snowflake Cortex AI destaca a importância de uma abordagem de segurança em camadas para a IA. As empresas devem investir em ferramentas e processos que permitam identificar e mitigar vulnerabilidades antes que elas sejam exploradas. Isso inclui a realização de testes de penetração regulares, a implementação de sistemas de detecção de intrusão e a educação dos funcionários sobre os riscos de segurança da IA.
Além disso, é fundamental que os fornecedores de IA adotem práticas de desenvolvimento seguro e forneçam atualizações de segurança regulares para seus produtos. A colaboração entre a indústria, os pesquisadores de segurança e os órgãos governamentais é essencial para garantir que a IA seja desenvolvida e utilizada de forma segura e responsável.
Com a crescente adoção da IA, a segurança se tornará um fator crítico de sucesso. As empresas que priorizarem a segurança da IA estarão melhor posicionadas para aproveitar os benefícios dessa tecnologia transformadora. A Toolzz, com suas soluções de IA personalizadas e foco em segurança, pode auxiliar as empresas nessa jornada.
Proteja sua empresa contra ameaças de IA.
Experimente o Agente AI de Suporte da ToolzzDemo Bots
Explore a demo interativa do Toolzz Bots, uma poderosa plataforma no-code que permite a criação de chatbots que operam 24 horas por dia, 7 dias por semana.














