Hacker adicionou prompt ao Amazon Q para apagar arquivos e dados da nuvem

Uma vulnerabilidade de segurança surgiu recentemente envolvendo o assistente de codificação de IA da Amazon, "Q", integrado ao VS Code. O incidente, relatado pela 404 Media, revelou uma falha nos protocolos de segurança da Amazon, que permitiu que um hacker inserisse comandos maliciosos em uma atualização lançada publicamente.
O hacker, usando uma conta temporária do GitHub, conseguiu enviar uma solicitação de pull que lhe concedeu acesso administrativo. Nessa atualização não autorizada, instruções destrutivas foram incorporadas, instruindo o assistente de IA a potencialmente excluir arquivos do usuário e limpar ambientes da Amazon Web Services (AWS).
Apesar da natureza severa desses comandos, que também tinham como objetivo registrar as ações em um arquivo chamado /tmp/CLEANER.LOG, a Amazon supostamente fundiu e lançou a versão comprometida sem detecção.
Posteriormente, a empresa removeu a atualização falha de seus registros sem qualquer anúncio público, levantando questões sobre transparência. Corey Quinn, economista-chefe de nuvem do The Duckbill Group, expressou ceticismo em relação à declaração da Amazon de que "a segurança é nossa maior prioridade" diante deste evento.
“Se é assim que acontece quando a segurança é a principal prioridade, mal posso esperar para ver o que acontece quando ela for classificada em segundo lugar”, escreveu Quinn em sua publicação no LinkedIn.
O cerne da questão está na forma como o hacker manipulou uma solicitação de pull de código aberto. Ao fazer isso, eles conseguiram injetar comandos no assistente de codificação Q da Amazon . Embora fosse improvável que essas instruções fossem executadas automaticamente sem interação direta do usuário, o incidente expôs criticamente como agentes de IA podem se tornar portadores silenciosos de ataques em nível de sistema.
Isso destacou uma lacuna no processo de verificação de código integrado a sistemas de produção, especialmente para ferramentas baseadas em IA. O código malicioso visava explorar as capacidades da IA para realizar ações destrutivas no sistema e nos recursos da nuvem do usuário.
O incidente de ontem com o Amazon Q foi um alerta sobre como agentes de IA podem ser atacados. O PromptKit está tentando resolver problemas semelhantes e ajudar a evitar que eles aconteçam novamente.
leia a postagem completa👇 https://t.co/atOWfilWFq
Em resposta a essas vulnerabilidades, a Jozu lançou uma nova ferramenta chamada “PromptKit”. Esse sistema, acessível por meio de um único comando, oferece um proxy reverso local para registrar tráfego compatível com OpenAI e fornece uma interface de linha de comando (CLI) e uma interface de usuário baseada em texto (TUI) para explorar, marcar, comparar e publicar prompts.
Jozu anunciou no X.com que o PromptKit é uma ferramenta local, de código aberto, que visa fornecer gerenciamento de prompts auditável e seguro para produção, abordando um risco sistêmico à medida que a dependência de IA generativa cresce.
Hoje, estamos lançando uma primeira versão do Jozu PromptKit → uma ferramenta local para capturar, revisar e gerenciar interações de prompt do LLM. Ela garante fluxos de trabalho controlados por políticas para artefatos de prompt verificados e auditáveis em produção
Teste grátis e código aberto. pic.twitter.com/0Up4mc1Vy9
-Jozu (@Jozu_AI) 24 de julho de 2025
Görkem Ercan, CTO da Jozu, disse ao Hackread.com que o PromptKit foi projetado para preencher a lacuna entre a experimentação e a implantação de prompts. Ele estabelece um fluxo de trabalho controlado por políticas, garantindo que apenas artefatos de prompt verificados e auditados, ao contrário do texto bruto e não verificado que impactou a AWS, cheguem à produção.
Ercan enfatizou ainda que essa ferramenta teria substituído o processo de verificação humana fracassado por um fluxo de trabalho rigoroso, baseado em políticas e assinaturas, detectando efetivamente a intenção maliciosa antes que ela fosse lançada.
HackRead