Haker dodał do Amazon Q komunikat umożliwiający usuwanie plików i danych w chmurze

Niedawno ujawniono lukę w zabezpieczeniach asystenta kodowania AI firmy Amazon, „Q”, zintegrowanego z VS Code. Incydent, zgłoszony przez 404 Media, ujawnił lukę w protokołach bezpieczeństwa Amazon, umożliwiającą hakerowi wstawianie złośliwych poleceń do publicznie opublikowanej aktualizacji.
Haker, korzystając z tymczasowego konta GitHub, zdołał wysłać żądanie ściągnięcia, które przyznało mu dostęp administracyjny. W ramach tej nieautoryzowanej aktualizacji osadzone zostały destrukcyjne instrukcje, które nakazywały asystentowi AI potencjalnie usuwanie plików użytkownika i czyszczenie środowisk Amazon Web Services (AWS).
Mimo że te polecenia miały na celu rejestrowanie działań w pliku o nazwie /tmp/CLEANER.LOG i były dość rygorystyczne, Amazon podobno połączył je i udostępnił zagrożoną wersję bez wykrycia.
Firma później usunęła wadliwą aktualizację ze swoich rejestrów bez publicznego ogłoszenia, co podważa transparentność. Corey Quinn, główny ekonomista ds. chmury w The Duckbill Group, wyraził sceptycyzm wobec oświadczenia Amazona, że „bezpieczeństwo jest naszym najwyższym priorytetem” w świetle tego wydarzenia.
„Jeśli tak to wygląda, gdy bezpieczeństwo jest na pierwszym miejscu, to nie mogę się doczekać, co się stanie, gdy znajdzie się na drugim miejscu” – napisał Quinn w swoim poście na LinkedIn.
Sedno problemu tkwi w sposobie, w jaki haker zmanipulował żądanie ściągnięcia (pull request) z otwartego źródła. W ten sposób udało mu się wstrzyknąć polecenia do asystenta kodowania Q firmy Amazon . Chociaż mało prawdopodobne było, aby instrukcje te wykonały się automatycznie bez bezpośredniej interakcji z użytkownikiem, incydent ten ujawnił w sposób krytyczny, jak agenci sztucznej inteligencji mogą stać się cichymi nosicielami ataków na poziomie systemu.
Ujawniono lukę w procesie weryfikacji kodu zintegrowanego z systemami produkcyjnymi, zwłaszcza w przypadku narzędzi opartych na sztucznej inteligencji. Celem złośliwego kodu było wykorzystanie możliwości sztucznej inteligencji do przeprowadzania destrukcyjnych działań w systemie użytkownika i zasobach chmurowych.
Wczorajszy incydent z Amazon Q był sygnałem ostrzegawczym, pokazującym, w jaki sposób agenci AI mogą paść ofiarą ataków. PromptKit stara się rozwiązać podobne problemy i zapobiec ich wystąpieniu w przyszłości.
przeczytaj cały post👇 https://t.co/atOWfilWFq
W odpowiedzi na te luki w zabezpieczeniach firma Jozu wydała nowe narzędzie o nazwie „PromptKit”. System ten, dostępny za pomocą jednego polecenia, oferuje lokalny serwer proxy odwrotny do rejestrowania ruchu zgodnego z OpenAI oraz udostępnia interfejs wiersza poleceń (CLI) i tekstowy interfejs użytkownika (TUI) do przeglądania, tagowania, porównywania i publikowania monitów.
Jozu ogłosił na X.com, że PromptKit to lokalne narzędzie typu open source, którego celem jest zapewnienie audytowalnego i bezpiecznego w środowisku produkcyjnym zarządzania natychmiastowymi danymi, rozwiązując w ten sposób problem ryzyka systemowego związanego ze wzrostem wykorzystania generatywnej sztucznej inteligencji.
Dzisiaj udostępniamy pierwszą wersję Jozu PromptKit→ narzędzia lokalnego do przechwytywania, przeglądania i zarządzania interakcjami z monitami LLM. Zapewnia ono kontrolowane przez zasady przepływy pracy dla zweryfikowanych, audytowalnych artefaktów monitowych w środowisku produkcyjnym
Można wypróbować za darmo i korzystać z oprogramowania typu open source. pic.twitter.com/0Up4mc1Vy9
— Jozu (@Jozu_AI) 24 lipca 2025 r
Görkem Ercan, dyrektor techniczny Jozu, powiedział Hackread.com, że PromptKit został zaprojektowany, aby wypełnić lukę między natychmiastowym eksperymentowaniem a wdrożeniem. Ustanawia on kontrolowany przez politykę przepływ pracy, gwarantując, że tylko zweryfikowane i zweryfikowane artefakty natychmiastowego działania, w przeciwieństwie do surowego, niezweryfikowanego tekstu, który wpłynął na AWS, dotrą do produkcji.
Ercan podkreślił, że narzędzie to zastąpiłoby nieudany proces weryfikacji ludzkiej rygorystycznym procesem opartym na zasadach i podpisach, skutecznie wychwytując złośliwe zamiary jeszcze przed ich uruchomieniem.
HackRead