- Tenable twierdzi, że znalazł siedem błędów związanych z szybkim wstrzykiwaniem w ChatGPT-4o, nazwanych łańcuchem ataków „HackedGPT”
- Luki obejmują ukryte polecenia, trwałość pamięci i obejścia zabezpieczeń za pośrednictwem zaufanych opakowań
- OpenAI naprawiło pewne problemy w GPT-5; inne pozostają, co skłania do wezwań do silniejszej obrony
Badacze bezpieczeństwa twierdzą, że ChatGPT ma wiele problemów związanych z bezpieczeństwem, które mogą umożliwić cyberprzestępcom wstrzykiwanie ukrytych poleceń, kradzież wrażliwych danych i rozpowszechnianie dezinformacji w narzędziu AI.
Niedawno eksperci ds. bezpieczeństwa w Tenable przetestowali ChatGPT-4o OpenAI i znaleźli siedem luk, które wspólnie nazwali HackedGPT. Obejmuje to:
- Pośrednie szybkie wstrzykiwanie przez zaufane strony (ukrywanie poleceń na stronach publicznych, które GPT może nieświadomie śledzić podczas czytania treści)
- Pośredni szybki zastrzyk 0 kliknięć w kontekście wyszukiwania (GPT przeszukuje sieć i znajduje stronę z ukrytym złośliwym kodem. Zadanie pytania może nieświadomie spowodować, że GPT wykona instrukcje)
- Szybki zastrzyk jednym kliknięciem (typ phishingu, w którym użytkownik klika łącze z ukrytymi poleceniami GPT)
- Omijanie mechanizmu bezpieczeństwa (opakowanie złośliwych linków w zaufane opakowania, oszukiwanie GPT w celu wyświetlenia linków użytkownikowi)
- Wstrzykiwanie czatu: (Atakujący mogą użyć systemu SearchGPT do wstawienia ukrytych instrukcji, które ChatGPT później odczyta, skutecznie wprowadzając się).
- Ukrywanie złośliwej zawartości (złośliwe instrukcje można ukryć w kodzie lub tekście przeceny)
- Trwały zastrzyk pamięci (w zapisanych rozmowach mogą zostać umieszczone złośliwe instrukcje, powodując powtarzanie poleceń modelu i ciągły wyciek danych).
Wzywa do wzmocnienia obrony
OpenAI, firma stojąca za ChatGPT, naprawiła niektóre wady swojego modelu GPT-5, ale nie wszystkie, narażając miliony ludzi na potencjalne zagrożenia.
Badacze bezpieczeństwa od dawna ostrzegają przed atakami polegającymi na szybkim wstrzykiwaniu.
Google Gemini jest najwyraźniej podatny na podobny problem, ponieważ jest zintegrowany z Gmailem, ponieważ użytkownicy mogą odbierać e-maile z ukrytymi monitami (na przykład zapisanymi białą czcionką na białym tle), a jeśli użytkownik poprosi narzędzie o cokolwiek związanego z tą wiadomością e-mail, może ono przeczytać ukryty monit i podjąć działania zgodnie z nim.
Chociaż w niektórych przypadkach twórcy narzędzi mogą umieścić poręcze, w większości przypadków to użytkownik musi zachować ostrożność i nie dać się nabrać na te sztuczki.
„Zhakowany GPT obnaża zasadniczą słabość w sposobie, w jaki duże modele językowe oceniają, jakim informacjom można ufać” – powiedział Moshe Bernstein, starszy inżynier ds. badań w Tenable.
„Pojedynczo te wady wydają się niewielkie, ale razem tworzą kompletny łańcuch ataków, od wstrzykiwania i unikania po kradzież danych i utrzymywanie się. To pokazuje, że systemy sztucznej inteligencji to nie tylko potencjalne cele; można je przekształcić w narzędzia ataku, które po cichu zbierają informacje z codziennych rozmów lub przeglądania”.
Tenable powiedział, że OpenAI naprawiło „niektóre ze zidentyfikowanych luk” i dodał, że „kilka” jest nadal aktywnych w ChatGPT-5, nie precyzując, które z nich. W rezultacie firma zaleca dostawcom sztucznej inteligencji wzmocnienie zabezpieczeń przed szybkim wstrzykiwaniem poprzez sprawdzenie, czy mechanizmy bezpieczeństwa działają zgodnie z przeznaczeniem.
Najlepszy program antywirusowy na każdą kieszeń
Obserwuj TechRadar w Google News I dodaj nas jako preferowane źródło aby otrzymywać wiadomości od ekspertów, recenzje i opinie w swoich kanałach. Koniecznie kliknij przycisk Obserwuj!
I oczywiście Ty też możesz Śledź TechRadar na TikTok aby otrzymywać aktualności, recenzje, rozpakowywania wideo i otrzymywać od nas regularne aktualizacje pod adresem WhatsApp Również.



