Tech

Badacze twierdzą, że ChatGPT ma wiele niepokojących luk w zabezpieczeniach – oto, co odkryli


  • Tenable twierdzi, że znalazł siedem błędów związanych z szybkim wstrzykiwaniem w ChatGPT-4o, nazwanych łańcuchem ataków „HackedGPT”
  • Luki obejmują ukryte polecenia, trwałość pamięci i obejścia zabezpieczeń za pośrednictwem zaufanych opakowań
  • OpenAI naprawiło pewne problemy w GPT-5; inne pozostają, co skłania do wezwań do silniejszej obrony

Badacze bezpieczeństwa twierdzą, że ChatGPT ma wiele problemów związanych z bezpieczeństwem, które mogą umożliwić cyberprzestępcom wstrzykiwanie ukrytych poleceń, kradzież wrażliwych danych i rozpowszechnianie dezinformacji w narzędziu AI.

Niedawno eksperci ds. bezpieczeństwa w Tenable przetestowali ChatGPT-4o OpenAI i znaleźli siedem luk, które wspólnie nazwali HackedGPT. Obejmuje to:

  • Pośrednie szybkie wstrzykiwanie przez zaufane strony (ukrywanie poleceń na stronach publicznych, które GPT może nieświadomie śledzić podczas czytania treści)
  • Pośredni szybki zastrzyk 0 kliknięć w kontekście wyszukiwania (GPT przeszukuje sieć i znajduje stronę z ukrytym złośliwym kodem. Zadanie pytania może nieświadomie spowodować, że GPT wykona instrukcje)
  • Szybki zastrzyk jednym kliknięciem (typ phishingu, w którym użytkownik klika łącze z ukrytymi poleceniami GPT)
  • Omijanie mechanizmu bezpieczeństwa (opakowanie złośliwych linków w zaufane opakowania, oszukiwanie GPT w celu wyświetlenia linków użytkownikowi)
  • Wstrzykiwanie czatu: (Atakujący mogą użyć systemu SearchGPT do wstawienia ukrytych instrukcji, które ChatGPT później odczyta, skutecznie wprowadzając się).
  • Ukrywanie złośliwej zawartości (złośliwe instrukcje można ukryć w kodzie lub tekście przeceny)
  • Trwały zastrzyk pamięci (w zapisanych rozmowach mogą zostać umieszczone złośliwe instrukcje, powodując powtarzanie poleceń modelu i ciągły wyciek danych).

Wzywa do wzmocnienia obrony

Enlace de origen