Tech

Poznaj Aardvark, agenta bezpieczeństwa OpenAI do analizy kodu i łatania

Prezentacja OpenAI Mrównikautonomiczny agent do badań nad bezpieczeństwem oparty na GPT-5, teraz dostępny w prywatnej wersji beta.

Zaprojektowany, aby naśladować sposób, w jaki eksperci identyfikują i eliminują luki w oprogramowaniu, Aardvark oferuje wielofazowe podejście oparte na LLM dla ciągłego, 24-godzinnego/7/365 analiza kodu, walidacja eksploatacjiI generacja poprawek!

Pozycjonowany jako skalowalne narzędzie obronne dla nowoczesnych środowisk programistycznych, Aardvark jest testowany w wewnętrznych i zewnętrznych bazach kodu.

OpenAI odnotowuje wysoką powtarzalność i rzeczywistą skuteczność w identyfikowaniu znanych i syntetycznych luk w zabezpieczeniach, przy czym wczesne wdrożenia odkrywają wcześniej niewykryte problemy bezpieczeństwa.

Aardvark podąża za wczorajszym wydaniem modelu gpt-oss-safeguard OpenAI, rozszerzając niedawny nacisk firmy na systemy agentowe i zgodne z zasadami.

Projekt techniczny i działanie

Aardvark działa jako system agentowy, który stale skanuje repozytoria kodu źródłowego. W przeciwieństwie do konwencjonalnych narzędzi, które opierają się na fuzzingu lub analizie składu oprogramowania, Aardvark wykorzystuje myślenie LLM i możliwości wykorzystania narzędzi do interpretacji zachowania kodu i identyfikowania luk w zabezpieczeniach.

Symuluje pracę badacza bezpieczeństwa poprzez czytanie kodu, przeprowadzanie analizy semantycznej, pisanie i wykonywanie przypadków testowych oraz korzystanie z narzędzi diagnostycznych.

Jego proces przebiega według zorganizowanego, wielofazowego rurociągu:

  1. Modelowanie zagrożeń – Aardvark rozpoczyna analizę od wykorzystania całego repozytorium kodu w celu wygenerowania modelu zagrożenia. Model ten odzwierciedla wywnioskowane cele bezpieczeństwa i projekt architektoniczny oprogramowania.

  2. Skanowanie na poziomie zgłoszenia – Po wprowadzeniu zmian w kodzie Aardvark porównuje różnice z modelem zagrożeń repozytorium, aby wykryć potencjalne luki. Wykonuje również skanowanie historii przy pierwszym podłączeniu repozytorium.

  3. Piaskownica do walidacji – Odkryte luki są testowane w izolowanym środowisku w celu potwierdzenia możliwości wykorzystania. Zmniejsza to liczbę fałszywych alarmów i zwiększa dokładność raportów.

  4. Automatyczne łatanie – System integruje się z OpenAI Codex w celu generowania łatek. Proponowane poprawki są następnie sprawdzane i przesyłane za pomocą żądania ściągnięcia w celu zatwierdzenia przez programistę.

Aardvark integruje się z GitHub, Codex i popularnymi kanałami programistycznymi, aby zapewnić ciągłe, nieinwazyjne skanowanie bezpieczeństwa. Wszystkie spostrzeżenia są przeznaczone do weryfikacji przez człowieka, z jasnymi komentarzami i możliwością ponownego odtwarzania.

Wydajność i zastosowanie

Według OpenAI Aardvark działa od kilku miesięcy na wewnętrznych bazach kodu z wybranymi partnerami w wersji alfa.

W testach porównawczych na „złotych” repozytoriach – w których wstrzykiwane są znane i syntetyczne luki –Aardvark zidentyfikował 92% wszystkich problemów.

OpenAI podkreśla, że ​​kluczowymi wyróżnikami są jego dokładność i niski odsetek wyników fałszywie dodatnich.

Agent jest również wdrażany w projektach typu open source. Do tej pory odkrył wiele krytycznych problemów, w tym dziesięć luk z przypisanymi identyfikatorami CVE.

OpenAI stwierdza, że ​​wszystkie ustalenia zostały ujawnione w sposób odpowiedzialny, zgodnie z niedawno zaktualizowaną Polityką skoordynowanego ujawniania informacji, która preferuje współpracę zamiast sztywnych terminów.

W praktyce Aardvark odkrył złożone błędy wykraczające poza tradycyjne wady bezpieczeństwa, w tym błędy logiczne, niekompletne poprawki i zagrożenia prywatności. Sugeruje to szerszą użyteczność wykraczającą poza konteksty specyficzne dla bezpieczeństwa.

Integracja i wymagania

Podczas prywatnej wersji beta Aardvark jest dostępny tylko dla organizacji korzystających z usługi GitHub Cloud (github.com). OpenAI zaprasza beta testerów do składania aplikacji online poprzez wypełnienie formularza internetowego. Warunki udziału obejmują:

  • Integracja z chmurą GitHub

  • Zaangażowanie w interakcję z Aardvark i przekazywanie wysokiej jakości informacji zwrotnych

  • Akceptacja regulaminu i polityki prywatności wersji beta

OpenAI potwierdziło, że kod przesłany do Aardvarka w fazie beta nie zostanie wykorzystany do uczenia jego modeli.

Firma oferuje również pro bono skanowanie pod kątem luk w zabezpieczeniach wybranych niekomercyjnych repozytoriów open source, powołując się na swój zamiar przyczynienia się do poprawy stanu łańcucha dostaw oprogramowania.

Kontekst strategiczny

Premiera Aardvark sygnalizuje szerszy ruch OpenAI w kierunku agentycznych systemów AI z możliwościami specyficznymi dla domeny.

Podczas gdy OpenAI jest najbardziej znane ze swoich modeli ogólnego przeznaczenia (np. GPT-4 i GPT-5), Aardvark wpisuje się w rosnący trendf wyspecjalizowani agenci AI zaprojektowany do półautonomicznej pracy w środowisku rzeczywistym. W rzeczywistości dołącza teraz do dwóch innych aktywnych agentów OpenAI:

  • Agent ChatGPT, wprowadzony w lipcu 2025 r., który kontroluje wirtualny komputer i przeglądarkę internetową oraz może tworzyć i edytować typowe pliki produktywności

  • Codex — poprzednia nazwa modelu kodowania open source OpenAI, którą przyjęła i ponownie wykorzystała jako nazwę swojego nowego agenta kodującego AI opartego na wariancie GPT-5, wprowadzonego w maju 2025 roku.

Jednak agent skupiający się na bezpieczeństwie ma ogromny sens, zwłaszcza w obliczu rosnących wymagań stawianych zespołom ds. bezpieczeństwa.

Tylko w 2024 r. zgłoszono ponad 40 000 typowych luk i zagrożeń (CVE), a wewnętrzne dane OpenAI sugerują, że 1,2% wszystkich przesłanych kodów to błędy.

Pozycjonowanie Aardvark jako „najpierw obrońcy” sztucznej inteligencji jest zgodne z zapotrzebowaniem rynku na proaktywne narzędzia bezpieczeństwa, które ściśle integrują się z przepływami pracy programistów, a nie działają jako warstwy skanowania post-hoc.

Aktualizacje skoordynowanej polityki ujawniania informacji przez OpenAI jeszcze bardziej wzmacniają jej zaangażowanie w trwałą współpracę z programistami i społecznością open source, zamiast kłaść nacisk na raportowanie podatności na ataki przeciwnika.

Podczas gdy wczorajsza wersja oss-safeguard wykorzystuje rozumowanie oparte na łańcuchu myśli do stosowania zasad bezpieczeństwa podczas wnioskowania, Aardvark stosuje podobne rozumowanie LLM do zabezpieczania baz kodów programistycznych.

Razem narzędzia te sygnalizują odejście OpenAI od narzędzi statycznych w kierunku elastycznych, stale dostosowujących się systemów — jeden koncentruje się na moderowaniu treści, drugi na proaktywnym wykrywaniu luk w zabezpieczeniach i automatycznym łataniu w rzeczywistych środowiskach tworzenia oprogramowania.

Co to oznacza dla przedsiębiorstw i rynku CyberSec w przyszłości

Aardvark reprezentuje wejście OpenAI w zautomatyzowane badania bezpieczeństwa poprzez agentyczną sztuczną inteligencję. Łącząc zrozumienie języka GPT-5 z poprawkami Codexu i piaskownicami do walidacji, Aardvark oferuje zintegrowane rozwiązanie dla nowoczesnych zespołów programistycznych stojących w obliczu stale rosnącej złożoności bezpieczeństwa.

Chociaż obecnie znajduje się ona w ograniczonej wersji beta, wczesne wskaźniki wydajności sugerują potencjał szerszego zastosowania. Jeśli rozwiązanie Aardvark okaże się skuteczne na dużą skalę, może pomóc zmienić sposób, w jaki organizacje budują zabezpieczenia w środowiskach ciągłego rozwoju.

Dla menedżerów ds. bezpieczeństwa, których zadaniem jest zarządzanie reakcją na incydenty, wykrywaniem zagrożeń i codzienną ochroną – szczególnie tym, którzy pracują w ograniczonym zespole – Aardvark może służyć jako mnożnik siły. Jego autonomiczny proces walidacji i sugestie poprawek weryfikowalnych przez człowieka mogłyby usprawnić segregację i zmniejszyć zmęczenie alertami, umożliwiając mniejszym zespołom ds. bezpieczeństwa skupienie się na strategicznych incydentach zamiast na ręcznym skanowaniu i monitorowaniu.

Inżynierowie AI odpowiedzialni za integrowanie modeli z działającymi produktami mogą skorzystać na zdolności Aardvark do wykrywania błędów wynikających z subtelnych błędów logicznych lub niekompletnych poprawek, szczególnie w szybkich cyklach rozwoju. Ponieważ Aardvark śledzi zmiany na poziomie zatwierdzenia i śledzi je w oparciu o modele zagrożeń, może pomóc w zapobieganiu podatnościom wprowadzonym podczas szybkiej iteracji, bez spowalniania czasu dostarczania.

W przypadku zespołów zarządzających sztuczną inteligencją w środowiskach rozproszonych walidacja piaskownicy firmy Aardvark i pętle ciągłego sprzężenia zwrotnego mogą dobrze współpracować z potokami w stylu CI/CD dla systemów ML. Możliwość podłączenia do przepływów pracy GitHub sprawia, że ​​jest to kompatybilny dodatek do nowoczesnych zestawów operacji AI, zwłaszcza tych, które mają na celu zintegrowanie solidnych kontroli bezpieczeństwa z zautomatyzowanymi potokami bez dodatkowych kosztów.

Natomiast w przypadku zespołów zajmujących się infrastrukturą danych, które obsługują krytyczne potoki i narzędzia, możliwości inspekcji oparte na LLM firmy Aardvark mogą zapewnić dodatkową warstwę odporności. Luki w warstwach orkiestracji danych często pozostają niezauważone, dopóki nie zostaną wykorzystane; Ciągły proces przeglądu kodu Aardvark może wykryć problemy na wcześniejszym etapie cyklu rozwojowego, pomagając inżynierom danych zachować zarówno integralność systemu, jak i czas pracy.

W praktyce Aardvark reprezentuje zmianę w sposobie wykorzystania wiedzy specjalistycznej w zakresie bezpieczeństwa — nie tylko jako obwód obronny, ale jako stały, świadomy kontekstu uczestnik cyklu życia oprogramowania. Jego konstrukcja sugeruje model, w którym obrońcy nie są już ograniczeni rozmiarem, ale są wspierani przez współpracujących z nimi inteligentnych agentów.

Enlace de origen

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *