Tech

Dzięki nowej aktualizacji GPT-5.1 OpenAI będziesz pisać szybciej i wydawać mniej — oto jak to zrobić

Elyse Beters Picaro / ZDNET

Śledź ZDNET: Dodaj nas jako preferowane źródło w Google.


Kluczowe dane ZDNET dla Van

  • GPT-5.1 przyspiesza kodowanie dzięki trybom adaptacyjnym i pozbawionym rozumowania.
  • Nowe szybkie buforowanie zmniejsza koszty API dla twórców aplikacji wbudowanych.
  • Nowe narzędzia zwiększają możliwości agentów AI w nowoczesnych środowiskach IDE.

OpenAI powraca z nową aktualizacją 5.1 do poprzedniego modelu z dużym językiem GPT-5. GPT-5 został wprowadzony w sierpniu, czyli kilkadziesiąt lat temu, w wersji naszego wszechświata wykorzystującej prędkość czasową sztucznej inteligencji.

OpenAI oczywiście wykorzystuje sztuczną inteligencję do szybszego kodowania. W końcu bierze udział w wyścigu z innymi dużymi graczami o wycenę wartą bilion dolarów. Dodatkowo udowodniono ponad wszelką wątpliwość, że kodowanie AI w rękach profesjonalnego programisty to niemal magiczny mnożnik mocy i akcelerator projektów.

(Ujawnienie: Ziff Davis, spółka matka ZDNET, złożyła pozew przeciwko OpenAI w kwietniu 2025 r., zarzucając mu naruszenie praw autorskich Ziff Davis w zakresie szkolenia i obsługi systemów sztucznej inteligencji).

Ponadto: GPT-5.1 OpenAI sprawia, że ​​ChatGPT jest „cieplejszy” i inteligentniejszy – jak działają teraz jego ulepszone tryby

Aby zapoznać się z zaletami GPT-5.1 dla użytkowników chatbotów konsumenckich, przeczytaj wyjaśnienie starszej redaktor Sabriny Ortiz. Jeśli jednak interesuje Cię wykorzystanie sztucznej inteligencji w swoim kodowaniu lub osadzonej w oprogramowaniu, czytaj dalej. Ta wersja ma pewne wymierne korzyści pod względem szybkości i oszczędności.

W tym artykule mówimy o GPT-5.1 w API. Innymi słowy, myślimy o wysłaniu zapytania do AI poprzez wywołanie funkcji programu i zwróceniu wyniku jako wartości zwracanej przez to wywołanie.

Ta funkcja sztucznej inteligencji oparta na interfejsie API działa w oprogramowaniu tworzonym przez programistów, ale ponieważ same narzędzia programistyczne również korzystają z interfejsu API w celu dostarczania informacji, zwiększa to użyteczność tych narzędzi. Jest to również korzystne dla programistów korzystających z agenta kodującego OpenAI Codex, ponieważ Codex jest teraz dostępny w wersji 5.1.

Ponadto: Najlepsze bezpłatne kursy i certyfikaty dotyczące sztucznej inteligencji do uaktualnienia w 2025 r. – a ja wypróbowałem je wszystkie

Na przykład JetBrains jest twórcą doskonałych narzędzi programistycznych. Chociaż odszedłem z platformy JetBrains, ponieważ VS Code jest znacznie częściej używany (i często muszę z Wami o tym rozmawiać), produkty JetBrains nadal należą do moich ulubionych. Tak naprawdę, używając VS Code, czasami brakuje mi niektórych funkcji JetBrains.

Dlatego było tak interesujące, gdy Denis Shiryaev, szef ekosystemu AI DevTools w JetBrains, opisał doświadczenia firmy z nową wersją GPT-5.1 w poście na blogu OpenAI. Powiedział: „GPT 5.1 to nie tylko kolejny LLM – to prawdziwie agentyczny, najbardziej naturalnie autonomiczny model, jaki kiedykolwiek testowałem”.

„Pisze jak Ty, koduje jak Ty, bez wysiłku wykonuje złożone instrukcje i doskonale radzi sobie z zadaniami front-end, idealnie wpasowując się w istniejącą bazę kodu” – powiedział.

Przyjrzyjmy się niektórym powodom, dla których GPT-5.1 spotyka się z tak entuzjastycznym przyjęciem.

Wnioskowanie adaptacyjne

Kodowanie przy użyciu GPT-5 wydało mi się niezwykle wydajne, ale czasami nudne. Bez względu na to, o co zapytałem sztuczną inteligencję, odpowiedź wymagała czasu. Odpowiedź na nawet najprostsze pytanie może zająć kilka minut. Dzieje się tak, ponieważ wszystkie zapytania wysyłały żądanie do tego samego modelu.

GPT-5.1 ocenia dane zapytanie i na podstawie tego, czy pytanie jest zasadniczo łatwe, czy trudne, dostosowuje, ile wysiłku poznawczego wkłada w odpowiedź. Oznacza to, że proste pytania nie będą już doświadczać opóźnienia, które było tak frustrujące podczas korzystania ze starszego modelu kodowania.

Oto zapytanie, które skierowałem do GPT-5 zaledwie kilka dni temu: „Sprawdź moją pracę. Zmieniłem nazwę EDD_SL_Plugin_Updater, aby każda wtyczka, która jej używa, miała unikalną nazwę, aby uniknąć konfliktów. Zaktualizowałem nazwę klasy w pliku aktualizacji, zaktualizowałem nazwę pliku aktualizacji, a następnie zaktualizowałem odniesienia do plików i klas w głównym pliku wtyczki. Czy możesz sprawdzić wtyczki i upewnić się, że nie ma błędów? Zgłoś się do mnie, jeśli coś znajdziesz i nie wprowadzisz żadnych zmian.

Ponadto: 10 szybkich trików ChatGPT, których używam – aby uzyskać najlepsze wyniki, szybciej

To duża prośba, wymaga, aby sztuczna inteligencja przeskanowała około 12 000 plików i przekazała mi analizę. Powinien użyć całej siły myślenia, jaką tylko może zgromadzić.

Natomiast zapytanie typu „Które polecenie WP-CLI wyświetla listę zainstalowanych wtyczek?” to bardzo prosta prośba. Zasadniczo jest to przeszukiwanie dokumentacji, które nie wymaga żadnej prawdziwej inteligencji. To tylko szybkie zapytanie, żeby zaoszczędzić czas, więc nie muszę przełączać się do przeglądarki i szukać w Google.

Odpowiedzi na szybkie pytania są szybsze, a proces wykorzystuje mniej tokenów. Tokeny są miarą ilości wykorzystanego przetwarzania. Wywołania API są rozliczane symbolicznie, co oznacza, że ​​zadawanie prostych pytań praktycznych będzie tańsze.

Jest jeszcze inny aspekt, który jest dość potężny, a mianowicie to, co OpenAI opisuje jako „bardziej trwałe i głębokie myślenie”. Nie ma nic tak beznadziejnego, jak długa rozmowa z sztuczną inteligencją, a potem utrata świadomości, o czym mówisz. Teraz OpenAI twierdzi, że sztuczna inteligencja może dłużej pozostać na dobrej drodze.

tryb „bez wyjaśnień”.

To kolejny z tych przypadków, w których moim zdaniem OpenAI mogłoby zyskać na solidnym zarządzaniu nazewnictwem produktów. Ten sposób pracy nie wyklucza zrozumienia kontekstu, napisania kodu wysokiej jakości ani zrozumienia instrukcji. To po prostu wyklucza głęboką analizę stylu w toku myślowym. Powinni nazwać to trybem „nie myśl za dużo”.

Pomyśl o tym w ten sposób. Każdy z nas ma przyjaciela, który przemyśla każdą rzecz lub działanie. To ich obciąża, proste rzeczy zajmują im wieczność i często prowadzą do paraliżu analitycznego. Jest czas, aby myśleć odważnie, ale jest też czas, aby po prostu wybrać papier lub plastik i ruszyć dalej.

Ponadto: połączyłem dwa narzędzia AI, aby rozwiązać duży błąd – ale nie poradziliby sobie beze mnie

Ten nowy sposób pracy bez rozumowania pozwala sztucznej inteligencji uniknąć zwykłego myślenia krok po kroku i po prostu przejść do odpowiedzi. Jest idealny do prostych poszukiwań lub podstawowych zadań. To radykalnie zmniejsza opóźnienia (czas reakcji). Zapewnia także bardziej responsywne, szybsze i płynniejsze kodowanie.

Połączenie trybu nierozumowania z rozumowaniem adaptacyjnym oznacza, że ​​sztuczna inteligencja może poświęcić czas na udzielenie odpowiedzi na trudne pytania, ale może szybko odpowiedzieć na prostsze.

Rozszerzone buforowanie zapytań

Kolejnym zwiększeniem prędkości (wraz z towarzyszącą redukcją kosztów) jest rozszerzone szybkie buforowanie. Kiedy sztuczna inteligencja otrzymuje zapytanie, musi najpierw wykorzystać swoje możliwości przetwarzania języka naturalnego, aby przeanalizować to zapytanie i zrozumieć, o co jest proszone.

To nie jest mały wyczyn. Badaczom sztucznej inteligencji zajęło dziesięciolecia doprowadzenie sztucznej inteligencji do punktu, w którym może rozumieć język naturalny, a także kontekst i subtelne znaczenia tego, co się mówi.

Zatem po wydaniu monitu sztuczna inteligencja musi wykonać rzeczywistą pracę, aby go stokenizować i stworzyć wewnętrzną reprezentację, na podstawie której można skonstruować odpowiedź. Nie jest to pozbawione kosztów wykorzystania zasobów.

Także: 10 sekretów Kodeksu ChatGPT, których poznałem dopiero po 60 godzinach programowania w parach

Jeżeli w trakcie sesji pytanie zostanie zadane ponownie i trzeba będzie ponownie zinterpretować to samo lub podobne zapytanie, koszt ten zostaje poniesiony ponownie. Należy pamiętać, że nie mówimy tu tylko o zapytaniach, które programista kieruje do API, ale o zapytaniach wykonywanych wewnątrz aplikacji, które mogą się często powtarzać podczas korzystania z aplikacji.

Weźmy na przykład szczegółowe zapytanie do agenta obsługi klienta, który musi przetwarzać ten sam zestaw podstawowych reguł inicjalizacji dla każdej interakcji z klientem. To zapytanie mogłoby wymagać tysięcy tokenów do analizy i musiałoby być wykonywane tysiące razy dziennie.

Dzięki buforowaniu podpowiedzi (a teraz OpenAI robi to przez 24 godziny) zachęta jest kompilowana raz, a następnie dostępna do ponownego użycia. Poprawa prędkości i oszczędności mogą być znaczne.

Lepsze uzasadnienie biznesowe dla projektu

Wszystkie te ulepszenia dają OpenAI lepsze uzasadnienie biznesowe, które można zaprezentować użytkownikom podczas wprowadzania projektu. Projektowanie to dość stary termin używany do opisania, kiedy komponent jest projektowany w produkt.

Prawdopodobnie najsłynniejszym (i najważniejszym) projektem był wybór przez IBM procesora Intel 8088 do oryginalnego komputera IBM PC w 1981 roku. Ta pojedyncza decyzja zapoczątkowała cały ekosystem x86 i zapewniła sukces procesorów Intela na dziesięciolecia.

Dziś Nvidia jest beneficjentem ogromnych decyzji projektowych podejmowanych przez operatorów centrów danych, głodnych największej mocy obliczeniowej AI, jaką mogą znaleźć. Popyt ten sprawił, że Nvidia stała się najcenniejszą firmą na świecie pod względem kapitalizacji rynkowej, gdzieś na północ od 5 bilionów dolarów.

Ponadto: dostałem 4 lata rozwoju produktu w 4 dni za 200 USD i wciąż jestem zdumiony

OpenAI czerpie również korzyści z uwzględnienia projektu. CapCut to aplikacja wideo, którą w 2025 r. pobrano 361 mln. Temu to aplikacja zakupowa, która w 2025 r. została pobrana 438 mln. Jeśli na przykład jakakolwiek firma wdrożyłaby sztuczną inteligencję w swojej aplikacji i zrobiłaby to za pomocą wywołań API z OpenAI, OpenAI mogłaby zarobić mnóstwo pieniędzy na skumulowanym wolumenie wywołań API i związanych z nimi rozliczeniach.

Jednak podobnie jak w przypadku komponentów fizycznych, koszt sprzedanych towarów jest zawsze kwestią projektową. Każdy ułamek centa w COGS może zwiększyć ogólny wynik finansowy lub mieć niebezpieczny wpływ na marże.

Ostatecznie więc, jeśli OpenAI może znacznie obniżyć koszty wywołań API i nadal zapewniać wartość AI, jak wydaje się, że miało to miejsce w przypadku GPT-5.1, istnieje znacznie większa szansa, że ​​uda mu się uzasadnić włączenie GPT-5.1 do produktów deweloperskich.

Więcej nowych możliwości

Wersja GPT-5.1 zapewnia także lepszą wydajność kodowania. Sztuczną inteligencją można łatwiej zarządzać i można ją regulować, co oznacza, że ​​lepiej postępuje zgodnie z instrukcjami. Gdyby tylko mój szczeniak mógł czuć się bardziej komfortowo, nie musielibyśmy ciągłego, bolesnego szczekania po dostarczeniu poczty.

Kodowanie AI powoduje mniej niepotrzebnego myślenia, jest bardziej konwersacyjne podczas sekwencji wywoływania narzędzi i ma ogólnie bardziej przyjazne zachowanie podczas interakcji sekwencji. Dostępne jest także nowe narzędzie Apply_patch, które pomaga w wieloetapowych sekwencjach kodowania i akcjach agentów, a także nowe narzędzie powłoki, które działa lepiej, gdy zostanie poproszony o wygenerowanie poleceń wiersza poleceń oraz ocenę odpowiedzi i podjęcie działań na ich podstawie.

Ponadto: OpenAI ma teraz dla Ciebie nowego partnera w zakresie kodowania agentów: GPT-5-Codex

Jestem bardzo podekscytowany tą nową wersją. Ponieważ używam już GPT-5, miło będzie zobaczyć, o ile lepiej jest teraz z GPT-5.1.

Co z tobą? Czy próbowałeś używać GPT-5 lub nowych modeli GPT-5.1 w swoim procesie kodowania lub programowania? Czy widzisz poprawę szybkości lub kosztów, którą obiecuje OpenAI, czy też nadal oceniasz, czy te zmiany są ważne dla Twoich projektów? Jak ważne są funkcje takie jak myślenie adaptacyjne, tryb bezmyślny lub szybkie buforowanie przy podejmowaniu decyzji, który model sztucznej inteligencji włączyć do swoich narzędzi lub produktów? Daj nam znać w komentarzach poniżej.


Możesz śledzić moje codzienne aktualizacje projektu w mediach społecznościowych. Pamiętaj, aby zapisać się do mojego cotygodniowego biuletynu z aktualizacjami i śledzić mnie na Twitterze/X pod adresem @DavidGewirtzna Facebooku pod adresem Facebook.com/DavidGewirtz, na Instagramie pod adresem Instagram.com/DavidGewirtz, na Bluesky pod adresem @DavidGewirtz.com oraz na YouTube pod adresem YouTube.com/DavidGewirtzTV.



Enlace de origen