Tech

Boom na sztuczną inteligencję napędza potrzebę szybkości w sieciach chipowych

Nowa era Dolina Krzemowa to przede wszystkim networking, a nie LinkedIn.

Podczas gdy branża technologiczna inwestuje miliardy w centra danych oparte na sztucznej inteligencji, duzi i mali producenci chipów wprowadzają innowacje w zakresie technologii, która łączy chipy z chipami i szafy serwerowe ze szafami serwerowymi.

Technologia sieciowa istnieje od zarania dziejów komputerów, krytycznie łącząc komputery mainframe, aby mogły udostępniać dane. W świecie półprzewodników tworzenie sieci odgrywa rolę na niemal każdym poziomie montażu — od połączeń między tranzystorami w samym chipie po zewnętrzne połączenia między pudełkami lub nośnikami chipów.

Giganci chipów, tacy jak Nvidia, Broadcom i Marvell, mają już ugruntowaną pozycję w sieci w dobrej wierze. Jednak w dobie boomu sztucznej inteligencji niektóre firmy poszukują nowych podejść sieciowych, które pomogą im przyspieszyć przepływ ogromnych ilości informacji cyfrowych przepływających przez centra danych. To tutaj pojawiają się start-upy zajmujące się głębokimi technologiami, takie jak Lightmatter, Celestial AI i PsiQuantum, wykorzystujące technologię optyczną do przyspieszania szybkich obliczeń.

Technologia optyczna, czyli fotonika, przeżywa moment dojrzewania. Według współzałożyciela i dyrektora ds. nauki PsiQuantum, Pete’a Shadbolta, technologię tę przez 25 lat uważano za „żałosną, kosztowną i marginalnie użyteczną”, aż do czasu, gdy boom na sztuczną inteligencję ponownie wzbudził zainteresowanie nią. (Shadbolt pojawił się w zeszłym tygodniu na panelu współorganizowanym przez WIRED.)

Niektórzy inwestorzy venture capital i inwestorzy instytucjonalni, mając nadzieję na złapanie kolejnej fali innowacji w zakresie chipów lub przynajmniej znalezienie odpowiedniego celu przejęcia, pompują miliardy w takie start-upy, które znalazły nowe sposoby na przyspieszenie przepływu danych. Uważają, że tradycyjna technologia połączeń wzajemnych, która opiera się na elektronach, po prostu nie nadąża za rosnącym zapotrzebowaniem na obciążenia sztucznej inteligencji o dużej przepustowości.

„Jeśli spojrzysz wstecz, mówienie o sieciach było nudne, ponieważ polegało na przełączaniu pakietów bitów” – mówi Ben Bajarin, wieloletni analityk technologii, który pełni funkcję dyrektora zarządzającego firmy badawczej Creative Strategies. „Teraz, ze względu na sztuczną inteligencję, musi ona przenosić dość duże obciążenia i dlatego można dostrzec innowacje związane z szybkością”.

Świetna energia chipów

Bajarin i inni uważają, że Nvidia otwarcie mówiła o znaczeniu sieci, gdy kilka lat temu dokonała dwóch kluczowych przejęć w tej technologii. W 2020 roku Nvidia wydała prawie 7 miliardów dolarów na zakup izraelskiej firmy Mellanox Technologies, która produkuje szybkie rozwiązania sieciowe dla serwerów i centrów danych. Wkrótce potem Nvidia przejęła Cumulus Networks, aby uruchomić własny system oprogramowania sieciowego oparty na systemie Linux. Był to punkt zwrotny dla firmy Nvidia, która słusznie założyła, że ​​procesor graficzny i jego możliwości obliczeń równoległych staną się znacznie potężniejsze po zgrupowaniu z innymi procesorami graficznymi i wdrożeniu w centrach danych.

Podczas gdy Nvidia dominuje w pionowo zintegrowanych stosach procesorów graficznych, Broadcom stał się kluczowym graczem na rynku niestandardowych akceleratorów chipów i technologii szybkich sieci. Firma o wartości 1,7 biliona dolarów ściśle współpracuje z Google, Meta, a ostatnio OpenAI nad chipami do centrów danych. Jest także liderem fotoniki krzemowej. W zeszłym miesiącu agencja Reuters poinformowała, że ​​Broadcom przygotowuje nowy układ sieciowy o nazwie Thor Ultra, zaprojektowany w celu zapewnienia „krytycznego połączenia między systemami sztucznej inteligencji a resztą centrum danych”.

W zeszłym tygodniu podczas rozmowy telefonicznej o zarobkach gigant zajmujący się projektowaniem półprzewodników ARM ogłosił plany przejęcia firmy sieciowej DreamBig za 265 milionów dolarów. DreamBig we współpracy z firmą Samsung produkuje chipy AI – małe, modułowe obwody zaprojektowane z myślą o pakowaniu w większe układy typu „system-on-chip”. Startup posiada „interesującą własność intelektualną… która jest (jest) bardzo istotna dla sieci w miarę jej skalowania i rozwoju” – powiedział dyrektor generalny ARM Rene Haas podczas rozmowy telefonicznej dotyczącej wyników finansowych. (Oznacza to łączenie komponentów i przesyłanie danych w górę i w dół w ramach pojedynczego klastra chipów, a także łączenie półek z chipami z innymi półkami.)

Włącz światło

Dyrektor generalny Lightmatter, Nick Harris, zauważył, że ilość mocy obliczeniowej wymaganej przez sztuczną inteligencję podwaja się obecnie co trzy miesiące – znacznie szybciej, niż nakazuje to prawo Moore’a. Chipy komputerowe stają się coraz większe. „Za każdym razem, gdy jesteś w czołówce technologii największych chipów, jakie możesz wyprodukować, cała późniejsza wydajność wynika z połączenia chipów” – mówi Harris.

Podejście jego firmy jest najnowocześniejsze i nie opiera się na tradycyjnej technologii sieciowej. Lightmatter buduje fotonikę krzemową, która łączy chipy. Twierdzi, że tworzy najszybszy na świecie silnik fotoniczny dla chipów AI, zasadniczo trójwymiarowy stos krzemu połączony technologią wzajemnych połączeń opartych na świetle. W ciągu ostatnich dwóch lat startup zebrał ponad 500 milionów dolarów od inwestorów takich jak GV i T. Rowe Price. W zeszłym roku jego wartość sięgnęła 4,4 miliarda dolarów.

Enlace de origen