Prezentowany Solidigm
W miarę wzrostu wykorzystania sztucznej inteligencji centra danych stają w obliczu krytycznego wąskiego gardła w magazynie, w którym znajdują się tradycyjne dyski twarde. Dane, które kiedyś pozostawały bezczynne jako zimne archiwum, są obecnie często wycofywane w celu stworzenia bardziej precyzyjnych modeli i uzyskania lepszych wyników wniosków. To przejście od zimnych danych do ciepłych danych wymaga małego opóźnienia i wysoce przepuszczalnej pamięci masowej, która wytrzyma równoległe budżety. Dyski HDD pozostaną koniem roboczym do taniego przechowywania w chłodniach, ale bez ponownego przemyślenia ich roli, warstwa pamięci masowej o dużej pojemności stanie się najsłabszym połączeniem w fabryce AI.
„Nowoczesna sztuczna inteligencja obciążająca pracą w połączeniu z ograniczeniami centrum danych stworzyła nowe wyzwania dla dysków twardych” – mówi Jeff Janukowicz, wiceprezes ds. badań w IDC. „Chociaż dostawcy dysków twardych radzą sobie z rozwojem przestrzeni do przechowywania danych, oferując większe dyski, często odbywa się to ze szkodą dla wolniejszej wydajności. W efekcie koncepcja „bliskiego dysku SSD” staje się coraz bardziej istotnym tematem dyskusji w branży”.
Dziś operatorzy sztucznej inteligencji muszą maksymalizować wykorzystanie procesora graficznego, efektywnie zarządzać pamięcią masową sieciową i obliczać skalę, a wszystko to jednocześnie redukując koszty w związku z coraz rzadszą mocą i przestrzenią. W środowisku, w którym liczy się każda kadź i każdy centymetr kwadratowy, mówi Roger Corell, wyższy dyrektor ds. sztucznej inteligencji i marketingu przywództwa w Soligm, sukces wymaga czegoś więcej niż tylko technicznego odświeżenia. Jest to zaproszenie do głębszego dostosowania.
„To mówi o przesunięciu tektonicznym wartości danych w przypadku sztucznej inteligencji” – mówi Corell. „Istnieją dyski SSD o dużej pojemności. Oprócz pojemności oferują one potoki o ograniczonej wydajności i wydajności do przechowywania exabbicit, aby utrzymać nieubłagane tempo drogich danych. Wszystko to zużywa siłę i przestrzeń, więc musimy to zrobić równie skutecznie, aby umożliwić większą drabinkę GPU.
Dyski SSD o dużej pojemności nie tylko zmieniają dyski twarde w jedną z największych wąskich głowic w fabryce. Zapewniając ogromny wzrost wydajności, wydajności i gęstości, dysk SSD uwalnia siłę i przestrzeń potrzebną do przeniesienia procesora graficznego -A. Jest to mniejsza modernizacja pamięci masowej niż zmiany strukturalne w sposobie projektowania infrastruktury danych na potrzeby ery sztucznej inteligencji.
Dyski twarde vs. SDDS: Więcej niż tylko odświeżanie sprzętu
Dyski twarde mają imponującą konstrukcję mechaniczną, ale zawierają wiele ruchomych części, które zużywają więcej energii, zajmują więcej miejsca i ulegają awariom przy wyższych prędkościach niż dyski twarde. Poleganie na tacach i mechanicznym odczytywaniu/zapisie z natury ogranicza liczbę operacji wejścia/wyjścia na sekundę (IOPS), tworząc wąskie gardła dla obciążeń roboczych AI, które wymagają małych opóźnień, wysokiej jednoczesności i stałej przepuszczalności.
Dyski twarde również borykają się z zadaniami wrażliwymi na opóźnienia, ponieważ fizyczny akt wyszukiwania danych wprowadza opóźnienia mechaniczne, które nie nadają się do podsumowania i uczenia w czasie rzeczywistym. Co więcej, ich wymagania dotyczące zasilania i chłodzenia znacznie wzrastają przy częstym i intensywnym podejściu do danych, co zmniejsza wydajność w miarę nagrzewania się danych.
Natomiast ogromna pamięć oparta na dysku SSD zmniejsza zużycie energii o ~1 milion dolarów rocznie, a w środowisku AI, w którym ważny jest każdy wat, jest to ogromna zaleta dla dysków SSDS. Aby to pokazać, firma Soligigm i ogromne dane ukończyła badanie, w którym przetestowano oszczędność przechowywania danych na Exabyta-Quadratijun Bytova lub miliard gigabajtów, wraz z analizą zużycia energii przez dyski twarde w okresie 10 lat.
Jako początkowy punkt odniesienia będziesz potrzebować czterech dysków twardych o pojemności 30 TB, aby wyrównać pojemność jednego dysku SSD Soligm o pojemności 122 TB. Po uwzględnieniu technik redukcji danych VAST uzyskano najwyższą wydajność dysku SSD. Rozwiązanie exabbath zawiera 3738 dysków SSD Soliggm w porównaniu z ponad 40 000 dysków twardych o dużej pojemności. Badanie wykazało, że ogromne rozwiązanie oparte na dysku SSD zużywa o 77% mniej energii do przechowywania.
Minimalizacja wydruków w centrum danych
„Dostarczamy dyski 122-terrabey niektórym z najlepszych producentów OEM i wiodącym dostawcom rozwiązań chmurowych AI na świecie” – mówi Corell. „Porównując dyski SSD All-122 TB z konfiguracją HDD + TLC SSD, uzyskują one oszczędności dziewięć do jednego w ścieżce danych. I tak, w tych ogromnych centrach danych, które budują swoje reaktory jądrowe i podpisują lokalne umowy dotyczące transmisji danych, ważne jest, aby rosnące linie były umieszczone na wszystkich głównych źródłach energii, ale energia odnawialna na energii regionalnej, ale są ważne dla rejestracji energii do rosnącej energii do odnowienia energii twojego marginalnego wdrożenia gdzie miejsce może być w cenie premium. “
Te oszczędności w stosunku dziewięć do jednego wykraczają poza przestrzeń i siłę – utrudniają organizacjom przekształcanie infrastruktury w obszary wcześniej niedostępne, zwiększanie skali GPU lub budowanie mniejszych ścieżek.
„Jeśli otrzymałeś x ilość i y mocy, wykorzystasz ją. Jesteś AI” Corell wyjaśnia: „Jeśli obliczona zostanie każda kadź i cal kwadratowy, dlaczego więc nie wykorzystać tego w najbardziej efektywny sposób? Proszę wskazać najskuteczniejsze miejsce do przechowywania na świecie i pozwolić na większą drabinkę GPU w tej kopercie. Oznacza to, że jesteś w toku, na podstawie tego, że cię nie ma.
Inny, często pomijany element, (znacznie) większy fizyczny wydruk danych przechowywanych na mechanicznych dyskach twardych, skutkuje większym drukiem materiałów budowlanych. Łącznie produkcja betonu i stali odpowiada za ponad 15% światowych emisji gazów cieplarnianych. Redukując fizyczny ślad przechowywania, dyski SSD mogą pomóc w ograniczeniu emisji wcielonych w oparciu o beton i stal o ponad 80% w porównaniu z dyskami twardymi. A w ostatniej fazie cyklu życia zrównoważonego rozwoju, czyli pod koniec życia, dostępnych będzie o 90% mniej napędu. .
Przepisanie strategii przechowywania zimnego i archiwalnego
Przejście na SDD to nie tylko aktualizacja pamięci; Jest to zasadnicze pogodzenie strategii infrastruktury danych w AI ERI, jaką jest szybkość.
„Wielcy producenci hiperskali chcą jak najlepiej wykorzystać istniejącą infrastrukturę, uzyskując nienaturalne rankingi, jeśli można tak powiedzieć, przy dyskach twardych za bardzo przyzwyczajonych do prawie 90%, aby uzyskać jak najwięcej IOP w przeliczeniu na terabajt, ale zaczynają podróżować” – mówi Corell. „Kiedy zwrócą się w stronę nowoczesnej infrastruktury o dużej pojemności, branża pójdzie tą trajektorią. Ponadto zaczynamy wyciągać wnioski na temat wartości nowoczesnych pamięci masowych w stosowanej sztucznej inteligencji i innych segmentach, takich jak Big Data Analytics, HPC i wiele innych”.
O ile rozwiązania dla wszystkich pamięci flash są przyjęte niemalże uniwersalnie, o tyle na dyski twarde zawsze znajdzie się miejsce – dodaje. Dyski twarde będą nadal używane do celów archiwizacji, przechowywania w chłodniach oraz w scenariuszach, w których eliminują koszty w przeliczeniu na gigabajt, martwiąc się koniecznością stosowania podejścia w czasie rzeczywistym. Jednakże w miarę jak gospodarka tokenów będzie się rozkręcać, a firmy zrozumieją wartość bazy danych, ciepłe i nagrzewające się segmenty danych będą nadal rosły.
Rozwiązywanie problemów mocy przyszłości
Teraz, w czwartej generacji, liczącej do chwili obecnej ponad 122 eksabbatyki, Solidigm QLC (QUAD-Level Cell) wprowadził tę technologię do przemysłu, równoważąc większe obiekty z kosztami i efektywnością kosztową.
„Nie mamy na myśli przechowywania jedynie jako magazynu bitów i bajtów. Zastanawiamy się, w jaki sposób możemy opracować te niesamowite instalacje, które będą w stanie zapewnić korzyści na poziomie rozwiązania” – mówi Corell. „Wspaniałą gwiazdą jest nasz niedawno wprowadzony na rynek e1.S, zaprojektowany specjalnie z myślą o gęstej i efektywnej pamięci masowej w konfiguracjach bezpośredniej pamięci masowej dla serwera GPU bez wentylatora nowej generacji”.
Solidigm D7-PS1010 E1.S to przełom, pierwszy w branży ESSD z technologią jednostronnego chłodzenia cieczą z bezpośrednim chipem. Solidigm współpracował z firmą Nvidia, aby rozwiązać problemy związane z podwójnym zarządzaniem ciepłem i efektywnością kosztową, zapewniając jednocześnie wysoką wydajność niezbędną w przypadku wymagającej AI związanej z obciążeniem pracą.
„Szybko zmierzamy do środowiska, w którym wszystkie krytyczne komponenty IT będą umieszczone bezpośrednio na chipach chłodzonych cieczą po stronie bezpośredniego podłączenia” – mówi. „Myślę, że rynek powinien przyjrzeć się swojemu podejściu do chłodzenia, ponieważ ograniczenia siłowe, wyzwania związane z mocą nie zniosą się w moim życiu. Muszą zastosować sposób myślenia o neocol w taki sposób, w którym architektura jest najbardziej efektywną infrastrukturą”.
Coraz bardziej złożony wniosek zostaje zepchnięty na ścianę pamięci, co sprawia, że architektura pamięci masowej jest wyzwaniem dla projektu frontu, o którym nie można myśleć. Dyski SSD o dużej pojemności w połączeniu z chłodzeniem cieczą i efektywną konstrukcją stają się jedynym sposobem na spełnienie wymagań AI w zakresie eskalacji. Obowiązkiem jest obecnie budowanie infrastruktury nie tylko ze względu na wydajność, ale także na potrzeby przechowywania, które będzie można skutecznie oceniać w miarę wzrostu ilości danych. Organizacje, które obecnie wykorzystują pamięć masową, jutro będą mogły skalować sztuczną inteligencję.
Artykuły sponsorowane to treści tworzone przez firmę, która nawet opłaca post lub ma relacje biznesowe z Venturebeat i zawsze są wyraźnie oznaczone. Skontaktuj się, aby uzyskać więcej informacji Sales@venturebeat.com.



