Najnowocześniejsza technologia SupremeRAID AE umożliwia organizacjom przyspieszenie przepływów pracy AI poprzez zmniejszenie opóźnień w dostępie do danych i zwiększenie wydajności operacji we/wy, przy jednoczesnej ochronie zbiorów danych o znaczeniu krytycznym z niezawodnością klasy korporacyjnej. Jego płynna skalowalność umożliwia przedsiębiorstwom sprostanie przyszłym wymaganiom w zakresie sztucznej inteligencji bez konieczności modernizacji istniejącej infrastruktury. Zaprojektowany dla szerokiego grona użytkowników, SupremeRAID AE przynosi korzyści zespołom AI/ML, zapewniając szybsze szkolenie i wnioskowanie dla modeli intensywnie korzystających z danych, przedsiębiorstwom wyposażonym w serwery GPU poprzez optymalizację wydajności GPU dla krytycznych obciążeń, a także analitykom i badaczom danych, zapewniając bezproblemowy dostęp do ogromnych zbiory danych bez wąskich gardeł. Zespoły IT zyskują również odporną, skalowalną pamięć masową RAID, którą można łatwo zintegrować z istniejącymi systemami bez konieczności stosowania dodatkowego sprzętu.
SupremeRAID AE wprowadza pakiet funkcji dostosowanych do obciążeń AI, w tym:
- Obsługa GPUDirect Storage (GDS): Przesyła dane bezpośrednio z dysków NVMe do pamięci GPU, omijając pamięć hosta, aby zmaksymalizować wydajność we/wy i zminimalizować opóźnienia. Ta funkcja zapewnia szybsze i bardziej wydajne szkolenie i wnioskowanie AI.
- Inteligentny silnik odciążania danych: Optymalizuje wykorzystanie procesora graficznego, umożliwiając przedsiębiorstwom pełne wykorzystanie inwestycji w procesory graficzne w celu uzyskania najwyższej wydajności i efektywności.
- Elastyczne opcje wdrażania: Zacznij od udostępnienia procesorów graficznych różnym obciążeniom i przejścia na dedykowane procesory graficzne w miarę wzrostu zapotrzebowania, co umożliwi płynną skalowalność przy obniżonych kosztach początkowych.
- Obsługa różnorodnych formatów NVMe SSD: Pełna kompatybilność z szeroką gamą formatów NVMe SSD zapewnia łatwą integrację z istniejącymi środowiskami pamięci masowej.
- Obsługa NVMe-oF (NVMe over Fabrics): zwiększa pojemność pamięci masowej poza pojedynczy host, oferując skalowalność dla ogromnych zbiorów danych kluczowych dla innowacji AI.
- Klastrowanie konwergentnej pamięci masowej AI: Bezproblemowa kompatybilność z rozproszonymi systemami plików, takimi jak BeeGFS, Lustre i Ceph, obniża koszty zewnętrznej pamięci masowej i zmniejsza wysiłki związane z migracją zbiorów danych.
„SupremeRAID AE zmienia reguły gry dla przedsiębiorstw chcących uwolnić pełny potencjał swoich obciążeń AI” – powiedział Leander Yu, prezes i dyrektor generalny Graid Technology. „Ten produkt został zaprojektowany specjalnie dla aplikacji AI sterowanych przez GPU, łącząc obsługę GPUDirect Storage i inteligentny silnik odciążania danych, aby zapewnić niezrównaną wydajność i odporność. Dzięki SupremeRAID AE organizacje mogą z łatwością i pewnością sprostać rosnącym wymaganiom sztucznej inteligencji”.
SupremeRAID AE (AI Edition) będzie dostępny publicznie w pierwszym kwartale 2025 roku za pośrednictwem rozległej sieci partnerów Graid Technology, w tym producentów serwerów T1 i integratorów systemów.