Red Hat rozszerza zakres i możliwości adaptacyjne AI w najnowszej wersji Red Hat OpenShift AI
Dzięki zwiększonej wydajności i usprawnionym przepływom danych Red Hat OpenShift AI 2.15 ułatwia wprowadzanie na dużą skalę innowacji bazujących na sztucznej inteligencji.
Red Hat, Inc., wiodący na świecie dostawca rozwiązań bazujących na otwartym kodzie źródłowym, zaprezentował najnowszą wersję swojej platformy sztucznej inteligencji (AI) i uczenia maszynowego (ML) Red Hat OpenShift AI. Zbudowana na bazie rozwiązania Red Hat OpenShift umożliwia ona przedsiębiorstwom tworzenie i dostarczanie bazujących na AI aplikacji działających w dużej skali w chmurze hybrydowej.
Red Hat OpenShift AI 2.15 został zaprojektowany w celu zapewnienia zwiększonej elastyczności, możliwości dostrajania mechanizmów AI i śledzenia ich pracy w chmurach publicznych, centrach danych i infrastrukturze brzegowej. Rozwiązanie to pomaga przyspieszyć proces wdrażania w przedsiębiorstwach innowacyjnych rozwiązań w zakresie AI/ML oraz zapewnia ich spójność operacyjną na dużą skalę z większą systematycznością i silniejszą warstwą bezpieczeństwa.
Zdaniem analityków IDC, przedsiębiorstwa uwzględnione w rankingu Forbes Global 2000 przeznaczą ponad 40% swoich podstawowych wydatków IT na inicjatywy związane ze sztuczną inteligencją.1 Co więcej, wykorzystywanie przez przedsiębiorstwa generatywnej sztucznej inteligencji (gen AI) oraz technik automatyzacji pozwoli zwiększyć ich produktywność o bilion dolarów do 2026 roku.2 Red Hat uważa, że aby osiągnąć ten poziom inwestycji, konieczne jest zastosowanie platformy AI/ML, która może zarówno zarządzać cyklem życia modeli, jak i tworzyć aplikacje gen AI. Jednocześnie jest też wystarczająco elastyczna, aby działać obok tradycyjnych zadań obliczeniowych i aplikacji w chmurze hybrydowej.
Celem Red Hat OpenShift AI 2.15 jest pomoc firmom w sprostaniu pojawiającym się potrzebom związanym z obliczeniami AI oraz krytycznymi, natywnymi dla chmury aplikacjami, wykorzystywanymi przez współczesne przedsiębiorstwa. Wśród zaawansowanych funkcji dostarczanych wraz z najnowszą wersją Red Hat OpenShift AI znalazły się:
• rejestr modeli, obecnie udostępniany w wersji podglądu technicznego, który stanowi centralne miejsce do przeglądania zarejestrowanych modeli i zarządzania nimi. Rejestr zapewnia ustrukturyzowany i zorganizowany sposób udostępniania, wersjonowania, wdrażania, a także śledzenia modeli predykcyjnych i gen AI, metadanych oraz artefaktów. Dostępna jest również opcja udostępniania wielu rejestrów modeli. Red Hat przekazał także projekt rejestru modeli społeczności Kubeflow jako podprojekt;
• mechanizm wykrywania dryfu danych monitorujący zmiany w rozkładzie danych wejściowych dla wdrożonych modeli uczenia maszynowego. Funkcja ta pozwala analitykom danych wykrywać w czasie rzeczywistym sytuację, w której dane wykorzystywane w pracy modelu znacząco odbiegają od tych, na których został on wytrenowany. Wykrywanie dryfu pomaga zweryfikować niezawodność modelu poprzez ciągłe monitorowanie danych wejściowych, utrzymując model w zgodności z danymi rzeczywistymi i pomagając zapewnić dokładność jego prognoz na przestrzeni czasu;
• narzędzia do wykrywania zjawiska stronniczości wspierające naukowców zajmujących się danymi i inżynierów środowisk AI w budowaniu zaufania do sztucznej inteligencji. Narzędzia te nie tylko pomagają ocenić na podstawie danych treningowych, czy modele są bezstronne, ale także sprawdzają je pod kątem uczciwości podczas pracy w środowiskach produkcyjnych. Rozwiązania te pochodzą od społeczności open source TrustyAI, która zapewnia zróżnicowany zestaw narzędzi ułatwiających odpowiedzialny rozwój i wdrażanie środowisk sztucznej inteligencji;
• wykorzystanie adapterów niskiego rzędu (low-rank adapters, LoRA) umożliwiające bardziej wydajne dostrajanie wielkich modeli językowych (LLM), takich jak Llama 3. Pozwala to przedsiębiorstwom na skalowanie środowisk AI przy jednoczesnym zmniejszaniu kosztów i poziomu zużycia zasobów. Optymalizując proces szkolenia modeli i dostrajania w środowiskach natywnych dla chmury, rozwiązanie to zwiększa zarówno wydajność, jak i elastyczność, czyniąc wdrażanie sztucznej inteligencji bardziej dostępnym i łatwym do skalowania;
• wsparcie dla NVIDIA NIM, zestaw łatwych w użyciu mikrousług interfejsu, które przyspieszają dostarczanie aplikacji AI. Integracja z NIM – częścią platformy oprogramowania NVIDIA AI Enterprise – przyspiesza wdrażanie środowisk sztucznej inteligencji dzięki obsłudze szerokiej gamy modeli AI. W ten sposób za pośrednictwem interfejsów programistycznych (API) możliwe jest zapewnienie dostępu do mechanizmów skalowalnego wnioskowania, funkcjonujących lokalnie lub w chmurze;
• obsługa procesorów graficznych AMD umożliwiająca dostęp do obrazu środowiska roboczego AMD ROCm w celu wykorzystania procesorów graficznych AMD do opracowywania modeli AI. Ta nowa funkcja zapewnia również dostęp do obrazów, które mogą być używane do obsługi i szkolenia oraz dostrajania środowisk z procesorami graficznymi AMD. Wsparcie to daje firmom dodatkowe opcje korzystania z układów GPU w celu zwiększenia wydajności intensywnych obliczeniowo działań.
Ulepszona obsługa modeli
Rozwiązanie Red Hat OpenShift AI 2.15, jako rozbudowana platforma AI/ML, wyposażone jest również w nowe możliwości związane z obsługą modeli sztucznej inteligencji, w tym popularnego środowiska uruchomieniowego vLLM dla platformy KServe, służącego do obsługi dużych modeli językowych LLM. Elastyczny i wydajny mechanizm vLLM jest doskonałym dodatkiem do obecnie obsługiwanych środowisk uruchomieniowych platformy, a użytkownicy mogą również dodawać własne niestandardowe opcje, zgodnie z ich wymaganiami biznesowymi.
W najnowszej wersji Red Hat OpenShift AI zapewniono również obsługę funkcji KServe Modelcars, która dodaje repozytoria Open Container Initiative (OCI) jako opcję przechowywania modeli w kontenerowych wersjach i uzyskiwania do nich dostępu. Ponadto wybór trasy prywatnej/publicznej dla punktów końcowych w KServe umożliwia przedsiębiorstwom zwiększenie poziomu bezpieczeństwa modelu poprzez przekierowanie go specjalnie do wewnętrznych punktów końcowych, gdy jest to wymagane.
Rozszerzone możliwości szkolenia i eksperymentowania z AI
W Red Hat OpenShift AI 2.15 rozbudowane zostały mechanizmy naukowej analizy danych i śledzenia procesu eksperymentowania na nich. Pozwala to odpowiedzialnym za ten obszar naukowcom na łatwiejsze zarządzanie, porównywanie i sprawdzanie przebiegów zadań analizy, pogrupowanych w logiczną strukturę. Do platformy dodany również został mechanizm dostrajania hiperparametrów za pomocą biblioteki Ray Tune, co zapewnia dostęp do zaawansowanych algorytmów optymalizacji w celu poprawy dokładności i wydajniejszego trenowania modeli predykcyjnej i generatywnej AI. Podstawowe obrazy kontenerów dla klastrów Ray są teraz zawarte w najnowszej wersji Red Hat OpenShift AI, a realizację zadań szkoleniowych i dostrajających można zaplanować w rozproszonych klastrach, aby przyspieszyć ich realizację oraz zmaksymalizować wykorzystanie węzłów.
Dostępność
Red Hat OpenShift 2.15 będzie publicznie dostępny od połowy listopada 2024 roku. Więcej informacji na temat dodatkowych funkcji, ulepszeń, poprawek błędów oraz sposobu aktualizacji do najnowszej wersji można znaleźć na stronie:
docs.redhat.com/en/documentation/red_hat_openshift_ai_self-managed/2-latest/