ŚwiatWiadomości Prasowe

Przedsiębiorstwa planujące rozwój na bazie sztucznej inteligencji mogą już korzystać z Red Hat Enterprise Linux AI

RHEL AI ułatwia łączenie ze sobą otwartych, bardziej wydajnych modeli, przez co umożliwia wprowadzanie innowacyjności bazującej na sztucznej inteligencji w chmurze hybrydowej.

Red Hat, Inc., wiodący na świecie dostawca rozwiązań bazujących na otwartym kodzie źródłowym, udostępnił publicznie system Red Hat Enterprise Linux (RHEL) AI do wykorzystania w środowisku chmury hybrydowej. RHEL AI to platforma Red Hat dla podstawowych modeli sztucznej inteligencji, która umożliwia użytkownikom płynniejsze opracowywanie, testowanie i uruchamianie generatywnych modeli AI (gen AI) na potrzeby korporacyjnych aplikacji. Platforma łączy licencjonowaną na zasadach open source rodzinę dużych modeli językowych Granite (LLM) oraz narzędzia do dostrajania modeli InstructLab, bazujące na metodologii Large-scale Alignment for chatBots (LAB). Zostały one zebrane w pakiet jako zoptymalizowany, bootowalny obraz RHEL do indywidualnych wdrożeń na serwerach w chmurze hybrydowej.

Możliwości zapewniane przez generatywną sztuczną inteligencję są ogromne, jednak powiązane z jej wdrożeniem koszty zakupu, szkolenia modelu LLM i dostrajania go mogą być astronomiczne. Kupno niektórych wiodących modeli wiąże się z kosztem blisko 200 milionów dolarów. Kwota ta nie obejmuje kosztów dostosowania do konkretnych wymagań lub zasobów przedsiębiorstwa, co zazwyczaj wymaga zaangażowania naukowców zajmujących się danymi lub wysoko wyspecjalizowanych programistów. Niezależnie od modelu wybranego dla danej aplikacji, nadal wymagane jest dostosowanie go do specyficznych dla firmy danych i procesów. Wydajność oraz elastyczność są więc kluczowe dla obsługi sztucznej inteligencji w rzeczywistym środowisku produkcyjnym.

Zdaniem przedstawicieli firmy Red Hat w ciągu następnej dekady mniejsze, bardziej wydajne modele AI budowane z myślą o konkretnym przeznaczeniu będą stanowić znaczącą część rozwiązań IT w przedsiębiorstwach, obok natywnych aplikacji chmurowych. Jednak aby to osiągnąć generatywna sztuczna inteligencja musi być bardziej dostępna i osiągalna, począwszy od kwestii związanych z kosztami jej zakupu i wdrożenia, poprzez zaangażowanie jej współtwórców, aż po miejsce, w którym może działać w chmurze hybrydowej. Przez dziesięciolecia społeczności open source pomagały w rozwiązywaniu podobnych wyzwań związanych ze złożonymi problemami z oprogramowaniem. Zastosowanie podobnego podejścia może przyczynić się do obniżenia barier w skutecznym wdrażaniu gen AI.

Podejście open source do gen AI

RHEL AI chce uczynić generatywną sztuczną inteligencję bardziej dostępną, wydajniejszą i elastyczną dla osób na stanowisku CIO oraz korporacyjnych działów IT korzystających z chmury hybrydowej. Rozwiązanie to jest pomocne w różnych obszarach:

Wzmocnienie innowacyjności bazującej na gen AI dzięki modelom Granite klasy korporacyjnej, licencjonowanym na zasadach open source i dostosowanym do szerokiej gamy przypadków użycia gen AI;

Usprawnienie dostosowywania modeli gen AI do wymagań biznesowych za pomocą narzędzi InstructLab. Dzięki temu eksperci z różnych dziedzin, a także programiści mogą w przygotowywanych modelach wykorzystać swoje unikalne umiejętności i wiedzę, nawet bez rozległych umiejętności w zakresie nauki o danych;

Trenowanie i wdrażanie gen AI w dowolnym miejscu w chmurze hybrydowej z wykorzystaniem wszystkich narzędzi potrzebnych do dostrajania i wdrażania modeli na serwerach produkcyjnych, niezależnie od tego, gdzie znajdują się powiązane dane. RHEL AI zapewnia również gotowy dostęp do Red Hat OpenShift AI w celu trenowania, dostrajania i obsługi tych modeli na dużą skalę, przy użyciu tych samych narzędzi i koncepcji.

System RHEL AI dostępny jest również w modelu subskrypcyjnym Red Hat, który zapewnia zaufane mechanizmy dystrybucji korporacyjnych produktów, całodobowe wsparcie produkcyjne, rozszerzone wsparcie w ramach cyklu życia modelu AI, a także ochronę prawną.

System RHEL AI dostępny jest również w modelu subskrypcyjnym Red Hat, który zapewnia zaufane mechanizmy dystrybucji korporacyjnych produktów, całodobowe wsparcie produkcyjne, rozszerzone wsparcie w ramach cyklu życia modelu AI, a także ochronę prawną.

Rozszerzona współpraca RHEL AI z chmurą hybrydową

Zapewnienie możliwości korzystania ze spójnej platformy modelu podstawowego sztucznej inteligencji bliżej miejsca, w którym znajdują się firmowe dane, ma kluczowe znaczenie dla wspierania produkcyjnych strategii związanych z AI. Jako rozszerzenie oferty chmury hybrydowej Red Hat, RHEL AI obejmie niemal każde możliwe środowisko korporacyjne – od lokalnych centrów danych, przez infrastrukturę brzegową, po chmurę publiczną. Oznacza to, że RHEL AI będzie dostępny bezpośrednio w ofercie Red Hat, u partnerów OEM, a także będzie można uruchomić ten system u największych dostawców chmury na świecie, w tym Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud i Microsoft Azure. Umożliwi to programistom i działom IT wykorzystanie zasobów mocy obliczeniowej hiperskalerów do tworzenia innowacyjnych projektów sztucznej inteligencji z wykorzystaniem RHEL AI.

Dostępność

RHEL AI jest już publicznie dostępny w portalu dla klientów Red Hat w wersji do uruchamiania w lokalnym środowisku lub do wdrażania w chmurze AWS i IBM Cloud w modelu Bring Your Own Subscription (BYOS). Dostępność oferty BYOS na Azure i GCP planowana jest na 4. kwartał 2024 r. RHEL AI ma być udostępniony również jako usługa w chmurze IBM Cloud jeszcze w tym roku.

Red Hat planuje w nadchodzących miesiącach jeszcze bardziej rozszerzyć zasięg chmury RHEL AI i partnerów OEM, zapewniając jeszcze większy wybór w środowiskach chmury hybrydowej.

Red Hat Enterprise Linux (RHEL) AI:
www.redhat.com/en/technologies/linux-platforms/enterprise-linux/ai

Click to rate this post!
[Total: 0 Average: 0]

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna jest chroniona przez reCAPTCHA i Google Politykę Prywatności oraz obowiązują Warunki Korzystania z Usługi.

Skip to content