ŚwiatWiadomości Prasowe

85% centrów danych w Polsce modernizuje się dla wydajności i zgodności z przepisami. Badanie Kingston

Jak pokazuje badanie Kingston przeprowadzone wśród operatorów obiektów data center w Polsce aż 75% z nich regularnie modernizuje kluczowe elementy swojej infrastruktury – zazwyczaj co 3 do 5 lat. Operatorzy coraz częściej postrzegają modernizację nie jako incydentalne działanie, lecz jako stały proces, zintegrowany z celami biznesowymi. Wyniki badania pokazują, że na decyzje inwestycyjne w obiektach przetwarzania danych wpływa dziś nie tylko rosnące zapotrzebowanie na moc obliczeniową, ale również zmiany regulacyjne czy standardy ESG.

Strategia modernizacji infrastruktury IT w centrach danych zazwyczaj bazuje na dwóch podejściach: selektywnym unowocześnianiu wykorzystywanych komponentów oraz planowych inwestycjach o szerszym zasięgu. Jak pokazują wyniki badania Kingston, aż 95% operatorów data center w Polsce modernizuje swoje rozwiązania w miarę bieżących potrzeb, rozbudowując przede wszystkim takie zasoby jak pamięci RAM, dyski czy systemy chłodzenia. W przypadku 90% ankietowanych motywacją do unowocześniania sprzętu jest techniczny rozwój rozwiązań IT. Jednocześnie dla 80% respondentów ważnym aspektem skłaniającym do rozwoju są zmieniające się regulacje prawne, ale również podejście ESG (Environmental, Social, Governance), czyli zestaw standardów, które firmy wykorzystują do oceny swojej działalności pod kątem odpowiedzialności ekologicznej, społecznej oraz jakości zarządzania.

Rynek pamięci a potrzeby centrów danych

W zakresie przechowywania danych najważniejszą rolę nadal odgrywa wybór odpowiedniego rodzaju nośników. Jak wynika z badania Kingston, 60% respondentów deklaruje równy podział między użyciem dysków HDD i SSD w swoich centrach danych, a 30% wskazuje, że korzysta głównie z nośników SSD, uzupełniając je o dyski talerzowe. Badani operatorzy najczęściej wykorzystują dyski SSD do przetwarzania danych w czasie rzeczywistym (90% wskazań) oraz do bieżącej obsługi danych (80%). Połowa respondentów wskazuje także te nośniki dla zastosowań związanych ze sztuczną inteligencją i uczeniem maszynowym.

W ocenie badanych kluczowe kryteria wyboru systemów pamięci masowej do obiektów data center to: kompatybilność z istniejącą infrastrukturą serwerową (średnia ocen 4,40/5), łatwość skalowania (4,30/5), wysoka wydajność operacji odczytu/zapisu (4,25/5) oraz duża pojemność (4,20/5). Robert Sepeta, Business Development Manager w firmie Kingston, zauważa jednak, że jeszcze przez dłuższy czas decyzja o wyborze pomiędzy mechanicznymi twardymi dyskami, a nośnikami SSD, będzie zależała od charakteru rozwiązania, któremu dostarczają dane lub z którego je zbierają.

Twarde dyski przez najbliższe lata będą wykorzystywane tam, gdzie jest zapotrzebowanie na duże pojemności. Ale w rozwiązaniach w centrach danych, gdzie kluczowa jest wydajność, już od dłuższego czasu stosowane są głównie dyski SSD. Co więcej, widzimy, że operatorzy centrów danych wypracowali już korzystne dla siebie praktyki dotyczące taktyki nabywania nośników SSD. Gdy zdecydują się na określony produkt, trzymają się tego wyboru przez dłuższy czas, co najwyżej kupują dany model nośnika o większej pojemności. Bardzo ważna stała się dla nich wewnętrzna standaryzacja, a więc świadomość co do spójności oczekiwanego wsparcia posprzedażowego, możliwości łatwej wymiany i zagwarantowanych konkretnych parametrów technicznych. Istotne jest także bezpieczeństwo dostaw – operatorzy chcą mieć zagwarantowany bufor zapasowych dysków i pamięci, aby móc bez ryzyka rozbudowywać infrastrukturę, niezależnie od ewentualnych niedoborów rynkowych – podsumowuje Robert Sepeta.

Co decyduje o modernizacji data center?

Warto także zwrócić uwagę na to, kto realnie wpływa na decyzje dotyczące modernizacji. Badanie Kingston przyniosło dość zaskakujące rezultaty. Zaledwie 5% firm pozostawia te decyzje w rękach dyrektorów działu IT (CIO). W aż 50% przypadków odpowiada za nie zarząd, a kolejne 40% respondentów wskazało inne – często wspólne – formy decyzyjne. Równocześnie, najczęściej słuchanym źródłem rekomendacji są specjaliści IT (średnia ocen 3,6/5), a następnie dostawcy rozwiązań oraz klienci (3,45/5).

Wybór dostawców sprzętu również nie jest przypadkowy. 100% respondentów deklaruje współpracę z firmami globalnymi, o ugruntowanej pozycji. Zdecydowana większość (95%) korzysta też z usług różnych dostawców, w zależności od charakteru modernizacji. Co ciekawe, aż 90% firm chętnie współpracuje z polskimi dostawcami, jeśli spełniają oni odpowiednie kryteria. Cena nie jest najważniejszym czynnikiem – tylko 40% firm kieruje się nią w pierwszej kolejności. Istotniejsze okazują się: elastyczność, kompleksowe wsparcie techniczne oraz zgodność z normami energetycznymi.

Wydajność z myślą o przyszłości

Potrzeby ankietowanych przez Kingstona operatorów centrów danych związane z modernizacją ich infrastruktury są zróżnicowane, chociaż dominują kwestie wydajności i zgodności z regulacjami (po 85%). Wysokie miejsce zajmują również aspekty związane z rozwojem usług (75%), bezpieczeństwem (70%) i skalowalnością (70%). Co ciekawe, ponad połowa firm modernizuje także systemy zasilania awaryjnego – głównie w celu poprawy efektywności energetycznej. Ekspert Vertiv zwraca uwagę, że firmy powinny w tym obszarze rozważać alternatywy dla tradycyjnych baterii.

Akumulatory litowo-jonowe są droższe niż kwasowo-ołowiowe, ale trwalsze i w dłuższej perspektywie bardziej opłacalne. Dodatkowo mogą być wykorzystywane do balansowania sieci elektrycznej, co przyczynia się do obniżenia kosztów użytkowania infrastruktury. Kolejnym ważnym aspektem jest sprawność wdrażanego UPS-a. Jeśli zasilacz wydziela zbyt dużo ciepła, to straty te mszczą się podwójnie. Po pierwsze, klient płaci za niepotrzebnie zużytą energię elektryczną, a po drugie musi ogrzane powietrze schłodzić za pomocą systemu klimatyzacyjnego, a to też kosztuje – ostrzega Paweł Poziemski z Vertiv.

Z punktu widzenia zarządzania, modernizacja sprzętu w centrach danych nie jest tylko kwestią techniczną – to strategiczny element rozwoju biznesu. Kluczowe znaczenie ma przewidywanie przyszłych potrzeb, elastyczne podejście do wyboru komponentów oraz zapewnienie ciągłości operacyjnej. Dlatego firmy coraz częściej korzystają z symulacji, analiz całkowitych kosztów użytkowania (TCO) i doradztwa technicznego partnerów. Podmioty, które potraktują ten proces całościowo, zyskają nie tylko na wydajności, ale także na bezpieczeństwie, przewidywalności kosztów i elastyczności w dostosowywaniu się do zmieniającego się rynku.

O badaniu

Badanie „Rynek centrów danych w Polsce” zostało zrealizowane w styczniu 2025 r. metodą CATI przez ośrodek Biostat na zlecenie firmy Kingston. Ankietą objęto dwudziestu decydentów IT z obiektów data center w Polsce.

Click to rate this post!
[Total: 0 Average: 0]

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna jest chroniona przez reCAPTCHA i Google Politykę Prywatności oraz obowiązują Warunki Korzystania z Usługi.

Accessibility Toolbar