Home Na czasie Kluczowe trendy w branży zewnętrznych macierzy dyskowych w 2012

Kluczowe trendy w branży zewnętrznych macierzy dyskowych w 2012

0
0
125

W 2012 roku istotną rolę odegrają zarówno całkiem nowe, jak i istniejące już trendy. W niniejszym artykule opisane zostaną krótko niektóre z nich. Np. Utrzymany zostanie rosnący nacisk na efektywność produktów opracowywanych z myślą o wszystkich podstawowych segmentach rynku. Kluczowe dla wizji 2012 roku okażą się odpowiedzi na pytania takie jak: czy technologie chmurowe nabiorą rozpędu? Jakie będą kluczowe kwestie związane z rozwojem chmur, zwłaszcza prywatnych? Kiedy podaż dysków twardych wróci do normy i czy stacje SSD będą nadal podbijać masowy rynek?

Rosnący nacisk na efektywność pamięci masowej

Macierze pamięciowe pochłaniają znaczną część budżetów IT, więc firmy mają wysokie oczekiwania dotyczące zwrotu z dokonanych inwestycji. Ze względu na niepewną sytuację gospodarczą firmy inwestują ostrożnie, domagając się większego stopnia wykorzystania, odporności i elastyczności swoich systemów.

  • Ponieważ czyste możliwości sprzętowe i programowe (chwilowo) ustabilizowały się, branża zareagowała  na to, przenosząc nacisk z rozwoju produktów na efektywność. To dążenie do efektywności jest wyraźnie widoczne we wszystkich segmentach rynku, m.in. w małych i średnich firmach oraz dużych korporacjach. Świadczy o tym szereg funkcji macierzy pamięciowych, które szybko zyskują na popularności, takich jak  deduplikacja danych oraz zautomatyzowana obsługa wielowarstwowej pamięci masowej.
  • Wspólną cechą tych funkcji jest to, że początkowo pojawiały się głównie w systemach klasy wyższej, dostępnych tylko dla dużych korporacji, które zarządzały złożonymi centrami danych. W 2011 r. mieliśmy do czynienia z rosnącą dostępnością zaawansowanych funkcji, a trend ten powinien utrzymać się w 2012 r. Firmy z segmentu podstawowego i średniego również zyskają do nich dostęp, co pomoże im osiągnąć wyższą efektywność w centrum danych.
  • Deduplikacja danych to dobry przykład, który ilustruje potencjał technologii skupionej na efektywności. Integracja technologii deduplikacyjnej z macierzami pamięciowymi pozwala usuwać zduplikowane zbiory danych w celu znacznego ograniczenia zajętej przestrzeni dyskowej (do 90 proc. w niektórych środowiskach aplikacyjnych). Oszczędności te umożliwiają przechowywanie większej ilości danych w jednej macierzy, a zatem dłuższe korzystanie z produktów i osiągnięcie wyższego zwrotu z inwestycji w pamięć masową. Deduplikacja przestaje być domeną kosztownych rozwiązań korporacyjnych i stopniowo pojawia się w produktach klasy podstawowej, na czym szczególnie skorzystają małe i średnie firmy z ograniczonymi budżetami IT.

Dalszy rozwój modeli chmury prywatnej

Dużym zainteresowaniem nadal cieszą się rozwiązania chmurowe, od chmur publicznych po prywatne i hybrydowe. Jak to jednak bywa w przypadku wielu nowych nurtów branżowych, „szum marketingowy” generowany przez producentów znacznie przekracza rzeczywiste wykorzystanie tych rozwiązań przez przeciętnych użytkowników macierzy dyskowych. Wielu spośród nich nadal obawia się o bezpieczeństwo i dostępność danych.Nie zanosi się na to, aby producenci przestali głośno dyskutować o cloud computingu w nadchodzącym roku. Będą oni raczej ściśle monitorować i rozwijać modele usługowe dla chmur prywatnych.

  • Wiele organizacji, które wdrażają usługi chmury prywatnej, w tym instytucje rządowe oraz średnie i duże przedsiębiorstwa, nie dysponuje wiedzą technologiczną i operacyjną dobrze znanych dostawców usług chmurowych, takich jak Google lub Amazon, którzy od wielu lat zarządzają ogromnymi centrami danych. W dużych chmurach prywatnych dostęp do danych musi być gwarantowany przez cały czas, co wymaga dużej nadmiarowości sprzętowej, systemu zaprojektowanego pod kątem wysokiej dostępności (HA) oraz innych technologii, dzięki którym chmura może spełniać wszystkie wymagania użytkowników w zakresie jej zastosowań.
  • Z perspektywy chmury jedną z najważniejszych technologii jest wirtualizacja. Możliwość przełamania fizycznych barier między różnymi zasobami oraz pamięciami masowymi w dużych, scentralizowanych pulach, które pozwalają elastycznie przydzielać zasoby aplikacjom, stanowi kluczową zasadę wirtualizacji. Elastyczność i wysoki stopień wykorzystania zasobów, jaki zapewnia wirtualizacja, ma ogromne znaczenie dla usług chmurowych.
  • Oprócz wirtualizacji pamięci masowych ważną rolę odgrywa również możliwość ścisłej integracji przechowywania danych ze środowiskami wirtualizacji serwerów. Dlatego macierze pamięciowe muszą być zgodne z najważniejszymi rozwiązaniami do wirtualizacji serwerów, takimi jak VMware i Citrix.
  • Jeśli chodzi o producentów macierzy pamięciowych, umiejętność opracowywania produktów wyposażonych w te technologie zadecyduje o tym, czy zdołają oni wprowadzić swoje rozwiązania do chmur prywatnych i wykorzystać nowe okazje rynkowe stwarzane przez technologie chmurowe.

Problemy z dostawami dysków twardych i rosnąca popularność stacji SSD

Niedawne powodzie w Tajlandii miały duży wpływ na podaż dysków twardych, ponieważ w tym kraju znajduje się wiele zakładów największych japońskich i amerykańskich producentów. W związku z tymi niedoborami znacznie wzrosły ceny dysków, co przełożyło się na podwyżkę cen dla klientów końcowych. Może upłynąć jeszcze kilka miesięcy, zanim łańcuch dostaw wróci do normy, ponieważ poza samymi dostawcami dysków twardych konsekwencje powodzi odczuwa wielu producentów komponentów.

  • W branży oczekuje się, że zwykły poziom dostaw zostanie przywrócony dopiero w połowie 2012 r. Oznacza to, że przez pierwsze sześć miesięcy 2012 r. dostępność wielu modeli dysków twardych używanych w korporacyjnych macierzach pamięciowych może być ograniczona. Kiedy podaż osiągnie poziom sprzed powodzi, powrót do poprzedniego poziomu cen może zająć kilka kolejnych miesięcy.
  • Wzrost cen dysków twardych towarzyszący obecnym niedoborom stanowi nową okazję dla stacji SSD, które mogą zwiększyć swój udział w rynku przechowywania danych. W 2011 r. stacje SSD były coraz częściej wykorzystywane w macierzach pamięciowych, zwłaszcza w segmencie klasy wyższej, gdzie po raz pierwszy pojawiły się systemy wyposażone wyłącznie w stacje SSD, zrywające z tradycyjną zależnością od dysków twardych.
  • Dotychczas największymi zaletami stacji tego typu były wysoka wydajność oraz odporność na wstrząsy i wibracje. Teraz, kiedy ceny stacji SSD spadły do akceptowalnego poziomu, a ceny dysków twardych chwilowo wzrosły, firmy mają więcej powodów, aby przejść na stacje SSD, a przez to osiągnąć poziom wydajności niedostępny dla tradycyjnych dysków.

SSD w macierzach

Ponadto, wracając do wspomnianej wcześniej dyskusji o efektywności, użytkownicy mogą teraz stosować stacje SSD znacznie efektywniej dzięki nowym funkcjom, takim jak zautomatyzowana obsługa wielowarstwowej pamięci masowej. W tradycyjnych architekturach wadą korzystania ze stacji SSD jest to, że starsze, mniej ważne dane mogą zajmować dużo miejsca, przez co stacje SSD nie spełniają swojej kluczowej funkcji, jaką jest obsługa wysokowydajnych aplikacji. Co więcej, przenoszenie starszych danych ze stacji SSD na inne nośniki pamięci może wiązać się z czasochłonnymi i skomplikowanymi procesami. W architekturach wielowarstwowych dane są dynamicznie migrowane między warstwami zgodnie z ich względną wartością dla przedsiębiorstwa. Oznacza to, że starsze dane automatycznie przenosi się ze stacji SSD do niższych warstw z tradycyjnymi dyskami twardymi. Zwalnia to miejsce na stacjach SSD, umożliwiając im obsługę wysokowydajnych, krytycznych aplikacji, do czego są przeznaczone.

Podsumowując, spadające ceny, problemy z dostawami tradycyjnych dysków twardych oraz pojawienie się efektywnych architektur pamięci masowej spowodują dalszą ofensywę stacji SSD na rynku zewnętrznych macierzy pamięciowych w 2012 r.

Galvin Chang zajmuje stanowisko Associate Director of Global Product Marketing w Infortrend Technology


 

Dodaj komentarz

Przeczytaj również

Wiosenna promocja ZTE – smartfony od 249 zł

Szukasz niedrogiego smartfona na komunię? Padł ci telefon i szukasz nowego, by być w konta…