Home Analizy Co będzie z pamięciami masowymi?

Co będzie z pamięciami masowymi?

0
0
106

Pominąwszy wymogi zarządzania budżetem, specjaliści ICT muszą precyzyjnie ocenić rzeczywisty wpływ dostępnych systemów – na przykład technologii chmurowych – w celu ich efektywniejszego wykorzystania. Taka ewaluacja jest szczególnie trudna w obliczu zakłóceń spowodowanych spowolnieniem gospodarczym zaś w Azji wpływem katastrof technologicznych (Fukishima) oraz naturalnych.

""Mimo to, Marek Świerad – nowy szef Hitachi Data Systems Poland, oczekuje dużych kontraktów w sektorze pamięci masowych, szczególnie w sektorze bankowości w Polsce.

 

10 trendów 2012  w pamięciach masowych wg Hu Yoshidy

  • Efektywność pamięci masowej. Niepewna sytuacja ekonomiczna zmusi specjalistów IT do lepszego wykorzystania istniejących zasobów zamiast kupowania nowych. Pojawi się większy nacisk na technologie zwiększające efektywność pamięci masowej, takie jak wirtualizacja, przydzielanie dynamiczne lub uproszczone, dynamiczna obsługa warstw
    i archiwizacja.
  • Od konsolidacji do konwergencji. Konsolidacja ustąpi miejsca konwergencji. W ciągu kilku minionych lat działy IT skonsolidowały niemal wszystko, co było łatwe do skonsolidowania. Aby osiągnąć dalszą oszczędność kosztów, trzeba przesunąć nacisk na konwergencję serwerów, pamięci masowej, sieci i aplikacji. Interfejsy programistyczne (API), które przenoszą obciążenia robocze do systemów pamięciowych, mogą zwiększyć wydajność serwerów. Oprogramowanie pomoże ujednolicić zarządzanie oraz zautomatyzować przydzielanie i raportowanie zasobów serwerowych, pamięciowych
    i sieciowych — lokalnych, zdalnych oraz chmurowych.
  • Transparencja. Aplikacje i infrastruktura staną się bardziej przezroczyste dla siebie nawzajem, co ułatwi konwergencję za pośrednictwem otwartych interfejsów, takich jak API, klienci oraz dodatki (plug-iny). Hitachi Data Systems oferuje oprogramowanie Hitachi Command Director, które zapewnia aplikacjom wgląd w poziom usług, stopień wykorzystania oraz kondycję infrastruktury pamięci masowej, która dostarcza usługę zwirtualizowanej pamięci.
  • Komputeryzacja pamięci masowej. Systemy pamięci masowej będą musiały przekształcać się w komputery pamięciowe realizujące coraz więcej funkcji. Stare architektury pamięciowe z kontrolerami ogólnego przeznaczenia, zmuszone do obsługi wszystkich nowych funkcji poza zwykłymi operacjami wejścia-wyjścia, nie będą się dobrze skalować. Dodatkowe funkcje będą zatem wymagać nowej architektury pamięciowej z oddzielną pulą procesorów.
  • Duże zbiory danych. W 2012 r. gorącym tematem pozostaną duże zbiory danych („Big Data”). Eksplozja nieustrukturyzowanych danych i aplikacji mobilnych może okazać się ważnym źródłem korzyści biznesowych, przewagi konkurencyjnej i wsparcia decyzyjnego, jeśli uda się efektywnie zarządzać tymi danymi i uzyskiwać do nich dostęp. Rozmiary dużych zbiorów sprawią, że tradycyjne metody replikacji, tworzenia kopii zapasowych
    i eksploracji staną się niepraktyczne. Większej wagi nabiorą informacje, które będzie można uzyskać z przecięcia wielu zbiorów danych lub obiektów. W 2012 r. przygotowania do analizy dużych zbiorów spowodują zwiększenie popytu na platformy do zarządzania treścią.
  • Energooszczędność. Zasilanie, chłodzenie i emisja dwutlenku węgla nabiorą jeszcze większego znaczenia w miarę wzrostu popytu na energię oraz wprowadzania podatku węglowego. Działy IT będą musiały poradzić sobie ze swoją częścią obciążenia energetycznego.
  • Eliminowanie luki konsumpcyjnej. Większego znaczenia nabierze umiejętność wykorzystania nowych technologii przez departamenty informatyczne. Firmy będą nakłaniać działy IT do szybszego wdrażania nowych rozwiązań, aby uzyskać korzyści, które są już dostępne dzięki bieżącym technologiom. Jeszcze bardziej istotne staną się usługi, które odciążą przepracowany personel IT i ułatwią wykorzystanie nowych technologii.
  • Pionowe skalowanie pamięci masowej. Wirtualizacja serwerów i desktopów wymusi potrzebę pionowego skalowania systemów pamięci masowej, bez zakłócania pracy serwerów fizycznych, którym stawiane są coraz wyższe wymagania. Systemy modularne trzeba będzie zastąpić systemami klasy korporacyjnej, aby spełnić wymagania serwerów wirtualnych w zakresie pamięci masowej warstwy pierwszej. Architektury skalowania poziomego nie będą w stanie sprostać wymaganiom związanym z wirtualizacją serwerów i desktopów.
  • Zwirtualizowana migracja. Migracje, które zakłócają działanie urządzeń, zostaną zastąpione nowymi mechanizmami wirtualizacji, które wyeliminują potrzebę ponownego uruchamiania systemów.
  • Wykorzystanie zasobów chmurowych. Nabywanie zasobów chmurowych –  oparte na samoobsłudze, płatności za wykorzystanie lub modelu „na żądanie” –  zacznie zastępować bieżący, trzy-pięcioletni cykl nabywania produktów w miarę, jak konwergencja doprowadzi do powstania scalonych pul zasobów.

Hu Yoshida

Jest doskonale znany w branży pamięci masowych, a jego blog (dostępny pod adresem blogs.hds.com/hu) został niedawno zaliczony przez magazyn Network World do „10 najbardziej wpływowych” w branży storage.

Przed dołączeniem do Hitachi Data Systems w 1997 roku, Hu Yoshida pracował przez 25 lat w dziale pamięci masowych firmy IBM, gdzie pełnił kierownicze funkcje i odpowiadał za wydajność sprzętu, rozwój oprogramowania i zarządzanie produktem. Po rozpoczęciu pracy w HDS współtworzył strategię firmy w zakresie rozwiązań Storage Area Network, Network Attached Storage i innych technologii sieciowych.

Hu Yoshida jest absolwentem wydziału matematyki na University of California w Berkley. Był dowódcą plutonu Marine Corps podczas wojny w Wietnamie. Hu Yoshida jest autorem wielu prac o sieciach pamięci masowej (Storage Area Network), standardzie Fibre Channel, wieloprotokołowym środowisku SAN i technologii wirtualizacji pamięci.


 

Dodaj komentarz

Przeczytaj również

Majówka ze skonfiskowanym samochodem? Sprawdź, czy możesz prowadzić

Długi weekend majowy za pasem, a wraz z nim kolejne zatrzymania nietrzeźwych kierowców. Ko…