Strona główna / Analizy / Wirtualizacja - dziesięć najważniejszych prognoz na 2009
piątek 09 styczeń 2009 | Stephen Herrod
Wirtualizacja - dziesięć najważniejszych prognoz na 2009
W 2009 roku kryzys światowej gospodarki będzie trwać, a rządy i przedsiębiorstwa będą intensywnie szukać sposobów pozwalających zwiększyć produktywność przy mniejszym nakładzie środków. Rozwiązaniem jest wirtualizacja, która coraz częściej trafia na czoło listy strategicznych priorytetów firm na całym świecie.

Wiele z nich rozpoczyna proces wirtualizacji od konsolidacji serwerów, aby szybko uzyskać oszczędności na kosztach zakupu sprzętu, energii, chłodzenia i infrastruktury. W ciągu 2009 r. przedsiębiorstwa, które zaczęły wdrażanie wirtualizacji od projektów konsolidacji serwerów, będą ją rozszerzać na desktopy, pamięć masową i sieć. Zaczną też stosować bardziej elastyczne i ekonomiczne podejście do ciągłości biznesowej, bezpieczeństwa oraz umów SLA (Service Level Agreement - umowa utrzymania i systematycznego poprawiania ustalonego między klientem a usługodawcą poziomu jakości usług informatycznych dotyczących aplikacji.

10 trendów 

Oto dziesięć najważniejszych trendów w dziedzinie wirtualizacji, na które warto zwrócić uwagę w ciągu najbliższych 12 miesięcy. Mamy przed sobą kolejny interesujący rok, w którym wirtualizacja pokaże swoje możliwości w zakresie obniżania kosztów oraz wywrze wpływ na przekształcenia w branży.

1. Wirtualizacja desktopów w przedsiębiorstwach

W 2009 r. zacznie być rozwiązywany „dylemat desktopów” — problem wyboru, czy wyposażać pracowników w pełne czy w uproszczone klienty. Pełne klienty, czyli komputery PC i laptopy z pełnym wyposażeniem, zapewniają pracownikom bogaty zestaw aplikacji w samym środowisku komputera, ale są trudne w zarządzaniu, ponieważ aplikacje mogą być rozproszone na tysiącach komputerów, które wymagają indywidualnego obsługiwania, uaktualniania, wprowadzania poprawek i zabezpieczania. Uproszczone klienty są tańsze, bezpieczniejsze i mniej kosztowne w zarządzaniu, ale nie zapewniają takiej funkcjonalności, elastyczności i zgodności jak klienty pełne. Większość firm wyposaża w uproszczone klienty tylko tych pracowników, którzy mogą produktywnie pracować w uboższym środowisku, na przykład personel infolinii.

Nowe metody, oparte na wirtualizacji, rozwiążą ten problem przez połączenie zalet jednego i drugiego podejścia — udostępniając bogato wyposażone, spersonalizowane wirtualne desktopy na wszystkich urządzeniach (zarówno pełnych, jak i uproszczonych), a jednocześnie upraszczając zarządzanie i zapewniając bezpieczeństwo punktów końcowych dzięki hostingowi komputerów wirtualnych w centrum przetwarzania danych.

Wirtualizacja to podstawowa platforma zapewniająca efektywne zarządzanie komputerami PC w warunkach rosnącej mobilności. Ponadto dzięki lepszym protokołom RDP (Remote Display Protocol) i wykorzystywaniu lokalnych zasobów obliczeniowych komputerów, użytkownicy uzyskają jeszcze większe możliwości, a połączenie trybów online i offline ułatwi im pracę w podróży lub wtedy, gdy nie będą mieli dostępu do szybkiej sieci.

2. Pełna wirtualizacja pamięci masowej

Pamięć masowa to element o podstawowym znaczeniu w wirtualnych centrach przetwarzania danych. W 2009 r. dalsze postępy w dziedzinie wirtualnej pamięci masowej znacznie poprawią jej elastyczność, szybkość, odporność i efektywność.

Nowe rozwiązania wirtualnej pamięci masowej zautomatyzują przekazywanie informacji między platformą wirtualizacji a infrastrukturą pamięci masowej, uproszczą operacje pamięci i zwiększą efektywność wykorzystania infrastruktury pamięci masowej.

Szczególnie ważne będą rozwiązania oferujące bezpośrednią obsługę macierzy dysków w typowych operacjach pamięci masowej na maszynach wirtualnych, zwłaszcza w replikacji i migracji, rozwiązania optymalizujące wykorzystanie pamięci masowej dzięki funkcji thin provisioning (alokowanie pewnej pojemności pamięci dokładnie wtedy, gdy jest ona potrzebna) i deduplikacji, co jest szczególnie istotne w przypadku desktopów, oraz rozwiązania pamięci masowej oparte na maszynie wirtualnej (wirtualne macierze pamięci masowej).

3. Wirtualizacja najbardziej zaawansowanych aplikacji

Dalszy rozwój sprzętu i oprogramowania pozwoli wyeliminować w środowiskach wirtualnych problemy z wydajnością najbardziej zaawansowanych i najważniejszych aplikacji. Szczególnie duże nadzieje, dotyczące aplikacji intensywnie wykorzystujących pamięć i systemów do wydajnych obliczeń, wiążą się z nowymi, zaawansowanymi układami, takimi jak Intel Extended Page Tables (EPT) i AMD Rapid Virtualization Indexing (RVI). Ponadto możliwość kupowania coraz większej liczby aplikacji w postaci pakietów maszyn wirtualnych oraz udoskonalone reguły udzielania licencji i pomocy technicznej oferowane przez niezależnych producentów oprogramowania będą zwiększać zainteresowanie wirtualizacją pojedynczych lub wszystkich aplikacji.

4. Wirtualizacja wielu centrów przetwarzania danych

Firmy działające w skali globalnej będą w coraz większym stopniu wykorzystywać platformy wirtualizacji do dynamicznego łączenia mocy obliczeniowej wielu centrów przetwarzania danych. Na przykład BT (dawniej British Telecom) buduje infrastrukturę nowej generacji, przygotowaną do obsługi cloud computing. Platforma wirtualizacji BT obejmuje procesy biznesowe, aplikacje, infrastrukturę informatyczną, dostęp użytkowników oraz sieć w ramach infrastruktury zorientowanej na usługi mającej możliwość samonaprawy, z zintegrowanym zarządzaniem poziomem usług i wbudowanymi funkcjami zapewniającymi ciągłość biznesową. System zapewnia dynamiczne wyrównywanie obciążenia centrów przetwarzania danych BT w Ameryce Północnej i Południowej oraz w Wielkiej Brytanii, Europie, Azji i Australazji.

Użytkownikowi umożliwia on korzystanie z wirtualnego komputera z dowolnego miejsca. Przedsiębiorstwu pozwala automatycznie rozkładać obciążenia zapewniając wymaganą wydajność oraz wykorzystywać lokalizacje przyjazne dla środowiska, czyli te w których energia elektryczna jest znacznie tańsza.

Taki poziom organizacji centrów przetwarzania danych będzie się upowszechniać, przede wszystkim ze względu na wymagania dotyczące odtwarzania po awarii oraz możliwość szybkiego przeniesienia obciążenia do innego ośrodka w przypadku awarii. Widoczne są już pierwsze oznaki migracji maszyn wirtualnych w modelu follow-the-sun oraz planowego wykorzystywania drugorzędnych i zewnętrznych centrów przetwarzania danych w okresach szczytowego obciążenia. Prowadzi to w naturalny sposób do przetwarzania rozproszonego z usługami dającymi większe możliwości importu i eksportu standardowych maszyn wirtualnych, które pozwalają szybko uzyskiwać dodatkową moc obliczeniową.

5. Pełna wirtualizacja sieci

We wrześniu 2008 r. firmy Cisco i VMware poinformowały o nawiązaniu współpracy w celu dostarczania wspólnych rozwiązań centrów przetwarzania danych, które zwiększą skalowalność i kontrolę operacyjną środowisk wirtualnych.

Przewiduje się, że przełącznik rozproszonego oprogramowania wirtualnego Cisco Nexus 1000V będzie dostępny jako wbudowana opcja w VMware Infrastructure. Równolegle obie firmy współpracują nad integracją rozwiązań VMware Virtual Desktop Infrastructure (VDI) i Cisco Application Delivery Networking w celu poprawy wydajności komputerów wirtualnych w sieciach WAN.

Współpraca ta jest zapowiedzią znacznych postępów w sieciowym wykorzystywaniu desktopów i serwerów. Operatorzy sieci wprowadzają optymalizację ruchu ukierunkowaną na wirtualizację. Protokoły RDP stają się coraz efektywniejsze. Sieciowe narzędzia do zarządzania będą przenikać przez warstwę wirtualizacji, co umożliwi monitorowanie i zarządzanie na poziomie maszyny wirtualnej. W ślad za Cisco również inni producenci rozpoczną dostawy programowych przełączników sieciowych.

6. Wirtualizacja w inteligentnych telefonach

Korzyści z wirtualizacji obejmą również telefony komórkowe. Ultracienkie moduły typu hypervisor — cienka warstwa oprogramowania telefonu komórkowego, która oddziela aplikacje i dane od sprzętu, zoptymalizowana pod kątem efektywnego działania w aparatach o małym poborze mocy i ograniczonej pamięci — umożliwią producentom szybsze wprowadzanie na rynek nowych telefonów oraz oferowanie użytkownikom nowatorskich aplikacji i usług.  Obecnie producenci telefonów poświęcają dużo czasu i pracy na wprowadzanie serii swoich produktów na rynek, ponieważ jest w nich stosowanych wiele zestawów układów, systemów operacyjnych i sterowników urządzeń. Nie ma jednego zestawu oprogramowania, który działałby na wszystkich telefonach, a zatem oprogramowanie trzeba przesyłać osobno do każdej platformy.

Wirtualizacja umożliwi producentom stosowanie tego samego pakietu oprogramowania na wielu rozmaitych telefonach bez względu na różnice sprzętowe. Ponadto, dzięki wirtualizacji producenci będą mogli szybciej opracowywać aplikacje RIA (Rich Internet Application - bogata aplikacja internetowa) na telefony komórkowe, a użytkownicy będą mogli na jednym telefonie używać wielu profili — na przykład jednego na użytek prywatny, a drugiego w pracy. To przyczyni się do poprawy bezpieczeństwa i efektywności wykorzystania telefonów komórkowych jako urządzeń komunikacyjnych i komputerowych.

7. Upowszechnienie wirtualizacji zabezpieczeń

Podczas VMworld 2008 czołowe firmy na rynku zabezpieczeń ukierunkowanych na wirtualizację, McAfee, Symantec i Trend Micro, zaprezentowały nowe rozwiązania.

Tradycyjne zapory, systemy wykrywania włamań i programy antywirusowe są obecnie oferowane jako maszyny wirtualne. Klienci coraz częściej wdrażają elementy TPM (Trusted Platform Module), aby uwierzytelnić wbudowane moduły typu hypervisor.

VMware VMsafe, zestaw interfejsów programowania aplikacji (API) umożliwiających dodawanie produktów innych firm w celu wprowadzenia zabezpieczeń do maszyn wirtualnych bez konieczności uruchamiania agenta w każdej z nich, będzie nadal stymulować postęp w zabezpieczeniach środowisk wirtualnych. Na przykład, aby zmniejszyć obciążenie procesora i zwiększyć efektywność ochrony antywirusowej, VMsafe umożliwia producentom wdrażanie jednej instancji aplikacji antywirusowej na każdym hoście fizycznym zamiast na każdym serwerze wirtualnym.

8. Narzędzia do zarządzania coraz bardziej ukierunkowane na wirtualne centrum przetwarzania danych

Dzisiejsze produkty oferują funkcje zarządzania obejmujące szeroką gamę operacji, takich jak wykrywanie maszyn wirtualnych, zarządzanie konfiguracją, monitorowanie, zarządzanie wydajnością, serwis i zarządzanie zasobami. Produkty te, w połączeniu ze standardowymi, niezależnymi od sprzętu kontenerami maszyn wirtualnych, które mogą być łatwo modyfikowane, przenoszone i manipulowane, umożliwiły niektórym użytkownikom VMware automatyzację wielu procesów informatycznych i dwu- lub trzykrotne zwiększenie wydajności zarządzania centrum przetwarzania danych w porównaniu ze środowiskami fizycznymi. Dodatkowe interfejsy programowania i technologie integracji (np. architektura z interfejsem użytkownika jako wtyczką), które ułatwią integrację funkcji zarządzania z platformami wirtualizacji, umożliwią objęcie kompleksowymi procesami zarządzania heterogenicznych środowisk centrów przetwarzania danych, szerokiej gamy pakietów aplikacji oraz przypadków użytkowania fizycznego i wirtualnego. Stanie się to szybko — produkty z tego obszaru zapowiedzieli już tacy liderzy rynku, jak firmy BMC, CA, HP i IBM.

9. Sprzyjające wirtualizacji wymagania ekologicznych centrów przetwarzania danych

Zasilanie i chłodzenie to nadal największe problemy centrów przetwarzania danych.

„Rosnące wymagania dotyczące infrastruktury i koszty energii mogą już w 2012 r. podwoić udział energii w kosztach związanych z informatyką” — stwierdzono w jednym z raportów z badań firmy Gartner (U.S. Data Centers: The Calm Before the Storm, 25 września 2007 r.).„W 2011 r. w ponad 70% korporacyjnych centrów przetwarzania danych w Stanach Zjednoczonych wystąpią odczuwalne problemy związane z niedostatkiem powierzchni, zużyciem energii i/lub kosztami”.

Jednym z najlepszych sposobów zmniejszenia zużycia energii i emisji gazów cieplarnianych jest konsolidacja serwerów przez wirtualizację. Wielu klientów VMware może uruchamiać 15 lub więcej maszyn wirtualnych na jednym serwerze, co zwiększa wykorzystanie serwerów z 10–15% (średnie wykorzystanie serwerów niezwirtualizowanych) do 70–80%. Dzięki zmniejszeniu liczby serwerów fizycznych klienci VMware zmniejszają zużycie energii o 70–90%. Oznacza to bardziej ekologiczną infrastrukturę informatyczną, zmniejszenie zużycia energii przez centrum przetwarzania danych o 70–90% i radykalne ograniczenie emisji dwutlenku węgla.  Każdy usunięty serwer to oszczędność około 7000 kWh energii i zmniejszenie o 4 tony emisji CO2, co jest równoważne usunięciu z ruchu drogowego 1,5 samochodu lub zasadzeniu 55 drzew rocznie.

Ponadto dzięki wirtualizacji klienci mogą uzyskać jeszcze większe oszczędności energii, stosując dynamiczne zarządzanie zasobami. Kiedy klaster maszyn wirtualnych potrzebuje mniejszych zasobów, narzędzie VMware Distributed Power Management (DPM) konsoliduje obciążenia i wprowadza hosty w tryb gotowości, co zmniejsza pobór mocy. Kiedy zapotrzebowanie obciążenia na zasoby wzrasta, VMware DPM ponownie uaktywnia wyłączone hosty, aby zapewnić wymagany poziom usług.

10. Bardziej otwarte i konkurencyjne oferty operatorów udostępniających obliczenia rozproszone

Branża informatyczna ewoluuje w kierunku przetwarzania rozproszonego, którego podstawową infrastrukturę tworzy wirtualizacja. Rozgrywa się to na dwóch frontach: w samych przedsiębiorstwach, gdzie centra przetwarzania danych przekształcają się w zautomatyzowane „chmury” prywatne, w których pule zasobów obliczeniowych na platformie wirtualizacji stają się jakby jednym, gigantycznym komputerem, oraz w procesie outsourcingu mocy obliczeniowej przez Internet do pul publicznych lub operatorów świadczących usługi obliczeń rozproszonych.

Kluczem do sukcesu chmur publicznych jest standaryzacja — standardy, które zapewniają zgodność w warstwie maszyny wirtualnej, co ułatwia wejście w chmurę i wyjście z niej, oraz standardy umożliwiające migrację niemodyfikowanych aplikacji do i z pul publicznych. W 2009 r. postępy te będą szybsze, co umożliwi dużym i małym firmom bezpieczne czerpanie mocy obliczeniowej zarówno z własnych zasobów, jak i ze świata zewnętrznego, w dowolny sposób, w dowolnym czasie i w dowolnej ilości. Pozwoli to zagwarantować jakość usług każdej aplikacji, uruchamianej wewnętrznie lub w outsourcingu, gdy jest wymagana dodatkowa moc obliczeniowa.

Podobne artykuły
zobacz więcej
Video
więcej
Video"
więcej
Facebook
więcej