Strona główna / Maszyneria / Serwery: zmiany, zmiany i jeszcze raz zmiany
środa 28 grudzień 2011 | Marcin Złoch
Serwery: zmiany, zmiany i jeszcze raz zmiany
Dzisiejsze serwery mają ze swoimi odpowiednikami sprzed kilku lat wspólną jedynie nazwę. Nowoczesne, nawet najprostsze, maszyny mają wbudowane mechanizmy wirtualizacyjne, nadmiarowe chłodzenie, umożliwiają zdalne zarządzanie i są energooszczędne.

Kiedyś na serwer mogły sobie pozwolić jedynie duże firmy, instytucje publiczne i finansowe. Rolę serwera w małej firmie często pełnił jeden z komputerów. Podobnie było z laptopami – tylko zamożniejsi użytkownicy lub pracownicy wyższego szczebla zatrudnieni w dużych firmach byli wyposażeni w mobilne komputery. Teraz spadły ceny komputerów – urządzenia te stały się bardziej dostępne. Podobną tendencję obserwujemy w przypadku serwerów – dziś nawet kilkuosobowe firmy mogą pozwolić sobie na zakup takiego rozwiązania. Do zainwestowania w prawdziwy serwer, i w ochronę cennych informacji, zachęca firmy świadomość, że coraz więcej istotnych danych jest przechowywanych i analizowanych w postaci cyfrowej.

Co nowego

Serwery zmieniały się na przestrzeni lat. Obecnie obserwujemy coraz silniejszy trend ku wielordzeniowości serwerów, ich większej wydajności i zarazem energooszczędności. Kiedyś dostępne były jedynie konstrukcje typu Rack i Tower, teraz jeszcze w ramach Rack wyróżniamy Twin, Blade, serwer modularny, a oprócz procesorów do obliczeń wykorzystywane są również układy graficzne. To, co jest dziś np. w prostym serwerze 1P, znajdowało się kiedyś jedynie w bardziej rozbudowanych maszynach – zdalne zarządzanie, możliwość redundancji, dyski hot-swap.

„Z dużych serwerów typu Blade zapożyczono „kasetowość”, którą zastosowano w mniejszych konstrukcjach 1- i 2-procesorowych. W obudowach RACK 1-2U można zmieścić do 4 wysuwanych modułów serwerowych – tak powstały rozwiązania typu Twin/Twin2. W prostych serwerach również stosuje się procesory i chipsety dedykowane zastosowaniom serwerowym. Zmiana zaszła także w systemach operacyjnych – dziś dysponujemy Windows Server 2008 R2 Foundation, który obsługuje do 15 użytkowników i oparty jest na kodzie Windows Server 2008 R2. Dawniej w tym miejscu używano systemów desktopowych – jak Windows XP” – zauważa Stanisław Rejowski, Dyrektor Działu Produkcji Serwerów Actina Solar w firmie ACTION.

Rdzenie to rewolucja

Za rewolucję można uznać wprowadzenie procesorów kilkurdzeniowych. Wiąże się to z redukcją liczby urządzeń, a tym samym z oszczędnością na zasilaniu oraz chłodzeniu. Według ekspertów, przy obecnej gęstości upakowania serwerów jesteśmy w stanie uzyskać poziom 40 procesorów w pojedynczej obudowie (np. Blade 7U) i współczynnik zasilania ok. 5 W/rdzeń. Tymczasem kiedyś w podobnej gabarytowo obudowie mieściły się maksymalnie 4 procesory 1-rdzeniowe, z których każdy pobierał 90-150 W.

„Największe zmiany w zakresie ewolucji serwerów dotyczą rozwoju procesorów. Ewolucja jest tak duża, iż w ciągu 4-5 lat liczba rdzeni oraz obsługiwanych wątków potroiła się w grupie serwerów z procesorami x86. Bez wątpienia serwery te dorównały mocą obliczeniową wielowątkowym serwerom typu Risc. Duże zmiany zaszły również w ilości obsługiwanej pamięci RAM. Obecnie serwery np. dwuprocesorowe mogą obsługiwać prawie 400 GB pamięci RAM. Taka ilość pamięci do niedawna była domeną serwerów np. 8-procesorowych” – informuje Marcin Mazur, product manager w Veracomp.

Warto podkreślić to, że kolejne generacje procesorów zawierają coraz więcej elementów, które dotąd instalowane były na płytach głównych. Nowoczesne układy mają zintegrowane karty graficzne, kontrolery pamięci czy też kontrolery I/O (wejścia/wyjścia).

Zdublowane elementy

Przez długi czas serwer był pojedynczą konstrukcją, a każde urządzenie znajdowało się w oddzielnej szafie. Takie rozwiązanie miało jednak słabe strony – każdy serwer potrzebował własnego systemu zasilania i chłodzenia, a serwerownia zajmowała bardzo dużo miejsca. Dodatkowo zużycie energii było bardzo wysokie. Dlatego na uwagę zasługuje również rozwój serwerów pod kątem coraz niższego zużycia energii przy lepszych parametrach wydajnościowych. Mają na to wpływ takie elementy, jak specjalne konstrukcje obudowy, poprawa systemów chłodzenia serwera, ze szczególnym naciskiem na elementy generujące wyższe ciepło, niezawodne zasilacze oraz mechanizmy zarządzające zużyciem energii, charakterystyczne kilka lat temu dla najdroższych systemów.

Wewnętrzny podział

Bardzo ważne zmiany to postępująca wirtualizacja i wielozadaniowość. Kiedyś serwer miał przypisane jedno zadanie: aby uniknąć konfliktów z innymi aplikacjami oraz aby w przypadku awarii nie sparaliżować wszystkich usług, wyszczególniano oddzielną maszynę do systemu magazynowo-księgowego firmy, na innej była poczta, a na innej współdzielenie plików. W ten sposób każdy z serwerów był obciążony tylko częściowo, a przy braku mechanizmów oszczędzania energii pobierał jej dużo.

„Dziś możemy postawić każdą usługę na odrębnej maszynie wirtualnej, łącząc je na jednej mocniejszej maszynie fizycznej. Przez to, że procesory są coraz bardziej wielordzeniowe, to do zadań wykonywanych kiedyś przez bardziej zaawansowane maszyny dziś wystarcza prostsza konstrukcja – o takiej samej, a czasem nawet większej wydajności niż starsze rozwiązanie” – zauważa Stanisław Rejowski z ACTION.

Zdaniem przedstawicieli producentów, coraz więcej mniejszych serwerów jednoprocesorowych będzie również wirtualizowanych, z uwagi na wysoką moc obliczeniową procesorów z najnowszej linii Xeon E3.

Według Stanisława Rejowskiego, za jakiś czas będziemy mieć do czynienia z coraz większą liczbą jednoprocesorowych serwerów w coraz bardziej zaawansowanych zadaniach, zwłaszcza że w tej grupie pojawia się kilka klas rozwiązań: od najprostszych, ale za to super oszczędnych (np. na procesorach Atom), poprzez standardowe (na procesorach Xeon E3 lub AMD Opteron 4100), aż po zaawansowane konstrukcje obsługujące duże pojemności pamięci RAM (np. AMD Opteron 6100 lub zapowiadana rodzina procesorów Xeon E5). Coraz więcej konstrukcji jednoprocesorowych będzie obsługiwało do kilku kart GP-GPU (np. NVIDIA Tesla), – bo w takich konstrukcjach liczy się moc obliczeniowa kart graficznych, a nie głównego procesora.

Źródło: ITReseller

Podobne artykuły
Komentarze
comments powered by Disqus
zobacz więcej
Video
więcej
Video"
więcej
Facebook
więcej