DOSTAWCA W TELEKOMUNIKACJI I INFORMATYCE

tel. 42 689 20 50
fax 42 689 20 60
info@poltel.com.pl
pon-pią 8:00-16:00

Zapytania ofertowe:
Po złożeniu zapytania ofertowego przygotujemy dla Ciebie specjalne rabaty i upusty w zależności od ilości produktów, które potrzebujesz u nas zamówić oraz Twojego historii współpracy z naszą firmą
0,00
Jesteś tutaj:  strona główna Technologie › Infrastruktura konwergentna

Infrastruktura konwergentna

Rozwój Infrastruktury Konwergentnej

Autor: Tatu Valjakka, Menedżer ds. i Technologii

Dział Jakości Zasilania - obszar EMEA (Europa, Środkowy Wschód i Afryka)

EATON


Współczesne informatyczne otoczenie robocze bardzo często charakteryzuje się nieprzewidywalnym wzrostem ilości danych wraz z trudnym do przewidzenia zapotrzebowaniem wydajnościowym ze strony użytkowników. W związku z tym operatorzy centrów danych muszą reagować na zmieniające się potrzeby szybko, ale równocześnie oszczędnie kosztowo. Wykorzystywane do tej pory rozwiązania infrastrukturalne nie zawsze zapewniały im taką elastyczność, jakiej potrzebowali, przy cenie, która gwarantowałaby opłacalność prowadzonej działalności. Stąd ich coraz większe zainteresowanie infrastrukturą konwergentną.

Infrastruktura konwergentna ma najczęściej budowę modułową, obejmującą gotowe „cegiełki”, z których mogą być budowane kompleksowe centra danych. Rozbudowa centrum polega w tym przypadku na dodaniu jednej gotowej cegiełki lub większej liczby takich cegiełek, a ich instalacja stanowi czynność, która może być wykonana w prosty sposób, szybko i stosunkowo niedrogo.

Konwergentna infrastruktura sprzętowa jest znakomitym uzupełnieniem wirtualizacji, gdyż połączenie tych dwóch rozwiązań zapewnia doskonały poziom elastyczności, oszczędność kosztów, a także - przy odpowiedniej strukturze i właściwym zarządzaniu - wysoką niezawodność. Niemniej jednak, aby w pełni wykorzystać potencjał infrastruktur konwergentnych i wirtualizacji, należy zwrócić szczególną uwagę na sposób ich zasilania, ponieważ akurat w tym przypadku stosowanie tradycyjnej architektury zasilania bardzo rzadko stanowi najlepsze z możliwych rozwiązań.

W tym opracowaniu omówimy kwestie dotyczące infrastruktur konwergentnych oraz ich możliwości w zakresie nowych rozwiązań w dziedzinie optymalizacji i zapewnienia niezawodności. W ten sposób obalona zostanie niebezpieczna i złudna teza, że we współczesnych rozwiązaniach odpowiednie zabezpieczenie zasilania nie jest już problemem. Następnie przedstawimy najlepsze sposoby zasilania systemów konwergentnych, w szczególności w odniesieniu do przeznaczonych dla tych systemów rozwiązań dotyczących źródeł zasilania rezerwowego typu UPS.

Czym jest infrastruktura konwergentna?

Jak zauważyliśmy we wstępie, infrastruktura konwergentna to najczęściej rozwiązanie o charakterze modularnym, stosowane w projektowaniu i budowie centrów danych. Według jednego z najbardziej znanych zwolenników rozwiązań konwergentnych, infrastruktura konwergentna to „systematyczna strategia zapewniająca połączenie wszystkich serwerów oraz zasobów wykorzystywanych w dziedzinie magazynowania i transmisji sieciowej danych w grupy zasobów. Dzięki jej zastosowaniu wszystkie narzędzia wykorzystywane w dziedzinie zarządzania, strategie oraz procesy są zarządzane w sposób całkowicie zintegrowany i holistyczny”.

Podstawowymi elementami składowymi infrastruktury konwergentnej są więc - poza jednostką procesora i pamięcią - urządzenia sieciowej transmisji danych oraz - co w przypadku współczesnych systemów jest niezwykle ważne - rozwiązania dotyczące wirtualizacji. W praktyce te podstawowe elementy składowe systemu można realizować na wiele różnych sposobów. Mogą to być na przykład grupy wiązek, gotowe do użycia stojaki lub nawet kontenery zawierające niezbędne elementy. W wielu przypadkach decyzje dotyczące wyboru sprzętu w odniesieniu do serwera, macierzy dyskowej, urządzeń transmisji sieciowej oraz hipernadzorcy są podejmowane przez sprzedawcę, co oznacza, że końcowy sposób wykonania systemu odpowiada początkowemu rozwiązaniu projektowemu, które zostało poddane kompletnym testom i sprawdzone w korelacji z typowymi scenariuszami roboczymi.

Niemniej jednak niektórzy sprzedawcy oferują tylko pewien określony wybór komponentów, bez opracowania i testowania rozwiązań projektowych. Tego typu rozwiązanie umożliwia przeprowadzenie dokładnej konfiguracji w celu dostosowania jej do specyficznych wymogów klienta. Niektórzy operatorzy centrów danych mogą chcieć dopasowywać stosowane rozwiązania na własną rękę do wykorzystywanych konwergentnych zasobów sprzętowych, kupując niezbędne urządzenia i elementy oprogramowania oddzielnie, a następnie łącząc je we własnym zakresie, aby uzyskać całkowicie zindywidualizowane moduły bazowe.

Wszystkie opisane tutaj strategie są prawidłowe, a ich wybór zależy wyłącznie od preferencji i wymagań użytkownika. W ramach tego wyboru muszą jednak w każdym przypadku zostać podjęte odpowiednie decyzje dotyczące sposobu zapewnienia zasilania poszczególnych modułów. Decyzje te powinny być zawsze uzależnione od ogólnych rozmiarów instalacji i jej poboru mocy, jak również od wymagań dotyczących jej dostępności/niezawodności. Aby móc w pełni wykorzystać wszystkie zalety architektury konwergentnej, konieczne jest zastosowanie inteligentnego systemu zasilania awaryjnego UPS w połączeniu z inteligentnym systemem dystrybucji zasilania oraz kompletnym oprogramowaniem zarządzania zasilaniem.

Ponadto system zasilania musi być połączony z siecią, aby możliwa była wymiana odpowiednich informacji z systemami zarządzania zasobami informatycznymi oraz połączenie z warstwą wirtualizacji. Najlepszym rozwiązaniem jest zapewnienie możliwości monitorowania i przekazywania informacji dotyczących mocy wykorzystywanej przez każdy serwer lub element, co pozwala na szybkie reagowanie w razie ewentualnego zagrożenia pochodzącego z zewnątrz, takiego jak na przykład zbyt wysoka temperatura czy wyciek wody. Niektóre z tych zagadnień omówimy bardziej szczegółowo w dalszej części naszego opracowania, jednak zanim to nastąpi, musimy się zastanowić nad podstawowym zagadnieniem, mającym olbrzymie znaczenie dla kwestii wdrożenia, zapewnienia zasilania i zarządzania architekturami konwergentnymi. Zagadnieniem tym jest zapewnienie ich niezawodności.

Nowe strategie zapewnienia niezawodności

W tradycyjnym ujęciu uważano, że kwestie niezawodności dotyczą przede wszystkim wykorzystywanego sprzętu i systemu operacyjnego, dlatego bardzo wiele czasu i pieniędzy poświęcano zawsze zapewnieniu ich jak najwyższej niezawodności, oczywiście z uwzględnieniem realnych możliwości technologicznych. W wyniku przeprowadzonych prac stworzono mocne, stabilne podstawy, na których opiera się właściwie każda zaprojektowana i przetestowana platforma robocza.

W systemie opracowanym zgodnie z przedstawioną tutaj filozofią infrastruktura zasilania musi być skonfigurowana w taki sposób, aby zapewniała maksymalną niezawodność sprzętową. Jest więc najczęściej opracowywana na podstawie bardzo wymagających specyfikacji, obejmujących wiele redundantnych systemów UPS, a także redundantnych zestawów generatorów prądotwórczych, dużych zapasów paliwa, podwójnej magistrali zasilania oraz zwymiarowanego z odpowiednim zapasem statycznego stycznika automatycznego wprowadzania rezerwy (STS).

Tego rodzaju tradycyjne podejście do zagadnienia maksymalizacji niezawodności stanowi mocny fundament, na którym opiera się działanie aplikacji, systemu operacyjnego oraz pozostałych warstw, i jest oczywiście całkowicie prawidłowe. W przypadku użytkowników, dla których sprawą absolutnie najważniejszą jest zapewnienie dostępności systemów przez 24 godziny na dobę i 365 dni w roku i którzy nie tolerują nawet najmniejszego i krótkoterminowego spadku wydajności, strategia ta okazała się najlepsza. Niemniej ma ona także pewne wady.

 

Pierwszą z tych wad jest to, że system zapewnienia niezawodności, polegający wyłącznie lub niemal wyłącznie na warstwie sprzętowej, musi być bardzo statyczny, a co za tym idzie wprowadzanie w nim jakichkolwiek modyfikacji jest niezwykle trudne. Nie jest to korzystne z punktu widzenia rozwiązań konwergentnych, jak też dotyczących wirtualizacji, które - jak już wspomnieliśmy - wymagają przede wszystkim możliwości dynamicznego reagowania na zmieniające się potrzeby i wymogi. Drugą wadą strategii zapewnieniających niezawodność, opartych na rozwiązaniach sprzętowych, są ich koszty - uzyskanie i utrzymanie wymaganej wysokiej niezawodności sprzętowej jest w każdym przypadku niezmiernie kosztowne.

Na szczęście zastosowanie infrastruktur konwergentnych i wirtualizacji sprawia, że jak najbardziej możliwe jest zapewnienie niezawodności w odniesieniu do innych warstw systemu niż tylko fizyczna warstwa sprzętowa. Rozpatrzmy na początek warstwę, która mogłaby się wydawać najmniej korzystna jako źródło niezawodności, czyli warstwę użytkownika. Kluczowym zagadnieniem jest tutaj pytanie, czy zasoby informatyczne rzeczywiście muszą być dostępne całą dobę przez 365 dni w roku bez żadnych wyjątków i w każdych okolicznościach, czy też możliwe jest tolerowanie pewnych bardzo niewielkich strat danych i/lub krótkotrwałych przestojów. Właściwa odpowiedź na to zdawałoby się proste pytanie ma niebagatelne znaczenie dla kosztów - w przypadku zakupu systemów typu „chmura”, o określonych poziomach niezawodności, zapewnienie określonego czasu reakcji należy uznać za jeden z elementów, generujących poziom kosztów.

Jeszcze inną możliwość stanowi rozwiązanie uwzględniające kwestię niezawodności na poziomie warstwy aplikacji, poprzez tworzenie aplikacji z pewną tolerancją błędów, z założeniem, że nie w każdych okolicznościach i warunkach roboczych możliwe jest całkowite zapobieżenie wystąpieniu pewnej liczby błędów. Tego rodzaju podejście jest stosowane z wielkim powodzeniem przez niektórych wielkich usługodawców informatycznych, na przykład Google. Niemniej jednak jego zastosowanie wymaga architektury bardzo rozproszonej, a tolerancja błędów musi zostać wprowadzona do samego jądra oprogramowania aplikacji.

Ostatnią z opcji - w wielu wypadkach zdecydowanie najlepszą - jest możliwość uwzględnienia kwestii niezawodności w warstwie chmury/wirtualizacji poprzez zastosowanie rozwiązania typu cluster, które obsługuje błędy występujące w warstwach podrzędnych. Rozwiązanie to może polegać na przykład na przypisywaniu maszyn wirtualnych do sprzętu, którego występujący błąd nie dotyczy, ponownym uruchamianiu maszyn wirtualnych lub nawet wykorzystaniu publicznych usług typu „chmura” jako lokalizacji rezerwowej. W przypadku przeprowadzania migracji tego rodzaju strategia może powodować krótkotrwałe pogorszenie wydajności lub prędkości działania obsługiwanych usług informatycznych, które jednak dla wielu aplikacji może być tolerowane.

Zapewnienie niezawodności na poziomie warstwy chmury/wirtualizacji niesie ze sobą dwie istotne korzyści. Pierwszą z nich jest zapewnienie, i to niemal w każdych okolicznościach, znacznie niższych kosztów niż w przypadku tworzenia absolutnie niezawodnej warstwy sprzętowej. Druga korzyść polega na wyeliminowaniu konieczności opracowania oprogramowania aplikacji w sposób zapewniający tolerancję na błędy, gdyż niezawodność jest realizowana poza warstwą aplikacji, nie będzie więc w żaden sposób narażona na występowanie tych błędów.

Niebezpieczne złudzenie

Zapewnienie niezawodności w warstwach innych niż sprzętowa ma wprawdzie wiele zalet, ale niestety przekonaliśmy się, że może prowadzić do pojawienia się dość niebezpiecznego złudzenia. Coraz powszechniejsze staje się przekonanie, że skoro warstwy oprogramowania systemu informatycznego mogą radzić sobie z awariami sprzętowymi w warstwie fizycznej, to zapewnienie bezpieczeństwa zasilania i zarządzanie nim będzie opcjonalne lub nawet całkowicie zbyteczne. W rzeczywistości stwierdzenie to jest dalekie od prawdy.

Bezpieczeństwo zasilania pozostaje niezwykle ważnym aspektem w przypadku każdego rodzaju systemu, niezależnie od sposobu zapewnienia jego niezawodności. Dzieje się tak z wielu różnych powodów. Na przykład odpowiedni sposób zapewnienia bezpieczeństwa zasilania będzie mieć wpływ na pożądane parametry jego źródła, niezależnie od tego, czy dotyczy to sieci publicznej, czy też osobnego agregatu prądotwórczego. Bardzo ważną kwestię stanowi tu zapewnienie odpowiedniego filtrowania napięcia przejściowego oraz innego rodzaju fluktuacji dla zabezpieczenia urządzeń przed możliwością poważnego uszkodzenia. Ponadto odpowiednie zabezpieczenie zasilania i zapewnienie wyposażenia dystrybucyjnego gwarantuje płynne, sekwencyjne włączanie i wyłączanie urządzeń - funkcje te są niezwykle istotne w przypadku wszystkich systemów, w odniesieniu do których akceptujemy możliwość wystąpienia awarii sprzętowych.

Odpowiednio zaprojektowany i wykonany system zarządzania zasilaniem może zapobiec wystąpieniu potencjalnie poważnych problemów, na przykład w przypadku serwerów zombie. Nazywamy tak urządzenia, które działają z przerwami lub w sposób chaotyczny, ale nie są całkowicie uszkodzone

i  wyłączone z systemu. Właśnie ze względu na to, że ich działanie jest tak chaotyczne i nieprzewidywalne, serwery zombie stanowią poważne źródło niestabilności i utraty danych w instalacjach informatycznych. Dotyczy to także skonwergowanych modułów, w przypadku których krótka przerwa w zasilaniu może spowodować ich działanie jako zombie. Dzieje się tak dlatego, że moduły są złożone z wielu urządzeń zasilanych indywidualnie - w przypadku nawet krótkiej przerwy w zasilaniu niektóre z nich mogą się wyłączyć, podczas gdy inne będą kontynuować pracę, co sprawia, że całość systemu znajdzie się w stanie nieokreślonym.

Dobry system zarządzania zasilaniem umożliwia „odgrodzenie” serwerów zombie, niezależnie od tego, czy stan zombie został spowodowany awarią sprzętową, czy problemami z zasilaniem. Oznacza to oddzielenie tych serwerów od reszty instalacji, a następnie wyłączenie. W ten sposób ogólne działanie instalacji pozostaje w pełni deterministyczne i może być kontrolowane.

Istnieje jeszcze inne istotne uzasadnienie konieczności zapewnienia odpowiedniego zabezpieczenia zasilania i zarządzania nim w systemach, których niezawodność musi znajdować się na poziomie wykraczającym poza poziom sprzętowy. Aby tego rodzaju strategie zapewnienia wyższego poziomu niezawodności mogły działać, poziom lub poziomy zapewnienia niezawodności zawsze powinny być współzależne od zabezpieczenia zasilania - oznacza to, że zawsze musi być znany bieżący status zasilania zapewnianego przez jego podstawowe źródło, którym zwykle jest sieć.

Wyjaśnienie, dlaczego w przypadku wyższych poziomów zapewnienia niezawodności konieczność ciągłej znajomości statusu zasilania jest niezbędna, to sprawa bardzo prosta. Przyjmijmy dla przykładu, że mamy do czynienia z instalacją, której niezawodność jest zapewniana na poziomie warstwy chmury/wirtualizacji, poprzez strategię obejmującą migrację serwerów wirtualnych do zdalnie sterowanych urządzeń w razie wystąpienia problemu. W wypadku awarii głównego źródła zasilania urządzenie UPS będzie zapewniać zasilanie awaryjne przez pewien z góry określony czas i przesyłać do wyższych warstw informacje dotyczące czasu pozostającego na migrację. Jeśli jednak system zasilania nie poinformuje menedżera wirtualizacji, że instalacja działa na zasilaniu awaryjnym, to w jaki sposób będzie mogła zostać zainicjowana migracja? Poleganie w tego rodzaju strategiach tylko na ręcznej interwencji operatora to zbyt duże ryzyko.

Opcje dotyczące niezawodności

Jest pewne, że w obecnych, coraz bardziej skomplikowanych i dynamicznych warunkach roboczych zwirtualizowanych systemów komputerowych, w których usługi nie są już związane z serwerami fizycznymi, odpowiednie kompleksowe zarządzanie zasilaniem jest absolutnie niezbędne w celu wykorzystania ich pełnego potencjału elastyczności i niezawodności. Ponadto zapewnienie odpowiedniego zarządzania zasilaniem gwarantuje dodatkową korzyść, polegającą na możliwości wykorzystania różnorodnych opcji, pozwalających osiągnąć pożądany poziom niezawodności.


Pierwszą z tych opcji jest zapewnienie, że system zarządzania zasilaniem będzie inicjował przenoszenie aplikacji z serwera lub lokalizacji zagrożonej awarią zasilania na inny serwer lub do innej lokalizacji, w których zasilanie jest prawidłowe. Następnie system zarządzania zasilaniem może przeprowadzić całkowicie prawidłowe wyłączenie hipernadzorcy oraz zasilania serwerów fizycznych w lokalizacjach, w których pojawił się problem. Dzięki tej opcji wszystkie usługi realizowane przez dany system informatyczny pozostają przez cały czas dostępne, chociaż użytkownicy mogą odczuć pewne pogorszenie prędkości przez krótki okres, podczas którego wykonywane jest przenoszenie aplikacji.

Rys. 2. Zaawansowane rozwiązania w dziedzinie zarządzania zasilaniem pozwalają zachować ciągłość działania firmy podczas awarii zasilania poprzez automatyczną migrację maszyn wirtualnych do niedotkniętych awarią części sieci lub do zewnętrznego ośrodka zapasowego, do kolokacyjnego centrum danych lub do infrastruktury wykorzystującej przetwarzanie w chmurze1.

Drugą opcją zapewnienia niezawodności w razie awarii zasilania jest zawieszenie działania maszyn wirtualnych, które nie mają znaczenia krytycznego, i migracja urządzeń krytycznych do rezerwowej lokalizacji lub serwera, a następnie wyłączenie serwerów fizycznych, których dotyczy awaria zasilania. W takim przypadku część usług zapewnianych przez system informatyczny - realizowanych przez maszyny wirtualne określone jako niekrytyczne - zostanie oczywiście utracona. Niemniej jednak jest to do zaakceptowania, ponieważ w określonych sytuacjach - na przykład w zakładach produkcyjnych, w których awaria zasilania oznacza konieczność wyłączenia urządzeń o krytycznym znaczeniu dla ich działalności - chwilowe wyłączenie usług informatycznych może być dopuszczalne.

Trzecia, ostatnia opcja, którą omówimy w tym opracowaniu, nie obejmuje transferu maszyn wirtualnych pomiędzy lokalizacjami. Zamiast takiego rozwiązania, w przypadku wystąpienia problemu dotyczącego głównego źródła zasilania, maszyny wirtualne o znaczeniu niekrytycznym są wyłączane, natomiast działanie pozostałych urządzeń o najbardziej istotnym znaczeniu jest konsolidowane w kilku serwerach fizycznych w tej samej lokalizacji. Wtedy nieużywane serwery mogą zostać wyłączone. System będzie kontynuował działanie z wykorzystaniem zasilania awaryjnego do chwili niemal całkowitego wyczerpania się baterii, po czym wykona prawidłowe wyłączenie. Dzięki pogrupowaniu działania najważniejszych maszyn wirtualnych i wyłączeniu serwerów, które nie są używane, przy wykorzystaniu urządzeń UPS możliwe jest zapewnienie stosunkowo długiego czasu działania, zanim konieczne stanie się wyłączenie, i to jedynie w przypadku instalacji o stosunkowo niewielkich rozmiarach. Czas działania może być przedłużony na przykład poprzez określenie maksymalnej wartości granicznej poboru mocy przez serwery fizyczne, niemniej jednak nie pozostanie to bez wpływu na obniżenie ich wydajności.

Niezależnie od wyboru jednej z opisanych opcji, lub jakichkolwiek innych, bezwzględnie zasadnicze znaczenie ma zapewnienie ścisłej integracji oprogramowania zarządzania zasilaniem z oprogramowaniem infrastruktury wirtualnej. Umożliwia to nie tylko udostępnienie administratorom kluczowych informacji w pojedynczym oknie na konsoli zarządzania, lecz także daje pewność, że elementy wirtualizacji i chmur znają bieżący status zasilania i czas działania, jaki im pozostaje. Ponadto - jak już zauważyliśmy - zapewnienie odpowiedniego współdziałania systemów zarządzania zasilaniem i infrastrukturą jest absolutnie niezbędne w celu automatycznej inicjalizacji czynności migracyjnych.

Wdrożenie rozwiązania dotyczącego zabezpieczenia zasilania

Trzy podstawowe strategie wykorzystywane w zakresie zapewnienia zabezpieczenia zasilania systemów informatycznych o architekturze konwergentnej to rozwiązania o strukturze scentralizowanej, na końcu linii lub dla poszczególnych stojaków/kontenerów.

Strategia scentralizowana, której założenie polega na tym, że pojedyncza instalacja UPS zapewnia zasilanie całości lokalizacji, została wypróbowana i przetestowana w wielu przypadkach, warto jednak zauważyć, że w wypadku rozwiązań dotyczących wyższego poziomu zapewnienia niezawodności nierzadko czas działania urządzeń UPS może być krótszy, w szczególności jeśli strategia zapewnienia niezawodności przewiduje szybsze przeprowadzenie migracji maszyn wirtualnych poza lokalizację, której dotyczy awaria zasilania. Stosując scentralizowaną strategię zabezpieczenia zasilania zazwyczaj rozpoczynamy działania od zwymiarowania urządzeń dla określonej wydajności maksymalnej, a następnie, w razie zwiększania się potrzeb, możemy dodawać kolejne moduły zasilania. W prawidłowo zaprojektowanych systemach moduły mogą być dodawane bez konieczności wyłączania jakichkolwiek części lokalizacji.

Systemy zabezpieczenia zasilania na końcu linii są wyposażone w pojedynczą lub podwójną magistralę zasilania i mogą mieć charakter modularny lub też zapewniać pełną moc od samego początku. Umożliwiają one zastosowanie wszelkich rodzajów systemów redundancji i zapewniają połączenia z elementami wirtualizacji, jednak nie mają szczególnych zalet czy wad dla aplikacji architektury konwergentnej.

Systemy zabezpieczenia zasilania stojaków/kontenerów mogą być przydatne zwłaszcza w rozwiązaniach dotyczących architektury konwergentnej. Dzięki zastosowaniu takiego rozwiązania zabezpieczenie zasilania stanowi integralną część każdej zoptymalizowanej jednostki bazowej - zwyczajowo wszystkie moduły są wyposażone we własny system zasilania. Oznacza to, że system zasilania ma zawsze taką samą modułowość jak wyposażenie informatyczne, a więc skalowanie jest przeprowadzane automatycznie. Ponadto możliwe jest zapewnienie redundancji 1+1 poprzez zastosowanie podwójnych systemów zasilania serwerów.

Optymalizacja wydajności zasilania przy obciążeniu zmiennym

Niezależnie od zastosowanej strategii wdrożeniowej systemy zabezpieczenia zasilania konwergentnych i  wirtualizowanych instalacji informatycznych muszą być dostosowane do zmiennego obciążenia aplikacji. Niekiedy obciążenie może w bardzo krótkim czasie zmieniać się od zera do prawie 100%, w szczególności w razie stosowania takich strategii jak „śledzenie jednostki głównej”. Wahania obciążenia aplikacji są odzwierciedlane poprzez odpowiednie modyfikacje zapotrzebowania instalacji na zasilanie, jeśli jednak system zabezpieczenia zasilania nie został zaprojektowany z uwzględnieniem tych potrzeb, to prawie zawsze końcowym rezultatem będzie niska wydajność w zakresie zużycia energii.

Przyczyna takiego stanu rzeczy tkwi w tym, że systemy UPS działają wydajniej przy wyższym poziomie obciążenia. Na przykład urządzenie UPS 1100 kVA pracujące przy pełnym obciążeniu zapewnia wydajność około 95%, ale ten sam UPS pracujący przy obciążeniu równym 10% prawdopodobnie nie zagwarantuje nawet wydajność wynoszącą 85%. Na szczęście istnieje odpowiednie rozwiązanie tego problemu, polegające na wykonaniu systemu złożonego z kilku urządzeń UPS, pomiędzy które obciążenie może być rozdzielane. W takim przypadku niezbędnym uzupełnieniem jest zastosowanie odpowiedniego systemu zarządzania wieloma urządzeniami UPS.

Systemy zarządzania urządzeniami UPS są projektowane w taki sposób, aby w każdej chwili było pewne, że wykorzystywane są jedynie elementy UPS absolutnie niezbędne do zaspokojenia bieżącego zapotrzebowania na zasilanie. Pozostałe moduły są utrzymywane w stanie gotowości, w którym zużywają bardzo niewiele mocy, ale oprogramowanie odpowiedzialne za zarządzanie może włączyć je praktycznie natychmiast, zwykle w czasie nieprzekraczającym pięciu milisekund, gdy zapotrzebowanie się zwiększy. Zastosowanie tego rodzaju rozwiązania oznacza, że obciążenie zostanie skoncentrowane w minimalnej liczbie urządzeń UPS, wystarczającej do zaspokojenia istniejącego zapotrzebowania, a w konsekwencji obciążenie robocze urządzeń UPS będzie optymalne, co zapewni ich działaniu najwyższą wydajność. Wprowadzenie odpowiednich rozwiązań sprzętowych umożliwia udoskonalenie tego rodzaju strategii wykorzystania wielu urządzeń UPS, dzięki zastosowaniu UPS-ów złożonych z wielu różnych modułów, które mogą być natychmiast przełączane pomiędzy stanem gotowości a stanem roboczym.

Takie rozwiązanie, nazywane zazwyczaj systemem o zmiennym zarządzaniu modułami (VMM), umożliwia dokładne dostosowywanie parametrów działania urządzeń UPS do bieżącego zapotrzebowania na moc w bardzo szerokim zakresie obciążeń, zapewniając odpowiednią wydajność roboczą we wszelkich okolicznościach, niezależnie od fluktuacji obciążenia.

Zasilanie konwergentne w kilku słowach

W tym opracowaniu przedstawiliśmy szczegółowo wybrane zagadnienia dotyczące zapewnienia bezpieczeństwa zasilania infrastruktury konwergentnej. Podsumujmy teraz najważniejsze z omówionych kwestii.

Pierwszą z nich jest określenie, że w przypadku infrastruktury konwergentnej podstawową jednostkę stanowią moduły, dlatego najbardziej odpowiednim rozwiązaniem może być zapewnienie im indywidualnych systemów zasilania, co stworzy niezbędną kompatybilność i łatwość skalowania. Drugie ważne zagadnienie: zapewnienie niezawodnego zabezpieczenia zasilania i zarządzania nim ma znaczenie absolutnie kluczowe - nawet jeśli niezawodność jest zapewniana w warstwach na poziomie wyższym niż sprzętowe - dla zabezpieczenia urządzeń przed prądami przejściowymi oraz uniknięcia problemów dotyczących stabilności serwerów zombie, które mogą się znajdować w stanie przejściowym, a więc nie być ani w pełni sprawne, ani wyłączone. Ponadto absolutnie niezbędne jest zapewnienie odpowiedniego informowania wyższych warstw w czasie rzeczywistym o bieżącym statusie zasilania.

System zarządzania zasilaniem musi być również ściśle zintegrowany z systemem zarządzania wirtualizacją, i to w taki sposób, aby administratorzy mogli w dowolnej chwili doskonale znać bieżący status zasilania, a rutynowe czynności wykonywane w razie awarii zasilania, takie jak migracja serwerów wirtualnych do nieprzypisanych serwerów fizycznych, mogły być w pełni zautomatyzowane. Automatyzacja jest tu niezwykle istotna, dlatego że wiele współczesnych systemów informatycznych jest zbyt skomplikowanych, aby zarządzanie czynnościami realizowanymi w wypadku awarii zasilania mogło być wykonywane ręcznie.

Reasumując, systemy zasilania muszą być projektowane od samego początku w sposób zapewniający nie tylko spełnienie potrzeb w zakresie dostosowania ich do zmiennego zapotrzebowania, lecz także możliwości późniejszej rozbudowy oraz uwzględnienia faktu, że możliwość awarii nigdy nie będzie całkowicie wyeliminowana. Tylko wtedy gdy wszystkie te aspekty zostaną wzięte pod uwagę, możliwe jest osiągnięcieostatecznego celu, to znaczy pogodzenia maksymalnej dostępności aplikacji z optymalizacją kosztów.

O firmie Eaton

Firma Eaton dokłada wszelkich starań, aby zapewnić dostęp do niezawodnej, wydajnej i bezpiecznej energii elektrycznej zawsze wtedy, gdy jest ona najbardziej potrzebna. Korzystając z bezkonkurencyjnych zasobów wiedzy o zarządzaniu energią elektryczną w różnych branżach, eksperci firmy Eaton tworzą zindywidualizowane i zintegrowane rozwiązania, pozwalające zrealizować najważniejsze wyzwania stojące przed klientami.

Jako firma koncentrujemy się na dostarczaniu właściwych rozwiązań do określonych zastosowań. Ale dla zleceniodawców liczy się coś więcej niż tylko innowacyjne produkty. W firmie Eaton poszukują oni niesłabnącego zaangażowania w osobiste wsparcie, wynikające z nadania przez nas najwyższego priorytetu przede wszystkim sukcesowi klienta. Więcej informacji o nas można znaleźć na stronie internetowej www.eaton.eu.

O autorze

Tatu Valjakka jest menedżerem produktów w dziale jakości energii firmy Eaton. Rozpoczynał pracę w roku 1998, w firmie będącej liderem światowych rynków w dziedzinie rozwiązań dotyczących bezpieczeństwa, dystrybucji i zarządzania energią. Na swoim obecnym stanowisku Tatu odpowiada za zarządzanie i marketing produktów oprogramowania firmy Eaton w zakresie zarządzania energią w regionie EMEA. Wcześniej przez 6 lat pełnił obowiązki menedżera projektów oprogramowania w firmie Reiter Engineering, a następnie inżyniera rozwoju produktów przeznaczonych do systemów informatycznych w Fińskim Urzędzie Lotnictwa Cywilnego. Jest absolwentem Wydziału Informatyki Politechniki im. A. Aalto w Helsinkach. Jego pozazawodowe zainteresowania to uprawianie ogrodu, wędkowanie i sport. 1. Niniejszy dokument został stworzony z użyciem oficjalnej ikony VMware i biblioteki diagramów. Copyright © 2010 VMware, Inc. Wszelkie prawa zastrzeżone. Niniejszy produkt podlega ochronie amerykańskiego i międzynarodowego prawa autorskiego oraz praw własności intelektualnej. Produkty VMware są objęte jednym lub większą liczbą patentów wymienionych w witrynie http://www. vmwa re.co m/g o/pate nts.

VMware nie wspiera ani nie ponosi żadnej odpowiedzialności za informacje innych firm zawarte w niniejszym dokumencie, a umieszczenie w tym dokumencie jakiejkolwiek ikony VMware czy diagramu nie implikuje takiego wsparcia.