Czy zwiększony ruch w Internecie to problem dla centrów danych?
Jeszcze bardziej powszechne było wykorzystanie mocy obliczeniowej serwerów na poziomie poniżej 10 procent, i dotyczyło to nie tylko pojedynczych urządzeń czy szaf teleinformatycznych, ale całych systemów IT.
Społeczność zajmująca się efektywnością energetyczną i jej optymalizacją spędziła wiele lat na próbach wdrażania infrastruktury IT u klientów „na wymiar”.
Pewną nadzieją była strategia modułowego rozwoju rozwiązań teleinformatycznych, dla których w nadmiarze (zgodnie z planami dalszej rozbudowy mocy obliczeniowej placówki) trzeba było zapewnić jedynie krytyczną infrastrukturę fizyczną, taką jak zasilanie i chłodzenie.
Jednak w takiej sytuacji zapotrzebowanie na sprzęt IT często było znacznie zawyżone, co pozostawiało lukę pomiędzy oczekiwaniami projektowymi, a rzeczywistością.
Moc na zapas
Przyjęło się, że w tradycyjnych, korporacyjnych centrach danych jeden serwer (lub jeden procesor w serwerze) odpowiada za obsługę jednej konkretnej aplikacji. Dopiero wprowadzenie dodatkowej warstwy programowej pomiędzy sprzęt i aplikacje, czyli wirtualizacji, zapewniło bardziej optymalne wykorzystanie serwerów.
– Nadal jednak sytuacja jest daleka od idealnej. Duże środowiska IT wciąż budowane są z zapasem, aby zaspokoić potrzeby użytkowników w trakcie największego obciążenia, np. w takie dni, jakimi dla sklepów internetowych są Czarny Piątek, Cyberponiedziałek, Boże Narodzenie czy okres wyprzedaży poświątecznych.
Aby zabezpieczyć się przed skutkami ewentualnej katastrofy, buduje się nadmiarowe systemy, gdzie w zapasowym centrum danych duża ich ilość jest replikowana, na wszelki wypadek – zauważa Bartłomiej Raab, country manager w Vertiv Polska.
Zobacz więcej najnowszych wiadomości o wpływie koronawirusa na gospodarkę >>>
Organiczne centra danych
Rozwiązanie tego problemu pojawiło się dopiero w przypadku bardzo dużych centrów danych, które można przyrównać do ciężarówek o wydajności superszybkich samochodów.
– Są one w stu procentach zarządzane przez oprogramowanie, a dzięki unifikacji użytkowanego sprzętu do przetwarzania i przechowywania danych operator takiej placówki ma do dyspozycji dziesiątki tysięcy podłączonych do sieci procesorów i urządzeń pamięci masowej, które skutecznie działają jak jeden „organizm” – wyjaśnia Bartłomiej Raab.
Co więcej, kilka tego typu centrów danych może być połączonych ze sobą, dzięki czemu wstrzymanie pracy jednego z nich (np. wskutek katastrofy naturalnej lub planowanych prac serwisowych) powoduje jedynie niewielki spadek wydajności, a nie utratę usług.
Eksperci Vertiv wskazują, że za przykład mogą posłużyć zapytania wysyłane przez wyszukiwarkę Google. Każde z nich trafia w tym samym czasie do trzech różnych centrów danych, znajdujących się w różnych miejscach na świecie. Ta placówka, która będzie najszybsza, dostarcza wyniki wyszukiwania. A jeśli któraś z nich będzie nieczynna, pozostały jeszcze dwie.
Bądź na bieżąco – zapisz się na nasz newsletter >>>
Podobne reguły dotyczą sieci, przez które wysyłane są zapytania. Jednak instalacja światłowodowych przewodów musi być zaplanowana z nadmiarem. Procedura umieszczenia kabli w ziemi oraz na dnie morza jest bardzo kosztowna.
Planując nowe trasy, dostawca sieci musi zatem myśleć w perspektywie minimum dziesięcioletniej. Gdy część z jego infrastruktury jest już w pełni wykorzystana, po prostu wówczas uruchamia kolejne, niewykorzystane dotychczas połączenia światłowodowe.
Nieoczekiwane obciążenia
Dziś mamy do czynienia z bezprecedensową sytuacją, w ramach której ogrom ludzi – specjalistów i uczniów – wykonuje swoje obowiązki z domu, uczestniczy w wideokonferencjach oraz dzieli się wynikami pracy przez Internet.
Zauważają to także operatorzy telekomunikacyjni ‒ w niedawnym komunikacie prasowym dyrektor ds. technologii w firmie BT stwierdził, że dotychczas w tej największej brytyjskiej sieci telekomunikacyjnej szczytowe natężenie ruchu obserwowano zwykle przez kilka godzin w niedzielny wieczór. Teraz ilość przesyłanych danych jest większa niż kiedykolwiek wcześniej i praktycznie nie spada.
I nawet jeśli łączność z niektórymi osobami stanowi wąskie gardło, cały ekosystem wciąż działa bardzo wydajnie. Także operatorzy nieustannie śledzą jakość łączy i rozbudowują je w razie potrzeby – obecna sytuacja to dla nich idealna okazja do weryfikacji elastyczności pracy własnej sieci.
Tam, gdzie wymagana jest większa przepustowość, jest ona zapewniana w ciągu kilku dni. Na szczęście nie stanowi to dla firm dużego problemu dzięki temu, że wcześniej zainwestowały w swoje centra danych z dużym zapasem.