IT@BANK. Technologie – IBM Polska: Cloud computing to nie tylko chmura publiczna
Cloud computing już od kilku lat jest jednym z dyżurnych tematów na konferencjach poświęconych wykorzystaniu IT w biznesie. Jakie nowe trendy w tym obszarze daje się zaobserwować w ostatnim czasie?
– Aby odpowiedzieć na pytanie, w jakim kierunku zmierza wykorzystanie rozwiązań chmurowych w biznesie, należałoby zacząć od kwestii z pozoru oczywistej, czyli pytania o istotę współczesnego cloud computingu. Typowy zjadacz chleba z reguły utożsamia tę technologię wyłącznie z chmurą publiczną, co jest sporym uproszczeniem. W obszarze enterprise, czyli dużych dla przedsiębiorstw, funkcjonują bowiem równolegle trzy modele: cloud prywatny, czyli rozwiązania budowane wewnątrz serwerowni organizacji, chmura publiczna, której istotą jest transfer danych do dostawców zewnętrznych i cloud hybrydowy, czyli schemat, w którym część aplikacji jest zainstalowana lokalnie, a część działa w chmurze publicznej. Warto również przypomnieć, że przeciętny Kowalski od wielu lat wykorzystuje chmurę publiczną, nierzadko nawet nie będąc tego świadomym. Popularna usługa poczty elektronicznej jest przecież dostarczana z chmury. Użytkownicy tych serwisów wykorzystują z reguły usługę wysyłania i odbierania maili, natomiast otrzymaną korespondencję kopiują i przechowują lokalnie, na własnych komputerach – czyli w rzeczywistości stosują rozwiązanie hybrydowe. W przypadku korporacji sytuacja jest nieco bardziej złożona, co jest w pełni zrozumiałe, jeśli wziąć pod uwagę różnice pomiędzy domowym komputerem a systemami wykorzystywanymi do celów biznesowych. Współczesne przedsiębiorstwo z reguły dysponuje własnymi komputerowniami i informatykami zarządzającymi zainstalowanymi tam serwerami. Kluczowe dla takiej organizacji jest stworzenie strategii chmurowej, która określi, jakie zasoby mają pozostać wewnątrz (chmura prywatna), a które można przekazać dostawcy zewnętrznemu (chmura publiczna). Jak widać, tak jak i w przypadku naszego Kowalskiego, również mówimy tu o chmurze hybrydowej.
Według IBM dobra strategia musi zapewnić, aby chmura była:
- hybrydowa, czyli w zależności od uwarunkowań (biznesowych, technicznych, prawnych) stanowiła połączenie rozwiązań prywatnych i publicznych,
- wielochmurowa, czyli pozwalała na swobodne przenoszenie aplikacji/kontenerów pomiędzy chmurami różnych dostawców,
- otwarta, a więc zbudowana w oparciu o rozwiązania open source i pozwalająca klientom na szeroką elastyczność,
- bezpieczna, co brzmi banalnie, tymczasem zapewnienie bezpieczeństwa danych we wszystkich wykorzystywanych lokalizacjach i chmurach, wcale nie jest takie proste,
- zarządzalna, a więc posiadająca mechanizmy pozwalające na sprawne zarządzanie aplikacjami i danymi rozproszonymi po świecie.
Droga do rozwiązań chmurowych zawiera cztery podstawowe etapy:
- advise, a więc wnikliwą analizę każdego kroku na ścieżce do chmury. Będzie ona obejmowała zarówno szczegółową analizę aplikacji w celu określenia metod i możliwości ich migracji, jak również analizę organizacji i jej gotowości do zupełnie innego modelu pracy.
- move, czyli techniczne przeniesienie istniejących aplikacji do środowisk chmury. Najprostsze działanie, określane jako lift and shift, polega na przeniesieniu aplikacji zwirtualizowanych. Niestety, w rzeczywistości w ten sposób można przenieść 10-20% aplikacji, inne w mniejszym lub większym stopniu trzeba przepisać.
- build – jeśli konieczny stopień modyfikacji jest duży, albo gdy tworzymy nowe aplikacje, wskazane jest budowanie ich jako cloud native, a więc tak, aby mogły być dynamicznie uruchamiane w środowisku chmurowym.
- manage – jak już nasze aplikacje są gotowe do pracy w środowiskach chmurowych, musimy nimi zarządzać w sposób zapewniający spełnienie wymogów prawnych, organizacyjnych oraz gwarantujący bezpieczeństwo. Wdrażane rozwiązania powinny umożliwiać podejmowanie decyzji, czy pojedyncze aplikacje lub kontenery mają być uruchomione lokalnie, czy też u jednego z dostawców chmury publicznej oraz dynamiczne przenoszenie ich pomiędzy chmurami. Prędzej czy później rozwiązania chmury publicznej staną się absolutnym commodity, a jedynym kryterium decydującym o wyborze tego czy innego dostawcy będzie cena.
W środowiskach enterprise’owych, w tym również w bankach, czas życia systemów liczony jest często w dziesiątkach lat. Nowe aplikacje są tworzone w sposób umożliwiający ich wykorzystanie w chmurze, podczas gdy istniejące oprogramowanie w większości pozostanie w środowisku lokalnym organizacji. Z punktu widzenia kosztów olbrzymie znaczenie ma zapotrzebowanie aplikacji na zasoby oraz ilość danych, jakie wymienia ona z innymi systemami. Jeśli obciążenie jest zmienne, a ilość przesyłanych danych niewielka, to wyniesienie ich do chmury zewnętrznej może przynieść większe korzyści.
Jakie wydarzenie na przestrzeni ostatnich miesięcy należałoby uznać za przełomowe dla rozwoju i upowszechniania technologii chmurowych?
– Zacznę od perspektywy całego świata. Największym tegorocznym wydarzeniem wpływającym na upowszechnienie technologii chmurowych jest nabycie firmy RedHat przez IBM. Nie tylko wartość tej transakcji jest wyjątkowa. To przede wszystkim wielki krok w kierunku powszechnej dostępności chmury – chmury hybrydowej, wielochmurowej, otwartej, bezpiecznej i zarządzalnej.
W Polsce można wskazać dwa wydarzenia. Pierwszym jest powołanie przez PKO Bank Polski i Polski Fundusz Rozwoju Operatora Chmury Krajowej. Firma ta ma wielką szansę rozpowszechnić usługi outsourcingowe i wesprzeć innowacyjność polskich firm, szczególnie tych z kapitałem państwowym. Drugim jest decyzja Google o utworzeniu w Polsce tzw. cloud point of delivery, czyli centrum obliczeniowego, z którego będzie dostarczana chmura publiczna. Dotąd większość dużych amerykańskich korporacji wolała tworzyć centra danych we Frankfurcie, Dublinie albo w Stanach Zjednoczonych, twierdząc, że rynek polski nie jest dostatecznie rozwinięty. W takiej sytuacji stanowiska pracy otrzymują informatycy zagraniczni, podatki zasilają budżety innych państw i w konsekwencji Polska nic nie zyskuje. IBM już od ponad dwudziestu lat inwestuje w Polsce. Tutaj funkcjonują nasze centra danych, tu zatrudniamy informatyków, stąd świadczymy usługi outsourcingowe dla polskich banków. Bardzo się cieszę, że pojawiła się kolejna firma która chce dostarczać rozwiązania informatyczne w Polsce i z Polski. Jestem bardzo ciekaw, czy jeszcze ktoś zdecyduje się na podobne posunięcie i będzie gotów na poważne inwestycje w infrastrukturę informatyczną w Polsce.
Czas nie stoi w miejscu, a światowi giganci rynku finansowego zabrali się do roboty. Instytucje te są może mniej elastyczne aniżeli relatywnie nieduże polskie instytucje finansowe, ale dysponują znacznie większymi budżetami na innowacje.
Uwarunkowania regulacyjne w powszechnym mniemaniu uchodzą za głównego hamulcowego dla technologii chmurowych w bankowości. Ile prawdy jest w tej obiegowej opinii?
– Jak już wcześniej wspomniałem, zależy, o jakiej chmurze mówimy. Stosowanie chmury prywatnej w sektorze finansowym nie jest ograniczone żadnymi dodatkowymi regulacjami. To jest po prostu inny model pracy, stosowany wewnątrz organizacji. Polskie prawo bankowe przewiduje natomiast szereg restrykcji, jeśli chodzi o stosowanie chmury publicznej. Jest ona traktowana jako forma outsourcingu, niezależnie czy serwery, na których przechowywane są bankowe dane, zlokalizujemy w Warszawie, Amsterdamie czy Nowym Jorku. Pamiętajmy, że outsourcing w prawie bankowym obwarowany jest specjalnymi wymogami, które dostawca musi spełnić. Firmy dostarczające od wielu lat rozwiązania outsourcingowe dla polskich banków, takie jak IBM, zapewniają pełną zgodność z tymi regulacjami, podczas gdy dostawcy chmury publicznej nie są gotowi ich spełnić.
Polskie banki tradycyjnie już uchodzą za lidera nowoczesności, jednak w obszarze cloud computingu przez lata pozostawały w tyle za czołówką. Czy możemy już dzisiaj mówić, że te pogłoski należą do przeszłości?
– Polska zajmuje przedostatnie miejsce w Europie pod względem szeroko pojętej informatyzacji. Sama ta informacja pokazuje, ile jeszcze pozostało do nam do zrobienia. Faktycznie, polski sektor bankowy przez wiele lat był pod tym względem chlubnym wyjątkiem w skali globalnej, niemniej uważam, że obecnie straciliśmy żółtą koszulkę lidera. Sukces ten był wszak pochodną kilku czynników. Po pierwsze, zaczęliśmy informatyzację banków późno. W krajach Europy zachodniej systemy tworzono w latach 70., polska bankowość wdrażała rozwiązania dwadzieścia lat później. Systemy takie siłą rzeczy musiały być bardziej zaawansowane. Dodatkowo dysponowaliśmy, i w dalszym ciągu dysponujemy, bardzo silną grupą informatyków. Pamiętajmy jednak, że czas nie stoi w miejscu, a światowi giganci rynku finansowego zabrali się do roboty. Instytucje te są może mniej elastyczne aniżeli relatywnie nieduże polskie instytucje finansowe – pamiętajmy o tym, że największy polski bank dalej zajmuje w światowych rankingach miejsce pod koniec drugiej setki – ale dysponują znacznie większymi budżetami na innowacje. Drugi czynnik, który wpłynął ujemnie na innowacyjność sektora w Polsce, to połączenie podatku bankowego ze zwiększonymi wymaganiami regulacyjnymi. Moim zdaniem, jedynie duże banki są obecnie w stanie inwestować w innowacyjność. Te mniejsze koncentrują się na spełnieniu wymogów regulacyjnych.