Nowoczesna aplikacja – co to znaczy?
W dyskusji uczestniczyli Anna Ankurowska, Business Development Manager Intel w Dell Technologies, Michał Bistuła, Senior IT Manager w mBanku, Michał Grzelak, Ekspert Departamentu Eksploatacji Systemów w Banku Pekao, Marek Maciejewski, Director IT Operations w LPP, Grzegorz Reguła, Kierownik Wydziału Rozwoju Sieci w Orange Polska i Filip Zwierzyński, Solution Architect w Dell Technologies.
Paneliści zwracali uwagę, że pojęcie nowoczesności w przypadku rozwiązań IT może być interpretowane różnorako, poczynając od aplikacji wpisujących się w aktualne trendy w dziedzinie programowania, zapewniające wysoką dostępność i skalowalność, poprzez dostarczenie funkcjonalności, na które oczekuje biznes i pozwalające uzyskać mu przewagę aż po wartość, jakiej finalny produkt dostarczać ma dla klienta końcowego.
W dyskusji nie zabrakło odniesienia do zasadności automatyzacji procesów. Paneliści byli zgodni, że ma ona sens zawsze wówczas, kiedy pozwala przejąć od ludzi żmudne, powtarzalne zadania, dzięki czemu można lepiej zagospodarować kapitał ludzki w organizacji.
Dodatkową korzyścią z wprowadzenia rozwiązań IT w miejsce pracy ludzkiej jest ograniczenie występowania błędów i omyłek, popełnionych np. podczas ręcznego wprowadzania danych.
Z drugiej strony wskazywano sytuacje, kiedy robotyzacja po prostu się nie opłaci, to między innymi wszelkie działania jednostkowe, kiedy trudno mówić o tworzeniu gotowych wzorców, możliwych do wykorzystania w przyszłości. Nie zawsze też trzeba automatyzować cały proces od początku do końca, niekiedy lepiej ograniczyć się do określonych jego etapów.
Czytaj także: Jak złapać hakera na gorącym uczynku?
Infrastruktura do tworzenia skalowalnych aplikacji
Nasuwa się pytanie, jak powinna wyglądać infrastruktura, umożliwiająca tworzenie skalowalnych aplikacji; według uczestników panelu platformy takie powinny być niczym przysłowiowa woda w kranie, w pełni przezroczyste, by zespoły deweloperskie nie czuły się ograniczone, mniejsze znaczenie ma natomiast to, czy będzie ona mieć charakter chmurowy, czy funkcjonować on premise.
Nie brakowało oczywiście opinii, iż dla przedstawicieli młodego pokolenia infrastruktura w cloudzie jest czymś w pełni naturalnym. Ważne jest chociażby to, by aplikacja w razie awarii jednego data center była w stanie przełączyć się do zasobów rezerwowych w sposób niedostrzegalny dla końcowego użytkownika.
W przypadku zastosowań bankowych ogromne znaczenie ma pełna zgodność z wymogami w zakresie bezpieczeństwa czy odporności cyfrowej. Wyważenie pomiędzy transparentnością a bezpieczeństwem stanowi szczególne wyzwanie dziś, w obliczu nasilającego się procederu ransomware, kiedy jedną z istotniejszych funkcji jest możliwość szybkiego odtworzenia danych na wypadek ewentualnego ataku. Zdarza się bowiem, że ten sam podmiot bywa atakowany nawet kilka razy z rzędu.
Czytaj także: Dell zaprasza do programu „Future made in Poland”
Klasyfikacja danych
Kolejne pytanie, pojawiające się w tym kontekście, dotyczy klasyfikacji danych, by móc w pierwszej kolejności odzyskać te najistotniejsze dla ciągłości funkcjonowania instytucji. W przypadku dużych firm zapewnienie analogicznego stopnia ochrony całym zasobom, idącym nierzadko w petabajty danych, byłoby po prostu zbyt kosztowne, wskazywali uczestnicy dyskusji.
Z całą pewnością zabezpieczenia muszą się koncentrować na danych, a nie oprogramowaniu, gdyż aplikacje można odtworzyć w miarę szybko, podczas gdy zasoby informacji mają charakter nierzadko unikatowy.
Tymczasem poważnym wyzwaniem dla większości podmiotów stają się używane od lat zasoby IT, nierzadko obarczone długiem technologicznym, który sprawia, że aplikacjom daleko do bycia cloud native. Powoduje to, że proces migracji do chmury staje się rozciągnięty w czasie, i – jak sugerowali paneliści – wymaga dłuższego okresu przejściowego, kiedy niezbędne jest łączenie rozwiązań on premise i chmurowych.