KPMG: „Guardians of trust”

KPMG: „Guardians of trust”
Fot. stock.adobe.com/Dreaming Andy
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Zdaniem 92% menedżerów, nieprawidłowe wykorzystanie analityki danych może doprowadzić do znacznej szkody reputacyjnej dla firmy. Jednocześnie zaledwie jedna trzecia z nich przyznała, że w wysokim stopniu ma zaufanie do wyników analiz wykorzystywanych w ich organizacjach. Firmy muszą wziąć odpowiedzialność za wiarygodność danych i wyników analiz przeprowadzanych na ich podstawie oraz wypracować najlepsze praktyki zarządzania danymi.

Nie ulega żadnej wątpliwości, że potencjał analityki danych jest ogromny. Zarówno w kontekście ochrony już istniejącej wartości w firmie, doskonalenia procesów, jak i tworzenia nowej wartości - mówi Krzysztof Radziwon, partner w dziale usług doradczych, szef zespołu ds. zarządzania ryzykiem w KPMG w Polsce.

Raport KPMG pt. „Guardians of trust” powstał na podstawie badania przeprowadzonego na blisko 2,2 tys. menedżerów działów biznesowych i IT zatrudnionych w spółkach na całym świecie. Wyrazili oni swoją opinię na temat głównych wyzwań, jakie stoją przed ich firmami.

Rola analityki danych w firmach stale rośnie

Według 92% respondentów nieprawidłowe wykorzystanie analityki danych może spowodować znaczący uszczerbek dla reputacji firm. Z kolei 61% CEO, którzy wzięli udział w badaniu „Global CEO Outlook Survey” przyznało, że budowanie zaufania klientów i partnerów biznesowych jest jednym z trzech najważniejszych priorytetów ich firm. W dobie postępującej cyfryzacji, wartość zaufania do biznesu jest nie do przecenienia. Jednak nie chodzi już tylko o zaufanie do marki, lecz także do wyników analizy danych, których wykorzystanie ma wpływać na zwiększenie efektywności biznesu. Tymczasem zaledwie 35% ankietowanych przyznało, że posiada pełne zaufanie do wyników stosowanej analityki danych. 19% menedżerów odpowiedziało, że posiada ograniczone zaufanie, a 6% przyznało, że całkowicie nie ufa wynikom analiz. Respondenci badania KPMG wskazali, że firmy chcące zapewnić wzrost zaufania do wykorzystywanych danych i analiz, powinny skupić się m.in. na: zapewnieniu wzrostu transparentności algorytmów i metodologii, wzmocnieniu wewnętrznych i zewnętrznych mechanizmów zapewniania jakości, nadzorze nad sztuczną inteligencją czy rozwoju standardów stosowanych zabezpieczeń.

Nie ulega żadnej wątpliwości, że potencjał analityki danych jest ogromny. Zarówno w kontekście ochrony już istniejącej wartości w firmie, doskonalenia procesów, jak i tworzenia nowej wartości. Analityka danych jest wykorzystywana w przedsiębiorstwach od bardzo wielu lat, teraz jednak, ze względu na postępującą cyfryzację procesów wewnętrznych i relacji z otoczeniem zewnętrznym, a także coraz większą liczbę dostępnych źródeł, wartość jaką można uzyskać z dobrej jakości analiz jest nieporównywalnie większa. Nadal w większości organizacji zasadniczym wyzwaniem pozostaje zapewnienie jakości wyników analiz. Z naszego doświadczenia wynika, że nie chodzi tylko i wyłącznie o algorytmy, ale przede wszystkim o spójne rozumienie przez różnych uczestników procesu, co oznaczają określone kategorie danych, a przez to spójne rozumienie, co oznacza wyliczony na ich podstawie wynik. Często w praktyce okazuje się, że nawet tak oczywiste pojęcia jak „sprzedaż”, „marża” czy „terminowy” wcale nie są tak jednoznaczne, a ich rozumienie w różnych częściach organizacji jest bardzo odmienne – mówi Krzysztof Radziwon, partner w dziale usług doradczych, szef zespołu ds. zarządzania ryzykiem w KPMG w Polsce.

Problemy z przypisaniem odpowiedzialności za analitykę danych w organizacjach

Pomimo tego, że menedżerowie mają świadomość rosnącej odpowiedzialności za analitykę danych, to wciąż brakuje klarownego przypisania odpowiedzialności za ten obszar w strukturze organizacyjnej. Wg 19% respondentów, taka rola spoczywa na dyrektorze ds. informatyki. Z kolei w 13% organizacji odpowiedzialność za obszar analityki danych przypisana jest dyrektorowi ds. danych, a w blisko co dziesiątej firmie odpowiedzialność spoczywa na programistach. Warto również zwrócić uwagę na fakt, że zdaniem blisko jednej piątej ankietowanych odpowiedzialność za zapewnienie jakości w obszarze analityki danych powinna spoczywać na zewnętrznych podmiotach: niezależnych audytorach czy ciałach nadzorujących.

Przypisanie odpowiedzialności za jakość danych oraz za obszar analityki danych rozumiany jako zapewnienie kontroli nad rzetelnością algorytmów, procesem wytwórczym i utrzymaniem środowiska jest niezwykle istotne z perspektywy budowania zaufania do wyników analityki danych. Nie da się budować zaufania do wyników, które pochodzą z „czarnej skrzynki”, za którą nikt nie chce wziąć odpowiedzialności – mówi Krzysztof Radziwon, partner w dziale usług doradczych, szef zespołu ds. zarządzania ryzykiem w KPMG w Polsce.

Coraz więcej decyzji biznesowych podejmowanych jest na podstawie analizy danych. Powoduje to jednak dyskusję, kto powinien być odpowiedzialny za skutki złej decyzji biznesowej podjętej na podstawie dostępnych danych. Ponad sześciu na dziesięciu respondentów uznało, że odpowiedzialność powinna zostać przeniesiona na dostawcę usług lub osoby odpowiedzialne za technologie w firmach. Analogicznie, w przypadku wskazania odpowiedzialnego za potencjalny wypadek spowodowany przez w pełni autonomiczny samochód, 62% respondentów uznało, że winnym kolizji jest de facto twórca oprogramowania. Na producenta auta oraz osobę będącą w samochodzie, która mogła zapobiec wypadkowi, wskazało 54% ankietowanych.

Pełna wersja raportu dostępna na stronie kpmg.pl

Opr. PZ