GDPR / RODO

FBB 2024 Magda Matuszewska
Wydarzenia

To dobry moment, by zastanowić się nad rozwiązaniami antyfraudowymi

– Techniki działań fraudowych rozwijają się w postępie geometrycznym, stosowane dotychczas zabezpieczenia są już niewystarczające, stąd potrzeba wdrożenia nowych rozwiązań. Nie chodzi o ochronę samych banków, tylko środków zdeponowanych przez klientów oraz ich danych osobowych – podkreśla Magda Matuszewska, dyrektor ds. ochrony danych w Banku Handlowym w Warszawie. Będzie ona moderatorem sesji poświęconej m.in. wykorzystaniu analizy behawioralnej w przeciwdziałaniu cyberfraudom podczas Forum Bezpieczeństwa Banków 2024 (Warszawa, 8 maja).

wirtualny ekran z ikonami dokumentów i sylwetkami osób, tarcza ochronna
Cyberbezpieczeństwo

Firmy będą mogły uzyskać branżowe certyfikaty zgodności przetwarzania danych osobowych z RODO

Prezes Urzędu Ochrony Danych Osobowych zatwierdził Dodatkowe wymogi akredytacji podmiotów certyfikujących. W oparciu o ten dokument będzie dokonywana akredytacja podmiotów certyfikujących, które będą weryfikować zgodność operacji przetwarzania danych osobowych prowadzonych przez administratorów i podmioty przetwarzające. Certyfikacja ma na celu zwiększenie przejrzystości i poprawę przestrzegania norm ochrony danych osobowych z uwzględnieniem specyfiki branży. Podmioty certyfikujące będą przyznawały certyfikaty ubiegającym się o to firmom z konkretnych sektorów. Posiadanie certyfikatu będzie dobrowolne, a jego zadaniem ma być potwierdzenie najwyższych standardów przestrzegania przepisów o ochronie danych osobowych.

napis RODO i logo UE na tle niebieskiego ekranu programowania
Prawo i regulacje

LINK4 z ukarany przez UODO za niezgłoszenie na czas naruszenia ochrony danych osobowych

Prezes Urzędu Ochrony Danych Osobowych nałożył na Link4 Towarzystwo Ubezpieczeń S.A. z siedzibą w Warszawie, administracyjną karę pieniężną w wysokości 103,752 tys. zł. Powodem nałożenia kary jest niezgłoszenie Prezesowi UODO naruszenia ochrony danych osobowych bez zbędnej zwłoki, nie później niż w terminie 72 godzin po stwierdzeniu naruszenia, poinformował UODO.

na wirtualnym ekranie 2 puzzle i napisy: AI i Human
Cyberbezpieczeństwo

Unia Europejska ureguluje zasady ochrony prywatności użytkowników AI

Narzędzia oparte na sztucznej inteligencji są już powszechnie wykorzystywane do tworzenia lepszych produktów, usług, obniżania kosztów czy uwalniania pracowników od rutynowych prac administracyjnych. Rozwiązania oparte na AI niosą ze sobą wiele szans i możliwości, warto jednak pamiętać o potencjalnych zagrożeniach wiążących się z tą technologią. Szczególnymi obszarami, które znalazły się pod lupą dostawców, użytkowników i organów regulacyjnych są ochrona prywatności i bezpieczeństwo danych. Unia Europejska podejmuje pierwszą na świecie próbę ustanowienia przepisów, które mogą okazać się najbardziej surowymi regulacjami dotyczącymi ochrony prywatności użytkowników AI, podkreślają eksperci KPMG.

Marta Olczak-Klimek, partner w Kancelarii OKW.
Cyberbezpieczeństwo

DSA i DMA – cybergiganci pod kontrolą, a klienci bezpieczniejsi

Akt o usługach cyfrowych (DSA) i akt o rynkach cyfrowych (DMA), czyli dwa filary unijnej reformy Internetu, mają ukrócić dominację cyfrowych gigantów i zapewnić transparentność ich działania, zwiększyć ochronę użytkowników i stworzyć bardziej konkurencyjne, sprawiedliwe warunki funkcjonowania na rynku cyfrowym. Przyczynią się też do bardziej efektywnej walki z dezinformacją i fake newsami. – Wejście w życie tych przepisów zostało podzielone, a cyfrowi giganci są zobligowani do stosowania nowego pakietu regulacyjnego już od pierwszej połowy 2023 roku. Natomiast pozostali użytkownicy oraz uczestnicy rynku internetowego będą zobligowani do dostosowania swojej działalności od 2024 roku – mówi radca prawny Marta Olczak-Klimek.

Dr Michał Nowakowski, prezes Zarządu PONIP.
Komentarze ekspertów

O sztucznej inteligencji, definicjach i przyszłości biznesu AI

Pojęcie „sztucznej inteligencji” może być niekiedy mylące, bowiem sugeruje, że rzeczywiście mamy tutaj do czynienia z jakąś formą „inteligencji” zbliżonej do tej, którą reprezentuje człowiek i najczęściej odnosi się do koncepcji tzw. General Artificial Intelligence (GAI), a niekiedy nawet Super Artificial Intelligence – tej przewyższającej człowieka, co do możliwości stworzenia której toczą się akademickie i „techniczne” dyskusje. W praktyce jednak punkt ciężkości w tej debacie powinien być przeniesiony raczej na problematykę definicji systemów sztucznej inteligencji (lub innej podobnej technologii, podejścia czy rozwiązania), jako rozwiązań, które faktycznie funkcjonują w praktyce i mają wpływ na człowieka i jego otoczenie – pisze dr Michał Nowakowski, prezes PONIP.

Joanna Michalska, radca prawny, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp. k.
Komentarze ekspertów

Skutki wyroku unieważniającego umowę kredytu a ochrona danych osobowych

Kiedy sąd prawomocnym wyrokiem ustala nieważność (nieistnienie) umowy o kredyt zawartej między bankiem a kredytobiorcą, ten ostatni zakłada, że bank nie ma już podstaw do przetwarzania jego danych osobowych, bowiem umowa jest nieważna od samego początku. Zwraca się więc do banku o ich usunięcie i w tym miejscu powstaje pytanie, czy takie żądanie jest uprawnione i czy kredytobiorca ma wówczas „prawo do prywatności”, komentuje dla BANK.pl Joanna Michalska, radczyni prawna, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp. k.

Dr Michał Nowakowski, prezes Zarządu PONIP.
Komentarze ekspertów

Może już czas na centra wymiany informacji pomiędzy podmiotami sektora finansowego?

Ryzyko. RODO. Niebezpieczeństwo. Zgoda. To pojęcia, które często kojarzą się z (nie)możliwością przetwarzania i powierzania danych osobowych. Danych, które mogą być źródłem wielu korzyści zarówno z perspektywy podmiotu danych, jak i użytkownika czy ich posiadacza. Wiele instytucji ma świadomość zagrożeń, które wiążą się z niewłaściwym wykorzystaniem danych, np. niezgodnym z celem i stosowną podstawą prawną. Budowanie podstaw do przetwarzania danych osobowych w wielu organizacjach ‒ przynajmniej tych świadomych ‒ wiąże się z przechodzeniem żmudnych i drobiazgowych procesów oraz stałej kontroli ze strony inspektorów ochrony danych, którzy czuwają nad spełnieniem szeregu wymogów wynikających nie tylko z klasycznych przepisów o ochronie danych, ale także tych sektorowych, które chronią przykładowo tajemnicę bankową czy zawodową. I bardzo słusznie, bo ochrona danych i prywatności to obszary wymagające szczególnej uwagi, podkreśla dr Michał Nowakowski, prezes PONIP.

Dr Michał Nowakowski, prezes Zarządu PONIP.
Komentarze ekspertów

Etyczne aspekty wykorzystywania możliwości sztucznej inteligencji, ryzyka i odpowiedzialność

Może wydawać się to nudne, ale znaczenia obsługi danych na potrzeby systemów sztucznej inteligencji nie można przecenić. Faktem jest, że bez właściwego zarządzania danymi możemy narazić się na szereg nieprzyjemnych konsekwencji. Swojego czasu jedna z dużych firm technologicznych miała okazję przekonać się o tym, że brak nadzoru nad etykietowaniem danych, jak i niewłaściwe ułożenie procesów, może wpłynąć na reputację oraz skutkować „przepaleniem” całkiem sporych pieniędzy ‒ podkreśla dr Michał Nowakowski, prezes Zarządu PONIP.

Dr Michał Nowakowski, prezes Zarządu PONIP.
Komentarze ekspertów

Odpowiednie dane, etyczne podejście oraz automatyzacja z udziałem człowieka, to szansa na konkurencyjną pozycję w sektorze finansowym

Dane już dzisiaj stanowią ważny element działalności biznesowej, nawet jeżeli nie wykorzystujemy takich metod i podejść jak uczenie maszynowe czy głębokie. Decyzje, które podejmujemy na co dzień opierają się na danych, które w taki lub inny sposób opisują rzeczywistość lub postrzeganie rzeczywistości przez konkretny podmiot, który dane wygenerował. To, jakie dane, i w jakiej ilości są dostępne (warto zwrócić uwagę na ostatni dokument EDPS w sprawie „błędów” w rozumieniu uczenia maszynowego) dla przetwarzającego ‒ będzie przekładało się na rezultaty procesu ich analizy czy wykorzystania do konkretnych czynności, np. podjęcia decyzji. O sektorze finansowym często mówi się w kontekście danetyzacji, czyli monetyzacji danych, w których posiadaniu instytucje finansowe się znajdują. Coraz częściej także w kontekście rozwijającej się koncepcji platformizacji oraz finansów „wbudowanych” (embedded finance), pisze Michał Nowakowski, prezes Zarządu PONIP.

Komentarze ekspertów

Kto jeszcze poza Unią Europejską chce bardziej restrykcyjnych przepisów dotyczących AI?

Szeroko rozumiana sztuczna inteligencja, a więc w praktyce głównie uczenie maszynowe i głębokie, ale także mniej zaawansowane metody statystyczne coraz częściej dotykają sfery naszej prywatności i wpływają na to, jak funkcjonujemy w Internecie i społeczeństwie. Czasem mamy tego świadomość, czasem nie, ale jest to niewątpliwie fakt, a sprawy takie jak Cambridge Analytica są tego dobitnym przykładem (zresztą nie jedynym), pisze Michał Nowakowski.

Michał Nowakowski, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym.
Komentarze ekspertów

Od danych nie da się uciec, czyli o czymś więcej niż o otwartych finansach

Banki i inne instytucje finansowe śpią na danych. Taka obiegowa opinia krąży od lat nie tylko w sektorze finansowym, ale także poza nim, rozgrzewając wyobraźnie tych, którzy mogą z nich zrobić użytek tworząc lepsze (także kosztowo) produkty i usługi, które lepiej będą odpowiadać potrzebom klientów. Towarzyszy temu rozwój, choć jeszcze niezbyt dynamiczny, prawa i regulacji, które z jednej strony mają pozwolić na bardziej elastyczne przetwarzanie danych, a z drugiej zabezpieczyć ich „właścicieli” przed niewłaściwym wykorzystaniem, w tym manipulacją. Uczenie maszynowe i głębokie, a także mniej wyrafinowane metody z pogranicza tzw. sztucznej inteligencji i statystyki dodają tylko pikanterii, powodując, że coraz częściej instytucje finansowe szukają rozwiązań, które pozwolą odejść od wyłącznie gromadzenia danych ‒ na rzecz ich efektywnego zaprzęgnięcia do realizacji biznesowych celów, pisze Michał Nowakowski.

RODO
Nieruchomości

Trzecia kara dla Głównego Geodety Kraju nałożona przez UODO

Prezes UODO nałożył kolejną administracyjną karę pieniężną na Głównego Geodetę Kraju (GGK). Jej wysokość to 60 tys. zł, a powodem tej sankcji było niezgłoszenie naruszenia ochrony danych osobowych organowi nadzorczemu oraz niepowiadomienie o nim osób, których dane osobowe zostały ujawnione. Decyzja nakazuje też powiadomić o naruszeniu osoby, których ono dotyczyło, informuje w komunikacie UODO.

Michał Nowakowski, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym.
Komentarze ekspertów

Jeśli nie ma umowy kredytowej to dane klienta pozyskane w toku procesu oceny zdolności kredytowej powinny zostać usunięte?

O wyroku Wojewódzkiego Sądu Administracyjnego w Warszawie w sprawie II SA/Wa 1128/21 jest ostatnio głośno w świecie ochrony danych osobowych. W bardzo dużym skrócie ‒ Sąd stwierdził, że przetwarzane dane pozyskanych w toku procesu oceny zdolności kredytowej powinny zostać usunięte, jeżeli nie doszło do zawarcia umowy kredytowej i nie ma innej podstawy do przetwarzania, wynikającej z Rozporządzenia 2016/679 ‒ przypomina Michał Nowakowski.

STRONA 2 Z 19