Projekty AI & Data. Czy 2026 będzie rokiem technologicznego compliance?

Projekty AI & Data. Czy 2026 będzie rokiem technologicznego compliance?
Fot. stock.adobe.com / InfiniteFlow-scaled
AI Act, CRA, NIS2, Data Act i może nawet Data Governance Act... Spinający klamrą Digital Omnibus Package, który ma wywrócić nasze patrzenie na Unię Europejską jako stabilną regulacyjnie ostoję wartości. Do tego rzecz jasna wytyczne i rekomendacje unijnych agend stojących na straży bezpieczeństwa. To i wiele więcej, bo przecież i krajowa legislacja oraz regulacja nie będzie tutaj bierna. Czeka nas wdrożenie wspomnianego NIS2, przymiarki do CRA, a także ustawa o systemach sztucznej inteligencji, która ma wdrożyć część AI Act, pisze Michał Nowakowski.

Dzisiaj możemy zakładać, że wiele z naszych założeń bazujących na zasadzie pewności prawnej się posypie. W końcu wspomniany omnibus to z jednej strony ukłon wobec tych, którzy utyskują na nadmiar regulacji i efekt „brukselski”, a z drugiej ogromna niepewność.

Realnie nikt nie jest w stanie powiedzieć czy powinniśmy już ostro cisnąć wdrożenia aktów prawnych, czy jednak mamy jakąś przestrzeń. W Brukseli przepychanki co poddać ograniczeniu, co odroczyć w czasie. A tymczasem biedny przedsiębiorca (ale także urzędy!) nie wie co dalej.

No, ale bierność w kontekście zgodności nie jest raczej wskazana. Szczególnie, jeżeli zależy nam nie tyle (tylko?) na odfajkowaniu „zgodności / compliant”, ale także na wzmocnieniu naszych fundamentów, a nawet wypracowaniu przewagi konkurencyjnej.

Moją niszą są projekty AI & Data…

…nie sposób więc, żebym nie spróbował namówić do spojrzenia inaczej na 2026 rok. Nie jak na kolejne wyzwanie, które pozbawi nas zasobów, zarówno tych finansowych, jak i psychiczno-emocjonalnych.

Te ostatnio często wpływają nie tylko na jakość projektu, ale przede wszystkim na nasze podejście do kolejnych wyzwań. Warto więc i o to zadbać.

Jeżeli jesteśmy:

  • organizacją, dla której AI i wykorzystanie danych to realna szansa na przeskoczenie konkurencji i bardziej optymalną realizację celów biznesowych;
  • organizacją, która stawia na wykorzystanie IoT (Internetu rzeczy, w tym sensorów czy kamer) i płynących z nich danych;
  • organizacją, która przetwarza dużo danych wysokiej wartości, w tym dane osobowe i/lub która ma dużo swojego IP, know-how – de facto tajemnic przedsiębiorstwa

– to warto czytać dalej.

W 2026 roku powinniśmy być zgodni z niektórymi aktami prawnymi, ale… nawet jeżeli odłożymy na bok kwestie zgodności, to warto spojrzeć na akty prawne dla projektów technologicznych z innej perspektywy. Jakiej? Lecimy.

Czytaj także: Cyfryzacja po europejsku: 100 regulacji cyfrowych i 270 organów regulacyjnych

AI Act, czyli rozporządzenie w sprawie sztucznej inteligencji  

To akt prawny, który wprost „żąda” od nas, abyśmy zaczęli budować w swojej organizacji fundamenty dla lepszego i bezpieczniejszego wykorzystania danych oraz – rzecz jasna – systemów sztucznej inteligencji.

Jeżeli spojrzymy na wymagania, które są stawiane systemom o wysokim ryzyku, to mamy tam – prawie – gotowy przepis na AI Governance, a także wezwanie do budowania równoległego frameworku dla danych.

Jasne, ktoś może powiedzieć – „a ile podmiotów w Polsce realnie podlega AI Act, przecież to jakaś drobnica”, tyle tylko, że to krótkowzroczne. Nawet jeżeli dzisiaj nie jesteśmy (wprost) adresatem AI Act, to czy nie czujemy podskórnie, że w najbliższej perspektywie możemy się nimi stać?

A skoro AI Act jest fajną podwaliną do stworzenia całego systemu zarządzania AI wspierającego innowacyjność i nasze cele biznesowe, to nie żal stracić szansy? Jeżeli przekalkulujemy sobie, że i tak w którymś momencie dotknie nas potrzeba zapewnienia zgodności, to zaczynając dzisiaj budujemy swoją przewagę i racjonalizujemy budżety.

Zacznijmy małymi kroczkami i bez stresu, od prostej analizy tego na ile prawdopodobne, że w naszej pracy z danymi może pojawić się sztuczna inteligencja i bardziej zaawansowana analityka. To da nam pewien ogląd na to czy możemy zastosować podejście zrelaksowane, czy jednak czeka nas trochę push’owania ze względu na terminy.

To będzie też dobry moment, żeby wypracować naszą definicję projektu AI. Ponieważ AI Act jest pod tym względem specyficzny, to nie ominie nas coś takiego jak budowanie taksonomii, czyli wspólnego słowniczka pojęć, który zaaplikujemy na dalszych etapach.

Tu od razu mamy potencjał do zrobienia czegoś fajnego, czyli zaangażowania wielu ludzi z różnych obszarów i środowisk. Tworzenie naszych ram governance jest pracą zespołową i interdyscyplinarną. Szczególnie jeżeli całość ma wspierać nasze cele biznesowe (a także osobiste!).

Dzięki temu będziemy mieli też okazję, przynajmniej wstępnie, zrozumieć i przeanalizować obszary (ryzyko, dane, IT), które będziemy trochę poszturchiwać pracując przy budowaniu.

Poza wspomnianą interdyscyplinarnością AI Act wprost wzywa do przeanalizowania architektury korporacyjnej i podziału odpowiedzialności, ale także podejścia, np. do zarządzania ryzykiem czy jakości danych.

Mając zespół i jakieś ogólne pojęcie o stanie organizacji w kontekście projektów AI & Data możemy zacząć od dwóch małych, wielkich tematów:

  • naszej strategii wobec właśnie AI & Data oraz
  • naszej polityki względem projektów AI & Data.

O ile ta pierwsza zazwyczaj gdzieś już tam jest zaadresowana, to polityka jeszcze jest raczej rzadkością. Choć nie ukrywam, że kilka takich dokumentów mam już za sobą i organizacje, które je zamawiały różniły się wielkością i poziomem zaangażowania.

Taka polityka będzie dla nas Gwiazdą Polarną, która będzie nawigowała nas przez kolejne etapy, w tym porządną analizę luki oraz kształtowanie całego podejścia do inicjatyw. Będzie też mocnym wezwaniem do zapewnienia zasobów na compliance o biznesowym zacięciu.

To czy z tego skorzystamy – to rzecz jasna wynik splotu wielu okoliczności, ale wiele z tych okoliczności zależy od nas. W tym kwestia zbudowania odpowiedniej narracji, która przekona naszych sponsorów i liderów do działania.

Nie unikniemy pewnie pytań o ROI czy szerzej „co właściwie z tego będziemy mieli” i zapewniam, że do tematu jeszcze wrócimy. Wierzę jednak, że nawet z tej skrótowej inspiracji można wyciągnąć coś dla siebie i swoich organizacji.

2026 rok to dobry rok na spokojny, przemyślany i dobry krok w kierunku transformacji lub co najmniej zmiany pewnych nawyków.

A że projekty AI & Data to także, no cóż, dane, to i pojawi się kwestia cyberbezpieczeństwa.

Michał Nowakowski
Michał Nowakowski – doktor nauk prawnych i radca prawny z 13-letnim doświadczeniem w obszarze innowacji finansowych oraz nowych technologii. Specjalizuje się w zagadnieniach związanych z wdrażaniem przepisów i regulacji dotyczących danych, AI oraz budowaniu w organizacjach rozwiązań data governance i data management. Od 2022 roku jest prezesem zarządu PONIP. Pracował zarówno w sektorze publicznym, jak i prywatnym, gdzie zdobywał doświadczenie przy realizacji projektów uwzględniających szeroko rozumiane ryzyka ICT oraz outsourcing i ochronę prywatności. Był związany także z instytucjami finansowymi, w tym z bankami, gdzie doradzał m.in. zespołom R&D, bezpieczeństwa oraz IT. Autor książek, artykułów naukowych i prelegent na konferencjach i wydarzeniach branżowych. Prywatnie miłośnik kodowania i ML. Współzałożyciel i prezes zarządu spółki GovernedAI, zajmującej się tworzeniem i wdrażaniem bezpiecznego oprogramowania wykorzystującego systemy uczenia maszynowego i głębokiego, w tym tzw. generatywną sztuczną inteligencję.
Profil na LinkedIn: https://www.linkedin.com/in/mjnowakowski/?originalSubdomain=pl
Źródło: Portal Finansowy BANK.pl