Dlaczego projekty AI nie są „normalne”? Zrozumieć cykl życia inicjatyw, część 2. Potwierdzamy hipotezę i bierzemy ryzyka prawne
Generowanie pomysłu, który ma odpowiadać konkretnemu problemowi biznesowemu to dopiero pierwszy krok przybliżający nas do sukcesu naszego (przyszłego) produktu. Nasze wyobrażenie o tym jak coś się przyjmie może być – cóż – jedynie naszym wyobrażeniem.
Użytkownicy mogą nie być zainteresowani funkcjonalnością czy samodzielnym rozwiązaniem opartym na AI. Mogą nie być na nie gotowi, konkurencja może robić to lepiej lub taniej i lepiej. Możliwości jest całkiem sporo.
Potencjał rynkowy produktu jest kluczowy dla jego sukcesu, choć oczywiście wiele zależy też od samego wykonania. Zaczynamy tutaj od bardzo ważnej rzeczy – hipotezy, którą spróbujemy sobie potwierdzić.
Jak? Albo fantastycznym market researchem (rzadziej), albo metodą prób i błędów. Ten etap często może być „zbiasowany”, bo nasze przekonania trudno zmienić. I właśnie po to jest ten etap – abyśmy nie stali się ofiarami własnych przekonań.
Co ciekawe, dopasowanie do rynku powinniśmy wiązać także z kwestiami prawno-regulacyjnymi. Jeżeli na danym rynku istnieją ograniczenia, które utrudniają lub wręcz zakazują czegoś (patrz: praktyki zakazane w AI Act), to market-fit też nie znajdziemy. Stąd też early check w zakresie przepisów, ale i kwestii etycznych będzie dla nas ważny!
Marily Nika, Ph.D w swojej książce zaproponowała oparcie dopasowania produktu AI do rynku na trzech filarach:

Zasadność biznesowa oznacza, że wszystko się nam spina i tego raczej tłumaczyć nie trzeba, choć jest to wymagający etap. Wyliczanie realnego, a potem dowiezienie ROI [zwrotu z inwestycji] jest w przypadku produktów AI nieco utrudnione, bo zmienność czynników na to wpływających jest spora.
Ale uwaga – to nie jest tylko kwestia odpowiedniego modelu sprzedaży, ale chociażby monitorowania wydatków na tokeny / chmurę obliczeniową.
Zasadność biznesowa to także ocena ryzyka i zgodność z przepisami. Coś czego biznes bardzo nie lubi, ale zrobić musi [Marily Nika, Produkty oparte na sztucznej inteligencji…, 2025.,], jeżeli chce wyliczyć potencjał produktu czy usługi.
Za chwilę do tego wrócimy, ale pozwólcie, że wyjaśnię jeszcze dwa pozostałe aspekty, czyli…
… atrakcyjność dla użytkowników i wykonalność techniczną
To naprawdę ważne, bo pozwoli nam na spięcie całości w sensowny wzór. Ja stosuję taki:

Daleko mu do ideału, ale dzięki niemu jesteśmy uchwycić ważne aspekty wyceny jak to – czy w ogóle – udźwigniemy. Ciężar developmentu i późniejszego monitorowania (MLOps), ale także to czy użytkownicy będą chcieli z naszego produktu, czy też usługi AI skorzystać.
I to są właśnie te dwa obszary, które często są pomijane na etapie biznesowej gorączki złota, a gdybyśmy tylko przyłożyli ucho gdzie trzeba albo zadawali właściwe pytania, to być może nie byłoby tak źle.
Atrakcyjność dla użytkowników to nic innego jak powiązanie naszego rozwiązania z konkretnymi potrzebami i problemami grupy osób do których je kierujemy. Jeżeli rozwiązanie jest fantastyczne z technicznego i nawet UX-owego (user experience) punktu widzenia, ale użytkownicy nie czują potrzeby korzystania, to produkt nie jest dobry.
Tylko jak to sprawdzić?
Tym razem odwołam się do „AI product creation. A 9-step framework” Shub A., który pokazuje jak ważne jest nieustanne badanie rynku połączone z eksperymentalnym podejściem.
Zarówno potrzeby i oczekiwania użytkowników, jak i dostępne rozwiązania techniczne zmieniają się dzisiaj bardzo dynamicznie, więc wplecenie takiego mindsetu do naszych procesów wydaje się absolutnym must-have.

W praktyce wszystko sprowadza się do zebrania wystarczającej ilości danych, które pozwolą nam na podjęcie właściwej decyzji.
Robimy to z wykorzystaniem różnych ankiet, spotkań one-on-one, grup fokusowych, ale także w mniej formalne sposoby.
Ważne jest to, abyśmy w tej fazie odpowiedzieli sobie na następujące pytania:

W tej fazie możemy też dowiedzieć się czegoś, o czym w ogóle nie pomyśleliśmy z perspektywy ryzyk, w tym prawnych. Ja sam tworząc produkty AI, pomimo mojego background’u, nie wszystko jestem w stanie dostrzec.
Użytkownicy (przyszli!) mają często nieco inną perspektywę, która pozwala im dostrzec coś nieoczywistego na pierwszy rzut oka. Warto na tym etapie przemienić się w sekretarza i skrupulatnie zbierać informacje.
Samo dopasowanie do rynku musi uwzględniać m.in. czy będziemy w stanie zarobić wystarczająco dużo na danym rozwiązaniu. Tu wchodzi również kwestia myślenia o #compliance. Dlaczego?
Dlatego, że koszt regulacyjny jest ważną częścią naszego modelu biznesowego dla produktu
Ale jak to? No tak to. Załóżmy, że chcemy stworzyć produkt na potrzeby oceny efektywności naszych pracowników. Rozwiązanie takie z dużym prawdopodobieństwem będzie podlegało AI Act (systemy wysokiego ryzyka) oraz RODO (tutaj wątpliwości raczej nie ma). No i może nam się wydawać, że w takim razie zrobimy DPIA (ocenę skutków) i tyle. Może jeszcze jakaś opinia prawna.
Rzecz jednak w tym, że takie rozwiązanie będzie od nas wymagało stałego monitorowania (w tym w ramach systemu zarządzania jakością), jak również zarządzania kwestiami prywatności i danych osobowych. To koszt, to zasoby, to ludzie. Trochę też technologii.
Mało tego, te ryzyka prawna i regulacyjne musimy cały czas uwzględniać i aktualizować. Do przepisów prawa często pojawiają się wytyczne czy rekomendacje, które mogą zmieniać nam podejście do naszych obowiązków. Jest to więc kluczowa kwestia, której nie możemy zignorować.
Tylko jak to robić?
AI Compliance Ops. To sposób na ciągłe monitorowanie produktów AI w sposób najbardziej efektywny. Wymagać będzie od nas:
- przygotowania planu działania w cyklu życia produktu (AI Act też do tej kwestii referuje wymagając od dostawcy systemu wysokiego ryzyka ustanowienia strategii na rzecz zgodności regulacyjnej, w tym zgodności z procedurami oceny zgodności i procedurami zarządzania zmianami w systemie AI wysokiego ryzyka);
- wdrożenia narzędzi (Compliance Toolbox), które pomogą nam automatyzować ocenę tych ryzyk;
- wyznaczenie kogoś, kto będzie to monitorował;
- ustalenia polityki oceny ryzyk w odpowiednich interwałach i wdrożenia procesu dostosowywania do zmian;
- wskazania sposobu dokumentowania tych kwestii.
Wydaje mi się, że to powinno nam wystarczyć.
W następnym felietonie spróbujemy zająć się tematyką MVP / prototypów, również z uwzględnieniem perspektyw ryzyk.
Czytaj także: Dlaczego projekty AI nie są „normalne”? Zrozumieć cykl życia inicjatyw i dobrze nimi zarządzić

Michał Nowakowski – doktor nauk prawnych i radca prawny z 13-letnim doświadczeniem w obszarze innowacji finansowych oraz nowych technologii. Specjalizuje się w zagadnieniach związanych z wdrażaniem przepisów i regulacji dotyczących danych, AI oraz budowaniu w organizacjach rozwiązań data governance i data management. Od 2022 roku jest prezesem zarządu PONIP. Pracował zarówno w sektorze publicznym, jak i prywatnym, gdzie zdobywał doświadczenie przy realizacji projektów uwzględniających szeroko rozumiane ryzyka ICT oraz outsourcing i ochronę prywatności. Był związany także z instytucjami finansowymi, w tym z bankami, gdzie doradzał m.in. zespołom R&D, bezpieczeństwa oraz IT. Autor książek, artykułów naukowych i prelegent na konferencjach i wydarzeniach branżowych. Prywatnie miłośnik kodowania i ML. Współzałożyciel i prezes zarządu spółki GovernedAI, zajmującej się tworzeniem i wdrażaniem bezpiecznego oprogramowania wykorzystującego systemy uczenia maszynowego i głębokiego, w tym tzw. generatywną sztuczną inteligencję. Profil na linkedin: https://www.linkedin.com/in/mjnowakowski/?originalSubdomain=pl