Sztuczna inteligencja ‒ możliwości są duże, ale czy można jej zaufać?
Pojawienie się sztucznej inteligencji było prawdziwym przełomem. Tak jak napędy parowe i elektryczność zapoczątkowały erę przemysłową, tak AI jest wiodącą technologią nowej ery cyfrowej. AI może pomóc firmom w lepszym i bardziej zrównoważonym rozwoju, ale jak to bywa w przypadku każdej nowej technologii, pojawiają się pytania i obawy.
Zarówno eksperci, jak i opinia publiczna nie mają pewności, w jaki sposób sztuczna inteligencja podejmuje decyzje, jakie informacje wykorzystuje, na ile jest obiektywna i sprawiedliwa? Zatem w jaki sposób mierzyć i porównywać prace różnych systemów sztucznej inteligencji w tych kwestiach i jak regulować tę technologię?
Ważne jest jednak, aby polityka rządowa i regulacje zostały zaprojektowane w taki sposób, aby wzmocnić zaufanie do systemów AI bez tłumienia innowacji
W ciągu ostatnich lat firmy polegają na coraz większej liczbie decyzji podejmowanych przez AI. Na przykład w ramach wyboru talentów, przetwarzania roszczeń ubezpieczeniowych, obsługi klienta oraz innych ważnych procesów biznesowych. Jednak dla wielu firm sztuczna inteligencja to wciąż duża niewiadoma. Brakuje narzędzi oraz umiejętności, aby odpowiedzialnie nią zarządzać. Jednocześnie zarówno klienci, jak i firmy chcą móc obdarzyć tę nową technologię pełnym zaufaniem.
Według badania IBM Global AI Adoption Index, 91 procent firm korzystających obecnie ze sztucznej inteligencji uważa, że podejmowanie decyzji z możliwością wyjaśnienia jest istotną cechą rozwiązań AI. W innej ankiecie czterech na pięciu respondentów stwierdziło, że etyka AI powinna być kwestią poruszaną na poziomie zarządów firm.
Czytaj także: Inżynieria oprogramowania a etyka; czy silna sztuczna inteligencja zawładnie ludzkością?
Ustalanie zasad
Dbałość o przejrzystość działania sztucznej inteligencji jest obowiązkiem producentów i użytkowników systemów AI oraz organów publicznych, odpowiedzialnych za tworzenie prawa. I rzeczywiście, Unia Europejska oraz wiele krajów na świecie już opracowuje strategie i zasady dotyczące sztucznej inteligencji. Na przykład IBM współpracuje z przedstawicielami rządów i instytucji publicznych, a jednocześnie opracowuje praktyczne podejście do etycznych aspektów AI.
Eksperci IBM zdefiniowali pięć kluczowych cech niezbędnych do stworzenia zaufanej sztucznej inteligencji. To dający się zrozumieć, uczciwy, solidny, przejrzysty i prywatny system. Takie cechy są nie tylko stosowane w firmowych rozwiązaniach AI, ale mogą również posłużyć jako reguły obowiązujące w całej branży.
Przykładem praktycznego zastosowania tych zasad jest AI FactSheet ‒ koncepcja, którą IBM wprowadził kilka lat temu. Podobnie jak w przypadku etykiet żywieniowych dla produktów spożywczych, taki arkusz informacyjny mógłby zawierać wygenerowane informacje o działaniu AI, dane szkoleniowe, podstawowe algorytmy, konfigurację i wyniki testów, wzorce wydajności, kontrole uczciwości i odporności, jego przeznaczenie, a także informacje o pracach serwisowych i ponownych treningach AI.
Tego rodzaju narzędzia będą bardzo potrzebne, ponieważ powinien istnieć łatwy sposób systematycznego i zrozumiałego pomiaru, jak również informowania o poziomach funkcjonowania danego systemu AI.
Czytaj także: Chatbot zamiast pracownika banku? Prawie połowa Polaków jest otwarta na współpracę z wirtualnym asystentem
Wspólne działania
Rozwój na dużą skalę sztucznej inteligencji, której można zaufać, jako wyzwanie wykracza poza możliwości całej branży, nie wspominając o poszczególnych firmach. Dlatego, poza inicjatywami branżowymi, również decydenci na całym świecie opracowują strategie i polityki dotyczące AI.
Watykan w 2020 roku ogłosił „Wezwanie Rzymu do etyki w AI”, którego IBM był jednym z pierwszych sygnatariuszy. Niedawno Unia Europejska przedstawiła swoje kompleksowe regulacje dotyczące AI, które mają na celu ograniczenie potencjalnych zagrożeń związanych z tą technologią. Ważne jest jednak, aby polityka rządowa i regulacje zostały zaprojektowane w taki sposób, aby wzmocnić zaufanie do systemów AI bez tłumienia innowacji lub ograniczania potencjału tej technologii do uczynienia świata lepszym.
Można by określić ramy oparte na ryzyku, takie jak propozycja IBM dotycząca Precyzyjnej Regulacji AI, w ramach, których branża i rządy współpracowałyby wokół systemu współregulacji, dostosowanego do przypadków użycia i poziomu ryzyka.
Aby sztuczna inteligencja przyniosła korzyści wszystkim, zarówno biznesowi i każdemu z nas, wartości takie jak różnorodność, inkluzja społeczna i wspólna odpowiedzialność muszą zawsze być podstawą jej tworzenia i zaufanego działania.
Teraz, gdy znajdujemy się w kluczowym momencie na drodze postępu, wypracowanie najlepszego sposobu wykorzystania sztucznej inteligencji w naszym codziennym życiu, wymaga zaangażowania wszystkich możliwych stron.
Piotr Beńke,
dyrektor ds. technologii, IBM Polska i Kraje Bałtyckie.