Etyka

Veljko Dubljević, adiunkt na Uniwersytecie Stanu Karolina Północna, prowadzący NeuroComputational Ethics Research Group.
Technologie i innowacje | Multimedia

Jak nauczyć AI w samochodach autonomicznych podejmowania decyzji moralnych?

Rynek autonomicznych pojazdów do końca dekady ma zwiększyć swoją wartość prawie pięciokrotnie. W miastach, które dopuszczają takie samochody do ruchu, dochodzi do wypadków wynikających ze złych „decyzji” podejmowanych przez sztuczną inteligencję kierującą pojazdem. Naukowcy uważają, że wynika to ze zbyt ubogiego zestawu modeli decyzyjnych wykorzystywanych do programowania pojazdów. Opierają się one na tzw. dylemacie wagonika, czyli wyborze spośród dwóch rozwiązań tego, które będzie miało teoretycznie łagodniejsze skutki. Na podstawie zróżnicowanych scenariuszy badacze opracowują dużo bardziej złożone i w większym stopniu zbliżone do rzeczywistych dylematów kierowców rozwiązanie do szkolenia pojazdów autonomicznych.

CZYTAJ WIĘCEJ
napis na nocnym niebie nad miastem ChatGPT
Cyberbezpieczeństwo | Komentarze ekspertów

ChatGPT 4.0 to nie rewolucja, to wezwanie do działania

Tworzenie treści o dowolnej strukturze i zawartości, wierne odtworzenie głosu czy filmy na których występują osoby nieistniejące w rzeczywistości – to tylko przykłady zastosowań tzw. generatywnej sztucznej inteligencji. Uruchomienie projektu ChatGPT 4.0 budziło spore emocje od kilku tygodni aż w końcu ujrzał on światło dzienne, pozwalając na testowanie go w realnym środowisku. To rozwiązanie, jak i wiele mu podobnych, może w istotny sposób wpłynąć na jakość naszej pracy, być może i życia w niektórych aspektach, ale może być także źródłem wielu zagrożeń, na które dzisiaj nie jesteśmy jeszcze przygotowani. Także w kontekście etyki, prawa i regulacji, pisze dr Michał Nowakowski, prezes PONIP.

CZYTAJ WIĘCEJ
Dr Michał Nowakowski, prezes Zarządu PONIP.
Komentarze ekspertów | Technologie i innowacje

O sztucznej inteligencji, definicjach i przyszłości biznesu AI

Pojęcie „sztucznej inteligencji” może być niekiedy mylące, bowiem sugeruje, że rzeczywiście mamy tutaj do czynienia z jakąś formą „inteligencji” zbliżonej do tej, którą reprezentuje człowiek i najczęściej odnosi się do koncepcji tzw. General Artificial Intelligence (GAI), a niekiedy nawet Super Artificial Intelligence – tej przewyższającej człowieka, co do możliwości stworzenia której toczą się akademickie i „techniczne” dyskusje. W praktyce jednak punkt ciężkości w tej debacie powinien być przeniesiony raczej na problematykę definicji systemów sztucznej inteligencji (lub innej podobnej technologii, podejścia czy rozwiązania), jako rozwiązań, które faktycznie funkcjonują w praktyce i mają wpływ na człowieka i jego otoczenie – pisze dr Michał Nowakowski, prezes PONIP.

CZYTAJ WIĘCEJ
Dr Michał Nowakowski, prezes Zarządu PONIP.
Komentarze ekspertów

Sztuczna inteligencja: edukować, komunikować, wdrażać. W tej kolejności

Brak wiedzy to największe zagrożenie, także w przypadku zastosowania rozwiązań opartych o #sztucznainteligencja. Uwaga taka rozciąga się nie tylko na osoby bezpośrednio związane z tworzeniem takich rozwiązań, ale także tych, którzy powinni te procesy nadzorować lub co najmniej w nich współuczestniczyć. Systemy oparte przykładowo o uczenie maszynowe czy głębokie mogą generować zróżnicowane ryzyka, które mogą nie być do wyłapania na technicznym etapie, zarówno zbierania danych, jak ich procesowania. Ryzyka te mogą mieć zarówno charakter etyczny czy prawny, jak również operacyjny, a nawet techniczny, podkreśla dr Michał Nowakowski, prezes PONIP.

CZYTAJ WIĘCEJ
Dr Michał Nowakowski, prezes Zarządu PONIP.
Komentarze ekspertów

Etyczne aspekty wykorzystywania możliwości sztucznej inteligencji, ryzyka i odpowiedzialność

Może wydawać się to nudne, ale znaczenia obsługi danych na potrzeby systemów sztucznej inteligencji nie można przecenić. Faktem jest, że bez właściwego zarządzania danymi możemy narazić się na szereg nieprzyjemnych konsekwencji. Swojego czasu jedna z dużych firm technologicznych miała okazję przekonać się o tym, że brak nadzoru nad etykietowaniem danych, jak i niewłaściwe ułożenie procesów, może wpłynąć na reputację oraz skutkować „przepaleniem” całkiem sporych pieniędzy ‒ podkreśla dr Michał Nowakowski, prezes Zarządu PONIP.

CZYTAJ WIĘCEJ
Komentarze ekspertów | Technologie i innowacje

Kto jeszcze poza Unią Europejską chce bardziej restrykcyjnych przepisów dotyczących AI?

Szeroko rozumiana sztuczna inteligencja, a więc w praktyce głównie uczenie maszynowe i głębokie, ale także mniej zaawansowane metody statystyczne coraz częściej dotykają sfery naszej prywatności i wpływają na to, jak funkcjonujemy w Internecie i społeczeństwie. Czasem mamy tego świadomość, czasem nie, ale jest to niewątpliwie fakt, a sprawy takie jak Cambridge Analytica są tego dobitnym przykładem (zresztą nie jedynym), pisze Michał Nowakowski.

CZYTAJ WIĘCEJ
Michał Nowakowski, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym.
Komentarze ekspertów | Technologie i innowacje

Kultura data-driven w praktyce: budowanie organizacji opartej o (dobre) dane

Nie ma wątpliwości, że rozwiązania oparte o analitykę danych i automatyzację procesów z nimi związanych pozostaną z nami na dłużej, a za kilka lat staną jest czymś zupełnie naturalnym, jak dzisiaj np. smartfony. Coraz częściej wykorzystujemy uczenie maszynowe czy głębokie, a także przetwarzanie języka naturalnego, rozpoznawanie mowy i obrazów, a pole do wykorzystania nowych rozwiązań stale się poszerza. Niektóre źródła podają, że do 2027 r. rynek dla uczenia maszynowego urośnie do 117 mld dolarów, choć wydaje się, że to dane mocno niedoszacowane, pisze Michał Nowakowski.

CZYTAJ WIĘCEJ
Michał Nowakowski, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym.
Komentarze ekspertów

Jak wiele tracimy zyskując na rozwoju chmury obliczeniowej i sztucznej inteligencji?

Rozwój nowych technologii ‒ niekoniecznie przełomowych ‒ powoduje, że stykamy się z coraz nowymi zagrożeniami, o których nawet nie mamy pojęcia, lub których skalę bagatelizujemy. Rozwój takich obszarów jak uczenie maszynowe i głębokie przetwarzanie danych biometrycznych, w tym behawioralnych, czy też popularyzacja finansów zdecentralizowanych, opartych o technologię rozproszonego rejestru i łańcucha bloków, ma jednak dla nas ‒ poszczególnych jednostek i całego społeczeństwa ‒ olbrzymie znaczenie. Bowiem z jednej strony daje szansę na lepsze życie, a z drugiej, być może bardziej prawdopodobne ‒ może wpędzić nas w prawdziwe tarapaty. Czy zastanawialiście się chociażby jak wiele tracimy zyskując na rozwoju chmury obliczeniowej i tzw. sztucznej inteligencji? Czy zastanawialiście jakie są koszty takiego rozwoju? I przede wszystkim: kto za tym wszystkim stoi? ‒ komentarz Michała Nowakowskiego.

CZYTAJ WIĘCEJ
Piotr Beńke, dyrektor ds. technologii, IBM Polska i Kraje Bałtyckie
Komentarze ekspertów | Technologie i innowacje

Sztuczna inteligencja ‒ możliwości są duże, ale czy można jej zaufać?

Sztuczna inteligencja mocno zmieni świat i z pewnością może uczynić go lepszym dla każdego z nas. Jednak, aby w pełni wykorzystać potencjał tej nowej technologii, musimy dołożyć wszelkich starań, aby zarówno każdy z nas oraz firmy miały do AI pełne zaufanie, podkreśla Piotr Beńke, dyrektor ds. technologii, IBM Polska i Kraje Bałtyckie.

CZYTAJ WIĘCEJ
Artykuły

Posiedzenie plenarne Komisji Etyki Bankowej

Komisja Etyki Bankowej 2 grudnia 2021 roku zebrała się na kolejnym posiedzeniu plenarnym. Posiedzenia Komisji odbywają się cyklicznie i omawiane są na nich wybrane zagadnienia etyczne oraz analizowane dokumenty przygotowywane w zespołach roboczych Komisji. Dyskusje oraz prezentacje na posiedzeniach Komisji stanowią przyczynek do dalszych prac Komisji oraz, co niezwykle istotne, stanowią impuls do działań podejmowanych przez członków Komisji w bankach, w których pracują. W ten sposób Komisja wypływa na promocję postaw etycznych i kształtowanie kultury etycznej w bankach.

CZYTAJ WIĘCEJ
wirtualny napis AI, człowiek dotykający palcem wirtualny ekran
Komentarze ekspertów | Technologie i innowacje

Inżynieria oprogramowania a etyka; czy silna sztuczna inteligencja zawładnie ludzkością?

Niedawno pisałem o sztucznej inteligencji dążącej do „zapewnienia” zagłady ludzkości, ale oczywiście z pewnym przymrużeniem oka oraz mniej futurystycznym podejściem. Prawda jest taka, że dzisiaj powinniśmy się skupić na bardziej realistycznych scenariuszach niż perspektywa stworzenia tzw. General Artificial Intelligence, czyli sztucznej inteligencji symulującej zachowania człowieka lub wykraczającej poza jego możliwości intelektualne. To akurat w wielu aspektach już się dzieje, choć bardziej w zakresie „zasobności” wiedzy oraz „umiejętności” wykrywania różnych zależności pomiędzy danymi, pisze Michał Nowakowski.

CZYTAJ WIĘCEJ
Michał Nowakowski, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym.
Komentarze ekspertów | Technologie i innowacje

Sztuczna inteligencja wkracza do naszego życia, czy się to nam podoba, czy nie; a co z etyką?

Dzisiejszy artykuł jest pokłosiem licznych dyskusji, ankiet i lektury opracowań naukowych, ale także wewnętrznego przekonania. Nikt (prawie) nie ma już chyba wątpliwości, że wkraczamy w nową erę cyfryzacji i zarazem naszego życia, która będzie w znaczny sposób poddana algorytmizacji na skalę znacznie większą niż się to nam wydaje, podkreśla Michał Nowakowski.

CZYTAJ WIĘCEJ
Michał Nowakowski, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym.
Komentarze ekspertów | Raporty

Czy już powinniśmy obawiać się totalnej inwigilacji biometrycznej?

W Unii Europejskiej toczy się obecnie debata na temat granic identyfikacji biometrycznej oraz możliwości oceny zachowań ludzi w sferze publicznej. Obecnie zmierzamy raczej w kierunku przeciwnym niż np. Chiny, które postawiły na powszechną identyfikację oraz połączenie jej z systemem tzw. scoringu społecznego, podkreśla w komentarzu Michał Nowakowski.

CZYTAJ WIĘCEJ
sztuczna inteligencja, wirtualny mózg, wektory, człowiek przed tablicą z wynikami
Komentarze ekspertów | Raporty

Raport Financial Conduct Authority i Instytutu Turinga w sprawie sztucznej inteligencji w sektorze finansowym

Parę dni temu pisałem na temat najnowszych wytycznych BaFin w kontekście wykorzystania algorytmów w sektorze finansowym, a dzisiaj mam kolejny ciekawy dokument, który został opublikowany na początku lipca. Mowa tutaj o wspólnym raporcie Financial Conduct Authority (odpowiednik KNF w Wielkiej Brytanii) oraz Instytutu Alana Turinga o wdzięcznej nazwie „AI in Financial Services”, pisze Michał Nowakowski.

CZYTAJ WIĘCEJ
sztuczna inteligencja, napis AI, ręka człowieka i ręka robota w geście tworzenia
Komentarze ekspertów | Technologie i innowacje

Prawa podstawowe a sztuczna inteligencja, dlaczego powinniśmy o nie walczyć?

Projekt rozporządzenia Unii Europejskiej w sprawie sztucznej inteligencji poza tym, że zawiera sporo odesłań do wartości (bliskich Unii) czy ochrony praw podstawowych, jest też w wielu miejscach niezwykle – na pozór – restrykcyjny, chociażby w odniesieniu do systemów wysokiego ryzyka, ale także praktyk zakazanych. Z czysto biznesowego punktu widzenia można więc dojść do przekonania, że projekt zahamuje innowacje, co zresztą, także i w moich felietonach, pojawia się dość często. I rzeczywiście tak może być. Pytanie czy to źle? ‒ pisze Michał Nowakowski, FinregtechPl.

CZYTAJ WIĘCEJ
STRONA 1 Z 2