Etyka

napis na nocnym niebie nad miastem ChatGPT
Cyberbezpieczeństwo

ChatGPT 4.0 to nie rewolucja, to wezwanie do działania

Tworzenie treści o dowolnej strukturze i zawartości, wierne odtworzenie głosu czy filmy na których występują osoby nieistniejące w rzeczywistości – to tylko przykłady zastosowań tzw. generatywnej sztucznej inteligencji. Uruchomienie projektu ChatGPT 4.0 budziło spore emocje od kilku tygodni aż w końcu ujrzał on światło dzienne, pozwalając na testowanie go w realnym środowisku. To rozwiązanie, jak i wiele mu podobnych, może w istotny sposób wpłynąć na jakość naszej pracy, być może i życia w niektórych aspektach, ale może być także źródłem wielu zagrożeń, na które dzisiaj nie jesteśmy jeszcze przygotowani. Także w kontekście etyki, prawa i regulacji, pisze dr Michał Nowakowski, prezes PONIP.

Dr Michał Nowakowski, prezes Zarządu PONIP.
Komentarze ekspertów

O sztucznej inteligencji, definicjach i przyszłości biznesu AI

Pojęcie „sztucznej inteligencji” może być niekiedy mylące, bowiem sugeruje, że rzeczywiście mamy tutaj do czynienia z jakąś formą „inteligencji” zbliżonej do tej, którą reprezentuje człowiek i najczęściej odnosi się do koncepcji tzw. General Artificial Intelligence (GAI), a niekiedy nawet Super Artificial Intelligence – tej przewyższającej człowieka, co do możliwości stworzenia której toczą się akademickie i „techniczne” dyskusje. W praktyce jednak punkt ciężkości w tej debacie powinien być przeniesiony raczej na problematykę definicji systemów sztucznej inteligencji (lub innej podobnej technologii, podejścia czy rozwiązania), jako rozwiązań, które faktycznie funkcjonują w praktyce i mają wpływ na człowieka i jego otoczenie – pisze dr Michał Nowakowski, prezes PONIP.

Dr Michał Nowakowski, prezes Zarządu PONIP.
Komentarze ekspertów

Sztuczna inteligencja: edukować, komunikować, wdrażać. W tej kolejności

Brak wiedzy to największe zagrożenie, także w przypadku zastosowania rozwiązań opartych o #sztucznainteligencja. Uwaga taka rozciąga się nie tylko na osoby bezpośrednio związane z tworzeniem takich rozwiązań, ale także tych, którzy powinni te procesy nadzorować lub co najmniej w nich współuczestniczyć. Systemy oparte przykładowo o uczenie maszynowe czy głębokie mogą generować zróżnicowane ryzyka, które mogą nie być do wyłapania na technicznym etapie, zarówno zbierania danych, jak ich procesowania. Ryzyka te mogą mieć zarówno charakter etyczny czy prawny, jak również operacyjny, a nawet techniczny, podkreśla dr Michał Nowakowski, prezes PONIP.

Dr Michał Nowakowski, prezes Zarządu PONIP.
Komentarze ekspertów

Etyczne aspekty wykorzystywania możliwości sztucznej inteligencji, ryzyka i odpowiedzialność

Może wydawać się to nudne, ale znaczenia obsługi danych na potrzeby systemów sztucznej inteligencji nie można przecenić. Faktem jest, że bez właściwego zarządzania danymi możemy narazić się na szereg nieprzyjemnych konsekwencji. Swojego czasu jedna z dużych firm technologicznych miała okazję przekonać się o tym, że brak nadzoru nad etykietowaniem danych, jak i niewłaściwe ułożenie procesów, może wpłynąć na reputację oraz skutkować „przepaleniem” całkiem sporych pieniędzy ‒ podkreśla dr Michał Nowakowski, prezes Zarządu PONIP.

Komentarze ekspertów

Kto jeszcze poza Unią Europejską chce bardziej restrykcyjnych przepisów dotyczących AI?

Szeroko rozumiana sztuczna inteligencja, a więc w praktyce głównie uczenie maszynowe i głębokie, ale także mniej zaawansowane metody statystyczne coraz częściej dotykają sfery naszej prywatności i wpływają na to, jak funkcjonujemy w Internecie i społeczeństwie. Czasem mamy tego świadomość, czasem nie, ale jest to niewątpliwie fakt, a sprawy takie jak Cambridge Analytica są tego dobitnym przykładem (zresztą nie jedynym), pisze Michał Nowakowski.

Michał Nowakowski, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym.
Komentarze ekspertów

Kultura data-driven w praktyce: budowanie organizacji opartej o (dobre) dane

Nie ma wątpliwości, że rozwiązania oparte o analitykę danych i automatyzację procesów z nimi związanych pozostaną z nami na dłużej, a za kilka lat staną jest czymś zupełnie naturalnym, jak dzisiaj np. smartfony. Coraz częściej wykorzystujemy uczenie maszynowe czy głębokie, a także przetwarzanie języka naturalnego, rozpoznawanie mowy i obrazów, a pole do wykorzystania nowych rozwiązań stale się poszerza. Niektóre źródła podają, że do 2027 r. rynek dla uczenia maszynowego urośnie do 117 mld dolarów, choć wydaje się, że to dane mocno niedoszacowane, pisze Michał Nowakowski.

Michał Nowakowski, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym.
Komentarze ekspertów

Jak wiele tracimy zyskując na rozwoju chmury obliczeniowej i sztucznej inteligencji?

Rozwój nowych technologii ‒ niekoniecznie przełomowych ‒ powoduje, że stykamy się z coraz nowymi zagrożeniami, o których nawet nie mamy pojęcia, lub których skalę bagatelizujemy. Rozwój takich obszarów jak uczenie maszynowe i głębokie przetwarzanie danych biometrycznych, w tym behawioralnych, czy też popularyzacja finansów zdecentralizowanych, opartych o technologię rozproszonego rejestru i łańcucha bloków, ma jednak dla nas ‒ poszczególnych jednostek i całego społeczeństwa ‒ olbrzymie znaczenie. Bowiem z jednej strony daje szansę na lepsze życie, a z drugiej, być może bardziej prawdopodobne ‒ może wpędzić nas w prawdziwe tarapaty. Czy zastanawialiście się chociażby jak wiele tracimy zyskując na rozwoju chmury obliczeniowej i tzw. sztucznej inteligencji? Czy zastanawialiście jakie są koszty takiego rozwoju? I przede wszystkim: kto za tym wszystkim stoi? ‒ komentarz Michała Nowakowskiego.

Artykuły

Posiedzenie plenarne Komisji Etyki Bankowej

Komisja Etyki Bankowej 2 grudnia 2021 roku zebrała się na kolejnym posiedzeniu plenarnym. Posiedzenia Komisji odbywają się cyklicznie i omawiane są na nich wybrane zagadnienia etyczne oraz analizowane dokumenty przygotowywane w zespołach roboczych Komisji. Dyskusje oraz prezentacje na posiedzeniach Komisji stanowią przyczynek do dalszych prac Komisji oraz, co niezwykle istotne, stanowią impuls do działań podejmowanych przez członków Komisji w bankach, w których pracują. W ten sposób Komisja wypływa na promocję postaw etycznych i kształtowanie kultury etycznej w bankach.

wirtualny napis AI, człowiek dotykający palcem wirtualny ekran
Komentarze ekspertów

Inżynieria oprogramowania a etyka; czy silna sztuczna inteligencja zawładnie ludzkością?

Niedawno pisałem o sztucznej inteligencji dążącej do „zapewnienia” zagłady ludzkości, ale oczywiście z pewnym przymrużeniem oka oraz mniej futurystycznym podejściem. Prawda jest taka, że dzisiaj powinniśmy się skupić na bardziej realistycznych scenariuszach niż perspektywa stworzenia tzw. General Artificial Intelligence, czyli sztucznej inteligencji symulującej zachowania człowieka lub wykraczającej poza jego możliwości intelektualne. To akurat w wielu aspektach już się dzieje, choć bardziej w zakresie „zasobności” wiedzy oraz „umiejętności” wykrywania różnych zależności pomiędzy danymi, pisze Michał Nowakowski.

STRONA 2 Z 4