Sztuczna inteligencja może być wynalazcą i właścicielem patentu?

Sztuczna inteligencja może być wynalazcą i właścicielem patentu?
Fot. stock.adobe.com / Syda Productions
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Tematyka (nie)osobowości prawnej to stały temat na moim blogu, ale także coraz częściej pojawiające się zagadnienie w debacie publicznej i akademickiej. W Unii Europejskiej i w Polsce nie ma na razie apetytu na rozciąganie takiej osobowości na sztuczne, nieautonomiczne i nieczułe rozwiązania technologicznie, które szumnie nazywamy sztuczną inteligencją, pisze Michał Nowakowski.

Nie chcę tutaj ponownie wchodzić w dyskusję nad (nie)zasadnością takiego podejścia, ale dosłownie parę dni temu Sąd Federalny w Australii orzekł w bardzo interesującej sprawie Thaler vs. Commissioner of Patents [2021] FCA 879, która na pierwszy rzut oka wydaje się rewolucyjna, bo w wyroku przyznano, że sztuczna inteligencja może być wynalazcą!

Entuzjazm jednak może nieco przygasnąć, gdy wczytamy się w niego bardziej. Niemniej jednak jest to niewątpliwie jeden z ciekawszych wyroków dotyczących #ai.

 O co więc chodzi?

W pewnym uproszczeniu można przyjąć, że przedmiotem sprawy było stwierdzenie czy sztuczna inteligencja może być wynalazcą i zarazem właścicielem patentu (to dość istotna dystynkcja), który jest wskazywany w formularzu na uzyskanie patentu, oczywiście pod prawem australijskim.

W jednym z takich wniosków dr Thaler wskazał DABUSa (jest on właścicielem praw autorskich do systemu), czyli de facto jakąś formę sztucznej inteligencji bazującą na sieciach neuronowych jako wynalazcę i to nie do końca spodobało się tamtejszemu urzędowi patentowemu, który uznał, że:

“An artificial intelligence system cannot be an inventor because [s]ection 15(1) is clear, but not capable of sensible operation in the situation where an inventor would be an artificial intelligence machine as it is not possible to identify a person who could be granted a patent”.

Innymi słowy, sztuczna inteligencja może coś „wynaleźć”, ale jednocześnie nie może opatentować swojego wynalazku, bo tutaj potrzebny jest człowiek. Co oczywiście sprowadza się do tego, że #ai nie ma osobowości i nie może być przedmiotem praw i obowiązków.

Czytaj także: Czy unijne rozporządzenie w sprawie sztucznej inteligencji zabije innowacje?

Wynalazca nie musi być człowiekiem

Sąd tutaj przychylił się twierdzenia, że #ai może generalnie być wynalazcą, co jest wynikiem tego, że samo słowo „wynalazca” jest neutralne i tylko wskazuje na wykonawcę czynności, nie precyzując czy musi to być człowiek, a poza tym rzeczywiście nie zawsze człowiek jest wynalazcą.

I tutaj należy się zgodzić ‒ abstrahuję od naszych unijnych i krajowych przepisów ‒ że podmiot, który „wynajduje” coś konkretnego i nowoczesnego wcale nie musi być człowiekiem, nawet jeżeli algorytm jest tworzony przez człowieka. Samouczące się systemy sztucznej inteligencji niekiedy dochodzą „samodzielnie” do określonych zależności i schematów, tworząc zupełnie zaskakujące rozwiązania.

Sztuczna inteligencja może coś „wynaleźć”, ale jednocześnie nie może opatentować swojego wynalazku, bo tutaj potrzebny jest człowiek

Warto też podkreślić, że wyrok zawiera bardzo ciekawe opracowanie dotyczące sieci neuronowych i samego DABUSa. Sąd wskazał między innymi, że w jakimś sensie ten algorytm rzeczywiście odwzorowuje to, jak funkcjonuje ludzki mózg, choć jednocześnie zaznaczył, że niekoniecznie oznacza to, że system ten „myśli” i „odczuwa” jak człowiek. Pewna autonomia jednak jest, co implikuje możliwość uznania, że taki system może coś wynaleźć. Ciekawe, prawda? Tym bardziej, że w dalszej części wyroku padają bardzo istotne pytania:

„Who sets the goal for the system? The human programmer or operator? Or does the system set and define its own goal? Let the latter be assumed. Further, even if the human programmer or operator sets the goal, does the system have free choice in choosing between various options and pathways in order to achieve the goal? Let that freedom also be assumed. Further, who provides or selects the input data? Let it be assumed that the system can trawl for and select its own data. Further, the larger the choice for the system in terms of the algorithms and iterations developed for the artificial neural networks and their interaction, the more autonomous the system”.

Sceptyków „uczłowieczania” AI od razu uspokajam. Sąd zwrócił także uwagę na istotną różnicę między wynalazcą a posiadaczem patentu (i jak się okaże wnioskodawcy). Sąd podkreślił, że tylko człowiek lub osoba prawna może być właścicielem, administratorem czy posiadaczem patentu, co nie przeczy uznaniu, że #ai może być wynalazcą. Konsekwencją będzie jednak, że #ai nie będzie mogło posiadać patentu i czerpać z tego korzyści.

Sąd podkreślił, że choć raczej nie możemy mówić o pełnej autonomiczności, to jednak coś takiego jak częściowa autonomiczność w odniesieniu do sztucznej inteligencji bez wątpienia istnieje i nie każdy taki system będzie tylko i wyłącznie „automatyzacją”.

Choć tutaj od razu uwaga. Sąd zastanowił się nad tym kto ‒ w przypadku uznania, że systemy AI nie mogą być wynalazcami ‒ powinien być tym wynalazcą być ‒ programista, właściciel, operator czy „uczący” algorytm? Podobne pytania powstają w przypadku dyskusji nad odpowiedzialnością za #ai. I odpowiedź wcale nie jest oczywista.

Czytaj także: Raport Financial Conduct Authority i Instytutu Turinga w sprawie sztucznej inteligencji w sektorze finansowym

Sąd o prawie własności AI

Sąd dalej debatuje nad kwestią właścicielstwa zarówno DABUSa, jak i pracy, którą wyprodukował. Wskazał przy tym, że właścicielem DABUSa był dr Thaler i z tego względu uznać można, że wynalazek był stworzony dla niego i to on jest właścicielem wynalazku, podobnie jak ma to miejsce w przypadku zwierząt i ich potomstwa czy pożytków z roślin.

Mamy więc niejako podejście zbliżone do przyjęcia, że #ai ma cechy zbliżone do zwierząt, przynajmniej w sensie prawa własności. To temat dość dyskusyjny, ale nie rozmawiamy przecież o naszym krajowym porządku prawnym.

Skoro nie mam dyskusji nad tym czy #ai jest osobą prawną, to nie ma też co rozważać czy taki system może być wnioskodawcą, czy też beneficjentem patentu

Dalej robi się jeszcze ciekawiej. Sąd uznał, że choć DABUS nie jest osobą prawną i nie może „posiadać” wynalazku, to nie znaczy, że nie można przyjąć, iż system ten jest uprawniony do tego wynalazku, choć oczywiście realia tej sprawy ‒ i właścicielstwo ‒ powoduje, że ostatecznie to właściciel DABUSa będzie miał wszelkie prawa do tego wynalazku.

Sąd wskazał nawet:

DABUS. Even though DABUS, as an artificial intelligence system, is not a legal person and cannot legally assign the invention, he says that it does not follow that it is not possible to derive title from DABUS”.

I w skrócie to tyle. Skoro nie mam dyskusji nad tym czy #ai jest osobą prawną, to nie ma też co rozważać czy taki system może być wnioskodawcą, czy też beneficjentem patentu.

Sprawa jest oczywista:

“One requires a legal person to make a patent application. So, a person will have to have ultimate control over any computer generated application. A computer cannot be an applicant. Further, only a legal person can be granted a patent. So, only a person will have title and control over a patented invention”.

Oczywiście nim nie będzie. Nie znaczy to, że nie będzie wynalazcą, a to już „duża rzecz”.

Ciekaw jestem, jak do podobnej sprawy podeszłyby nasze sądy. Macie jakieś przemyślenia?

Michał Nowakowski
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany. Źródło: NGL Advisory
Źródło: aleBank.pl