Z uwagi na trwającą pandemię Covid-19 należy liczyć się ze wzrostem znaczenia w gospodarce sztucznej inteligencji i autonomicznych pojazdów opartych na zaawansowanych algorytmach, co z kolei wiąże się z koniecznością znalezienia rozwiązań prawnych i etycznych, które zminimalizują możliwe negatywne aspekty ww. rozwoju.
Sztuczna inteligencja ma coraz szersze zastosowanie w różnych dziedzinach gospodarki oraz na szeroko rozumianym rynku konsumenckim, co z kolei stawia nowe wyzwania przed ustawodawcą.
Zarówno w Europie jak i w Polsce brakuje regulacji prawnych związanych z ww. rozwojem. Według wielu przedstawicieli doktryny, zmiany są pilnie potrzebne. Obecnie podejmuje się już pierwsze próby uregulowania tej kwestii na poziomie unijnym, jednak to dopiero początek wypracowywania nowych regulacji prawnych a przede wszystkim nowego katalogu norm etycznych związanych z użytkowaniem sztucznej inteligencji i autonomicznych pojazdów.
Ludzkość staje przed dylematami, które jeszcze do niedawna stanowiły kanwę wielu filmów czy powieści science fiction. Zatem stawianie sobie pytań typu: Czy robot może popełnić przestępstwo? Czy może być podmiotem praw autorskich? Czy odpowiada za wyrządzoną szkodę? - stało się wyjątkowo aktualne i konieczne w obecnych czasach. Jeżeli jednak odpowiedź na ostatnie pytanie będzie negatywna, pozostaje nadal otwarta do wyjaśnienia kwestia tego, na kim zatem będzie spoczywać odpowiedzialność naprawienia szkody za działanie robota, który doprowadził do szkody na osobie lub mieniu?
Obecnie na świecie problem odpowiedzialności cywilnej za szkody wyrządzone przez sztuczną inteligencję czy roboty autonomiczne stał się na tyle aktualny, że kraje wysokorozwinięte, w szczególności USA, Niemcy czy Japonia, podejmują próby gruntownego uregulowania tych kwestii. Przy okazji poddaje się rewizji dotychczasowa koncepcja odpowiedzialności cywilnej wywodząca się jeszcze z czasów rzymskich, która do tej pory uważana była za modelową. Niestety coraz częściej słyszy się opinie, że opieranie się wyłącznie na obecnych rozwiązaniach może w przyszłości oznaczać bardzo poważny chaos prawny, co ponownie doprowadzi do sytuacji, w której legislacja nie nadąży za rozwojem technologicznym.
Mając powyższe na uwadze należy zastanowić się czy polskie prawo cywilne jest przygotowane na nadchodzące zmiany. Powstaje też pytanie czy dotychczasowe koncepcje odpowiedzialności cywilnej znajdujące się w Kodeksie cywilnym da się, chociażby w drodze analogii, zastosować w coraz dynamiczniej zmieniającej się rzeczywistości.
Na tę kwestię należy również spojrzeć z punktu widzenia dalszego rozwoju gospodarki morskiej, a w szczególności w działalności przeładunkowej i całego łańcucha logistycznego. Zarządy, na co dzień czuwające nad prawidłową i jak najbardziej efektywną działalnością portów, stają obecnie również przed tymi wyzwaniami. Wynika to w pierwszej kolejności z chęci dążenia do poprawy bezpieczeństwa i higieny pracy w portach oraz zwiększenia szybkości dokonywanych załadunków i rozładunków towarów.
Nie bez znaczenia pozostają też kwestie logistyczne, związane z magazynowaniem i transportem tych towarów. Pełna automatyzacja procesu przeładunku przyczyni się niewątpliwie do wzrostu szybkości obsługi jednostek pływających. Ponadto niewykluczone, że w niedalekiej przyszłości standardem będzie to, że autonomiczne dźwigi i żurawie portowe będą kooperowały z ludźmi lub innymi pojazdami autonomicznymi, które przybędą do portu aby dostarczyć lub odebrać ładunek. W związku z tym pojawią się nowe problemy i ryzyka wynikające z zastosowania nowych technologii. Władze portów dostrzegając korzyści wynikające z procesu pełnej automatyzacji muszą równocześnie mieć świadomość prawną, gdyż w przypadku zaistnienia szkody, zarząd portu będzie np. mógł określić przeciwko komu wytoczyć powództwo lub kogo wskazać jako odpowiedzialnego z tytułu zaistniałego zdarzenia. Taka wiedza może pozwolić na skuteczne zwolnienie zarządu danego portu od powstałej odpowiedzialności za powstałą szkodę. Co więcej, powyższa kwestia będzie miała niebagatelne znaczenie w odniesieniu do ubezpieczeń portowych lub morskich.
I. Automatyzacja i sztuczna inteligencja jako aktualizująca się rzeczywistość
Niewątpliwie dla branży morskiej pojawiające się wyzwania będą wynikały z zastosowania nowych, wcześniej nie stosowanych pojazdów autonomicznych, które oprócz czynności dotyczących załadunków i rozładunków towarów będą mogły mniej lub bardziej skutecznie zarządzać logistyką związana z działalnością portów, począwszy od szeroko rozumianej gospodarki magazynowej po transport. Przyjmuje się że, obok zaawansowanych robotów, druku 3D i nowych materiałów, jest to kluczowy element trendu technologicznego dzisiejszych przemian cywilizacyjnych.
Drugi trend dotyczy przemian cyfrowych z Internetem, urządzeniami mobilnymi, dostępnością mocy obliczeniowych, gromadzeniem i przetwarzaniem danych.
Trzeci trend związany jest biologią, a zwłaszcza zrozumieniem kodu DNA człowieka i możliwościami jego modyfikacji.
Zarządy wielu portów zdają sobie sprawę, że autonomizacja procesów logistycznych może dać portowi przewagę konkurencyjną oraz wpływać na wzrost efektywności. Jest to szczególnie istotne z punktu widzenia stosunkowo niewielkich i trudno dostępnych, ze względu na cieśniny duńskie, polskich portów. Mierzyć się bowiem one muszą nie tylko w stosunkach wewnętrznych lecz także zewnętrznych (np. z portem w Hamburgu). „Na ten fakt niewątpliwie wpływa: globalizacja światowej gospodarki, procesy integracyjne w światowym handlu i transporcie, rozwoju lądowo-morskich łańcuchów transportowych, rozwój konteneryzacji i multimodalizmu, zastosowanie koncepcji logistycznej w transporcie, wzrastająca konkurencja na rynku usług transportowych, a także utrzymywanie się rynku konsumenta” (Hanna Klimek, Konkurencyjność polskich portów morskich na bałtyckim rynku usług portowych, Studia Gdańskie. Wizje i rzeczywistość, t. III, 112-138).Obecnie świat znajduje się w czwartej rewolucji przemysłowej, gdzie jej podstawą staje się sztuczna inteligencja czy szeroko rozumiana automatyzacja (w tym autonomizacja). Niewykorzystanie tego potencjału, który oferują dzisiaj firmy technologiczne, spowodować może utratę pozycji rynkowej polskich porów morskich i w konsekwencji ich marginalizację. Aby tego uniknąć, należy wykorzystać potencjał jaki oferuje nowa technologia.
Historia pokazuje, że przełomowe momenty w dziejach cywilizacji budziły zarówno ciekawość, jak i lęk. Próby zminimalizowania, czy uniknięcia ryzyka niejednokrotnie prowadziły do absurdalnych sytuacji i pozostawiały nadmiernie ostrożnych daleko w tyle. Jednym z najbardziej jaskrawych przykładów takiego podejścia do nowinek technicznych była uchwalona w 1865 r. poprawka do brytyjskiego Locomotive Act z 1861 roku (ang. Red Flag Act). Zakładała ona, że pojazd mechaniczny musiał być prowadzony przez trzy osoby, przy czym jedna z nich była zobowiązana biec z czerwoną flagą lub – w nocy – latarnią w ręku ok. 55 metrów przed automobilem i w ten sposób ostrzegać innych użytkowników dróg. Dopuszczalna prędkość w miastach wynosiła 2 mile na godzinę (ok. 3 km/h), a poza miastem do 4 mil na godzinę (ok. 6 km/h), zapewne z uwagi na kondycję i zdrowie biegnącego przed pojazdem człowieka. Co prawda najbardziej restrykcyjne przepisy ustawy zostały uchylone 31 lat później, ale rozwój motoryzacji w Wielkiej Brytanii został skutecznie zahamowany na lata. Kiedy francuscy i niemieccy inżynierowie opracowywali nowe modele pojazdów spalinowych, w Wielkiej Brytanii ludzie nadal poruszali się powozami. Zatem, wprowadzając nadmiernie restrykcyjne regulacje dla nowej technologii i przemysłu, Wielka Brytania pozbawiła się udziału w narodzinach motoryzacji. Nowe regulacje były z pewnością z perspektywy ówczesnego ustawodawcy niezbędne, ale te, które wprowadzono nie szły z postępem technologicznym. Utrwalały przeszłość, zamiast kształtować przestrzeń prawną dla przyszłości. We współczesnym świecie, jeszcze bardziej niż w tym z XIX wieku, należy przygotować grunt prawny aby dostosowywać się do bieżących wyzwań wynikających z coraz bardziej dynamicznie rozwijających się nowych technologii.
Wizja oddania robotom pełnej lub nawet częściowej kontroli nad transportem i logistyką wydaje się być odległa. Należy jednak mieć świadomość tego, że technologia sztucznej inteligencji jest kierunkiem nieuniknionym i rozwija się bardzo dynamicznie i z pewnością prędzej czy później stanie się powszechna. Przyczynkiem do tego może być trwająca pandemia Covid-19, która zmusiła cały współczesny Świat do zrewidowania wielu założeń dotyczących prowadzenia biznesu i pracy.
Nie oznacza to jednak, że należy bagatelizować ryzyka wynikające z rozwoju sztucznej inteligencji. Te problemy wymagają gruntownej analizy i zastosowania zapewne daleko idących środków ostrożności. Zanim jednak w pełni zautomatyzowane urządzenia zaczną pracować w portach, przejmując w pełni kontrole nad łańcuchem logistycznym, czy poruszać się po naszych drogach, należy rozstrzygnąć chociażby kwestie odpowiedzialności za szkody powstałe w wyniku ewentualnych wypadków i kolizji.
Należy zauważyć, iż według obecnych regulacji, odpowiedzialność tę ponosi człowiek, czyli jeden z uczestników ruchu drogowego. Co jednak, jeśli pojazd autonomiczny porusza się bez udziału człowieka? Czy winę ponosi autonomiczny system? Czy może człowiek, który ten system zbudował i zaprogramował? Jak zatem kształtować prawo, by nadążać za wyzwaniami współczesnego świata i dynamicznego rozwoju technologicznego? To problem, z którym boryka się coraz więcej państw na Świecie. Jednak dla Polski brak pewnych regulacji bądź skostniałe podejście do istniejących przepisów może zahamować wzrost gospodarczy i technologiczny na lata, albo wręcz doprowadzić Polskę do swego rodzaju „wykluczenia technologicznego” przejawiającego się z w tym, że statki nie będą zawijały do portów, które nie są w stanie obsłużyć statkowych autonomicznych urządzeń lub całego autonomicznego statku.
Poniższe rozważania, aczkolwiek oparte na szeroko rozumianych robotach – maszynach autonomicznych mają analogiczne przełożenie do innych pojazdów i urządzeń, w tym portowych. Zatem dla pełnego zrozumienia i transparentności poniższych rozważań uznać należy, iż znaczenie określeń „robot”, „maszyna autonomiczna”, „pojazd autonomiczny” są tożsame.
Ryzyka dotyczące pojazdów autonomicznych
Dotychczasowe doświadczenia z przeprowadzonych testów pojazdów autonomicznych w normalnym ruchu drogowym pokazują, że przyczyną niemal każdej kolizji jest błąd ludzki, bowiem pojazdy te poruszają się wyłącznie w granicach oprogramowania wymyślonego przez człowieka.
Prognozuje się jednak, iż w niedalekiej przyszłości, systemy oparte na sztucznej inteligencji, rozumiane jako maszyny samouczące się i mające zdolność analizowania informacji z prędkością znacznie większą niż ludzki mózg, będą potrafiły zareagować na nieprzewidziane sytuacje i komunikować się między sobą.
Jednak obecnie pojazdy autonomiczne nie są w 100 % bezpieczne. Z ich udziałem doszło już do wielu wypadków, zatem należy mieć świadomość, że uregulowanie kwestii odpowiedzialności cywilnej za powstałe szkody czy krzywdę będzie wyzwaniem dla polskiego ustawodawcy. Jako przykład wypadku z udziałem pojazdu autonomicznego wskazać można zdarzenie mające miejsce w Stanach Zjednoczonych, w stanie Arizona, gdzie w marcu 2018 r. doszło do śmiertelnego wypadku z udziałem samochodu Uber, który działał w trybie autonomicznym. Wypadek odbił się głośnym echem na świecie, do tego stopnia, że Uber podjął decyzję o zakończeniu testów autonomicznych samochodów w Arizonie. Według raportu Narodowej Rady Bezpieczeństwa Transportu (NTSB) autonomiczny samochód Ubera nie rozpoznał kobiety przechodzącej w miejscu niedozwolonym i prowadzącej rower. System wziął ją za inny pojazd. Choć czujniki samochodu wykryły obecność przeszkody 5,6 sek. przed wypadkiem, najpierw zakwalifikowały ją jako inny pojazd. Potem zmieniły klasyfikację kilkakrotnie, ale na prawidłową natrafiły dopiero na 1,2 sek. przed zderzeniem. Kierowca, który siedział za jego sterami, (oglądał akurat ukradkiem reality show) nie zdążył zareagować na czas. Warto nadmienić, że do chwili obecnej nie ustalono kto ponosi odpowiedzialność za wypadek.
Takich przypadków można opisać więcej i dotyczą one różnych producentów pojazdów, np. Tesli Model S, która 29 grudnia 2019 roku w kalifornijskim mieście Gardena przejechała na czerwonym świetle i uderzyła w prawidłowo jadącą Hondę Civic. W Hondzie podróżowali pasażerowie, którzy zginęli na miejscu. Jak wykazało dochodzenie, Tesla Model S była prowadzona w trybie z aktywnym system autopilota.
Pomimo początkowych problemów związanych zapewne z tzw. „chorobą wieku dziecięcego”, głównym argumentem na rzecz rozwoju szeroko rozumianych pojazdów autonomicznych, oprócz wzrostu efektywności, jest możliwość wyeliminowania błędów ludzkich, co może poprawić bezpieczeństwo w portach lub na drogach i tym samym zmniejszyć ilość wypadków.
Niemniej są one dopiero w fazie testowania. Przyjmuje się, że wypadek może być spowodowany skutkiem wadliwej konstrukcji lub oprogramowania pojazdu autonomicznego lub też błędnej reakcji na dane zdarzenie drogowe, którego nie przewidział ani producent pojazdu, ani oprogramowania. Pojazd autonomiczny „podejmuje decyzje”, zbierając dane z otoczenia, na podstawie zaprogramowanych algorytmów. Niemożność dopasowania otrzymanych danych do posiadanych funkcji może skutkować nieprawidłową reakcją pojazdu i w konsekwencji wypadkiem.
Etyka Robotów
Mając powyższe na uwadze producenci winni się zastanowić nad wprowadzeniem rozwiązań, które będą skutkowały ograniczeniem wszelkich ryzyk, zaś ustawodawcy nad stworzeniem takiej legislacji, która pozwoli tym producentom stworzyć oprogramowanie oparte o jasne i skuteczne normy prawne oraz etyczne.
Jednak nowostworzone prawo winno być oparte na bazie wzorców etycznych, które należy wypracować. Obecnie pojawiające się problemy etyczne dotyczą przede wszystkim „podejmowania decyzji” przez pojazdy autonomiczne w sytuacji niebezpiecznej. Zatem powstaje pytanie, jeśli sytuacja będzie tego wymagała, czy autonomiczny pojazd powinien „podjąć decyzję” o kolizji z innym pojazdem, czy aby jej uniknąć może ryzykować potrącenie np. pieszych idących chodnikiem? Jest to jeden z wielu kontrowersyjnych przykładów, które mogą mieć miejsce w całkiem niedalekiej przyszłości. Co więcej takie zdarzenia będą rodziły bardzo dużo potencjalnych roszczeń prawnych osób poszkodowanych wadliwym działaniem robota.
W ocenie doktryny, czym prędzej powinniśmy rozpocząć proces uwzględniania zasad etycznych dotyczących sztucznej inteligencji w naszych regulacjach krajowych. Zasady te są już wprowadzane przez organy międzynarodowe, na czele z Radą Europy.
Cztery Prawa Robotów – punkt wyjścia
Mówiąc o zasadach prawnych i etycznych dotyczących szeroko rozumianej sztucznej inteligencji czy robotyki należy wskazać, iż amerykański pisarz i profesor biochemii Asimov w swojej książce „Ja robot”, będącej zbiorem 9 opowiadań, w tym słynnej „Zabawy w berka” z 1942 r., stworzył zasady funkcjonowania inteligentnych urządzeń w świecie rządzonym przez człowieka, na długo zanim przestały one być jedynie wytworem fantastyczno-naukowej wyobraźni. Prawa robotyki opisywane w jego twórczości to zbiór zasad etycznych, w które powinien być wyposażony każdy robot. Jego twórczość stała się wytyczną do stworzenia zasad jakim ma się kierować ustawodawstwo europejskie w stosunku do sztucznej inteligencji czy pojazdów autonomicznych (o czym będzie mowa później). Isaac Asimov stworzył pierwotnie trzy prawa, a później dodał czwarte, tak że wszystkie one przybrały finalnie następującą treść:
1. Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy,
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem,
3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem,
4. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
Definicja pojazdu autonomicznego
Przyjmuje się, że istnieje kilka poziomów autonomiczności pojazdów, od pełnej kontroli kierowcy, poprzez częściową automatyzację, po pełną autonomiczność, w której zadaniem kierowcy jest jedynie wprowadzenie adresu miejsca docelowego.
W Unii Europejskiej klasyfikacja poziomów automatyzacji działa w oparciu o zasady SAE (International Society of Automotive Engineers) z 2014 roku, wyróżniające sześć poziomów podzielonych na dwie kategorie:
• 0-2, w których kierowca jest odpowiedzialny za monitorowanie otoczenia oraz musi być gotów na przejęcie kontroli,
• 3-5, w których kierowca nie musi już obserwować otoczenia, a pojazd przejmuje kontrolę nad wszystkimi aspektami jazdy.
W tym miejscu należy wskazać, iż zgodnie z art 8 Konwencji o ruchu drogowym, sporządzonej w Wiedniu dnia 8 listopada 1968 r. (Dz. U. z 1988 r. Nr 5, poz. 40 z późn. zm.): „każdy pojazd w ruchu lub zespół pojazdów w ruchu powinien mieć kierującego” i „każdy kierujący powinien stale panować nad swoim pojazdem”. W związku z tak ustaloną definicją pojazdu należy wyjaśnić jak kształtuje się definicja pojazdu autonomicznego w oparciu o przepisy Ustawy z dnia 20 czerwca 1997 r. - Prawo o ruchu drogowym (t.j. Dz. U. z 2020 r. poz. 110 z późn. zm.).
Począwszy od dnia 22 lutego 2018 r. w polskiej ustawie z dnia 20 czerwca 1997 r. Prawo o ruchu drogowym funkcjonują przepisy dotyczące testowania samochodów autonomicznych. W oddziale 6 dotyczącym wykorzystania dróg na potrzeby prac badawczych nad pojazdami autonomicznymi, art. 65k stanowi, że: „ilekroć w niniejszym rozdziale jest mowa o pojeździe autonomicznym, należy przez to rozumieć pojazd samochodowy, wyposażony w systemy sprawujące kontrolę nad ruchem tego pojazdu i umożliwiające jego ruch bez ingerencji kierującego, który w każdej chwili może przejąć kontrolę nad tym pojazdem”. Należy jedynie zaznaczyć, iż polski ustawodawca przyjął podobną koncepcję jak w Niemczech. Według tej definicji konstrukcja pojazdu autonomicznego musi przewidywać, że w każdej chwili kierujący będzie mógł go kontrolować (to oddala na razie wizję autonomicznych pojazdów, z których mógłby skorzystać każdy). Zatem wymusza, żeby był on wyposażony w układ sterujący pozwalający na kontrolowanie go przez człowieka.
„Kierującym” zaś wg ustawy Prawo o ruchu drogowym jest osoba, która kieruje pojazdem lub zespołem pojazdów, a także osoba, która prowadzi kolumnę pieszych, jedzie wierzchem albo pędzi zwierzęta pojedynczo lub w stadzie.
Niestety ustawa Prawo o ruchu drogowym przewiduje na razie jedynie testowanie autonomicznych pojazdów a nie ich używanie. Aby testować autonomiczne samochody na drogach publicznych, trzeba mieć odpowiednie zezwolenie. Przepisy przewidują szereg wymagań, jakie musi spełnić tzw. organizator prac badawczych, czyli w praktyce firma (lub osoba), która chciałaby prowadzić testy swoich produktów w naszym kraju. Między innymi we wniosku o takie zezwolenie trzeba podać trasę, jaką pojazd będzie się poruszał, musi więc ona być już wcześniej zaplanowana. Potrzebne są też dane osób, które będą odpowiedzialne za zabezpieczenie tej trasy. Jednocześnie brak jest jednak wymogów zabezpieczenia trasy, nie ma też wymagań co do kwalifikacji osób, które mają ją zabezpieczyć. Przepisy nie przewidują też, jakiego rodzaju zabezpieczenia są akceptowalne. Organizator prac badawczych musi mieć odpowiednią polisę OC za szkody powstałe w związku z prowadzeniem prac badawczych związanych z prowadzeniem pojazdów autonomicznych.
Problem w tym, że nie wiadomo, jak należy tę “obowiązkowość” rozumieć. Poza tym wszelkie testy mogą odbyć się wyłącznie po konsultacji z mieszkańcami gminy (nie ma tutaj znaczenia, jak daleko mieszkają od planowanej trasy pojazdu). W razie sprzeciwu Organ będzie musiał odmówić wydania zezwolenia na testy. Zatem szerokie zastosowanie pojazdów autonomicznych na polskich drogach to na razie fikcja.
Zarówno pojazdy autonomiczne, jak i sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieszczą się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Badania nad autonomicznymi pojazdami trwają, jednak równocześnie muszą się pojawić odpowiednie regulacje prawne zarówno na gruncie prawa unijnego jak i krajowego. Należy w pierwszej kolejności ustalić zakres odpowiedzialności za szkody cywilne i wreszcie wprowadzić zmiany w przepisach drogowych państw, ale nie tylko. Należy ustalić kodeks etyki, aby uregulować jak zachować ma się pojazd autonomiczny w przypadku pojawiającego się nagle niebezpieczeństwa. Należy wyjaśnić jak oprogramowanie maszyny miałoby przy tym traktować mienie innych osób, czy też samych ludzi niezależnie od płci, wieku czy innych czynników ich charakteryzujących. Trzeba ustalić zasady odpowiedzialności w przypadku pojazdów automatycznych lub półautomatycznych. Jednak jak podkreśla prof. Marta Litwińska-Werner problem jest znacznie szerszy. Brakuje przede wszystkim legalnej definicji robota w polskim systemie prawa, co z perspektywy pojawienia się pojazdów autonomicznych wydaje się mieć podstawowe znaczenie.
II. Odpowiedzialność robota?
Rozwój sztucznej inteligencji, w tym pojazdów autonomicznych, wymaga zmian albo w samej treści przepisów prawa, albo w ich interpretacji. W tym miejscu należy zweryfikować czy obecny stan regulacji odpowiedzialności odszkodowawczej z tytułu ruchu pojazdów mechanicznych jest adekwatny dla pojazdów autonomicznych oraz jak mogłaby się kształtować odpowiedzialność cywilna za wypadki z udziałem takich pojazdów. Pojazdy te, pomimo wysokiego stopnia zautomatyzowania, który redukuje ryzyko błędu ludzkiego, nie są i nie będą jednak bezwypadkowe.
W pierwszej kolejności należy określić zakres podmiotowy odpowiedzialności i ustalić, czy odpowiedzialność tę powinien ponosić producent pojazdu autonomicznego lub twórca jego oprogramowania, czy też jego posiadacz. Następnie istotne będzie również sprecyzowanie zasad odpowiedzialności w zależności od tego, czy mieliśmy do czynienia ze zderzeniem środków komunikacji, czy też z innym rodzajem wypadku.Aby udzielić odpowiedzi na tak postawione pytania, należy przede wszystkim pokrótce przedstawić aktualne polskie uregulowanie odpowiedzialności odszkodowawczej (deliktowej) z tytułu wypadków komunikacyjnych oraz odpowiedzialności za produkt niebezpieczny. Jednocześnie należy podkreślić, iż na stopień skomplikowania problemu odpowiedzialności za działania autonomicznych pojazdów wpływa m.in. różnorodność występujących w praktyce robotów oraz zakres ich możliwych zastosowań. Dlatego też bardzo trudno jest przy tak dużym zróżnicowaniu ustalić jeden uniwersalny model odpowiedzialności. Jednak na potrzeby niniejszej analizy skupiono się na pojazdach autonomicznych rozumianych również jako m.in. wózki widłowe, suwnice, dźwigi, ciężarówki etc., które zapewne będą dalej stanowić jedne z podstawowych urządzeń w całym łańcuchu logistycznym gospodarki morskiej.
Odpowiedzialność deliktowa za działanie robota
a/ Zasada ryzyka
Polski kodeks cywilny uzależnia reżim odpowiedzialności za wypadki komunikacyjne od tego, kto był uczestnikiem wypadku. Jeżeli wypadek nie był zderzeniem dwóch pojazdów mechanicznych poruszanych za pomocą sił przyrody, odpowiada samoistny lub zależny posiadacz pojazdu mechanicznego. Odpowiedzialność ta oparta jest na zasadzie ryzyka. Zatem posiadacz pojazdu mechanicznego poruszanego za pomocą sił przyrody ponosi pełną odpowiedzialność za powstałą szkodę, chyba że wykaże, że nastąpiła ona wskutek siły wyższej albo wyłącznie z winy poszkodowanego lub osoby trzeciej, za którą nie ponosi odpowiedzialności (art. 436 § 1 k.c.).
Odpowiedzialność związana z ruchem pojazdu mechanicznego poruszanego za pomocą sił przyrody obejmuje więc zarówno zawinione, jak i niezawinione zachowanie tego, kto wprowadza pojazd w ruch, który w istocie stwarza zwiększone ryzyko wyrządzenia szkód na osobie, w związku z czym odpowiedzialność ta powinna ona zapewniać możliwie najpełniejszą ochronę osób poszkodowanych.
Mechanicznym środkiem komunikacji poruszanym za pomocą sił przyrody jest każdy pojazd, który łącznie spełnia dwie cechy, a mianowicie:
• służy do komunikacji oraz
• ma wbudowany silnik
Nie spełniają tych przesłanek np. kombajn rolniczy, dźwig budowlany lub czołg (nie służą celom komunikacyjnym), a także rower lub wóz poruszany przez zwierzę pociągowe (nie mają wbudowanego silnika; urządzenie napędzane siłami człowieka lub zwierzęcia nie może być uznawane za poruszane siłami przyrody w rozumieniu art. 436 k.c.) ( Karaszewski Grzegorz. Art. 436. W: Kodeks cywilny. Komentarz. Wolters Kluwer Polska, 2019).
Powołanie się w tym przypadku na przesłankę wyłączająca odpowiedzialność, jaką jest wina poszkodowanego, jest oceniane w kategoriach adekwatnego związku przyczynowego, a więc wyłączna wina w spowodowaniu szkody występuje jedynie wtedy, gdy zawinione zachowanie poszkodowanego było jedyną jej przyczyną. Dlatego nie wystarczy jakikolwiek stopień zawinienia samego poszkodowanego, ale wymagane jest jego „wyłączne zawinienie”, aby posiadacz pojazdu mógł uwolnić się od odpowiedzialności. Przyczynienie się poszkodowanego może mieć wpływ jedynie na wysokość odszkodowania i skutkować jego miarkowaniem.
Zastosowanie tej zasady w drodze analogii do pojazdów autonomicznych czy robotów spotyka się jednak z uzasadnioną krytyką. Posiadacz np. robota, z uwagi na daleko posuniętą jego autonomię, może mieć znikomy wpływ na sposób jego funkcjonowania. Zakłada się co prawda, że w większości wypadków to posiadacz robota będzie decydował o celach jego użycia (np. cel jazdy autonomicznego pojazdu), jednak wykonanie powierzonych mu zadań będzie już w znacznie większym stopniu uzależnione od maszyny. Okoliczności te przemawiają przeciwko narzucaniu na posiadaczy robotów odpowiedzialności opartej na zasadzie ryzyka i stosowaniu analogii do rozwiązań, które znamy w odniesieniu do pojazdów mechanicznych poruszanych za pomocą sił przyrody.
Jednak z drugiej strony za przyjęciem odpowiedzialności za działania autonomicznych robotów na zasadzie ryzyka przemawiają przede wszystkim ewentualne trudności dowodowe.
Ustalenie kręgu podmiotów, które ponoszą odpowiedzialność za działanie robota, może okazać się bardzo skomplikowane lub nawet niemożliwe do ustalenia. Przeprowadzanie odpowiednich dowodów może się okazać zadaniem tak trudnym i kosztownym, że w praktyce może zamknąć osobom poszkodowanym możliwość dochodzenia roszczeń.
b/ Zasada winy
Nieco inne zasady odpowiedzialności występują w razie zderzenia dwóch pojazdów mechanicznych. W takim przypadku odpowiedzialność cywilna jest kształtowana na zasadach ogólnych, to jest na zasadzie winy (art. 436 § 2 k.c. w zw. z art. 415 k.c.). Pojęcie winy w polskim prawie zawiera dwa elementy składowe: obiektywny i subiektywny:
• element obiektywny oznacza niezgodność zachowania się z obowiązującymi normami postępowania, a więc szeroko rozumianą bezprawność,
• element subiektywny dotyczy stosunku woli i świadomości działającego do swojego czynu. Winę można przypisać podmiotowi prawa tylko wtedy, kiedy istnieją podstawy do negatywnej oceny jego zachowania z punktu widzenia obu tych elementów.
Za zderzenie się pojazdów należy rozumieć każde – bez względu na przyczynę – zetknięcie się tych pojazdów będących w ruchu. Przyjmuje się, że pojazd jest w ruchu zawsze, kiedy ma włączony silnik, nawet jeżeli stoi w miejscu i choćby znajdował się przy uruchomieniu w warsztacie. W ruchu jest także pojazd, który jest załadowywany/rozładowywany. Tym samym szkoda może być także wyrządzona w czasie dobrowolnego czy też planowanego postoju, co obejmuje również szkody spowodowane otwieraniem drzwi pojazdu. W taki sam sposób posiadacz pojazdu jest odpowiedzialny za szkody wyrządzone tym, których przewozi z grzeczności (art. 436 § 2 in fine). Kierujący pojazdem odpowiada na zasadzie winy również wówczas, kiedy wyrządzi szkodę współposiadaczowi pojazdu (np. małżonkowi, wspólnikowi spółki cywilnej). Stąd przyjmuje się, że osoby te przyczynią się do powstania szkody, jeżeli wsiądą do pojazdu z kierowcą będącym pod wpływem alkoholu.
Podsumowując tę część rozważań, należy wskazać, że w polskim prawie cywilnym posiadacze pojazdu mechanicznego odpowiadają za szkody w oparciu o dwie zasady (ryzyka lub winy). W razie zderzenia pojazdów mechanicznych lub wobec współposiadacza pojazdu i osób przewożonych z grzeczności jest to zasada winy. W pozostałych przypadkach odpowiedzialność jest oparta na zasadzie ryzyka.
Niezależnie od powyższego należy zastanowić się, czy ponoszenie przez posiadaczy autonomicznych samochodów odpowiedzialności za wyrządzone przez nie szkody, w drodze analogii, tak jak posiadacze pojazdów mechanicznych jest rozwiązaniem słusznym. Stopień kontroli posiadaczy tych pojazdów nad ich działaniami jest bowiem bez porównania mniejszy niż w przypadku tradycyjnych pojazdów. Przykładowo posiadacz takiego pojazdu z reguły nie będzie odpowiedzialny za powstanie oprogramowania (algorytmu) robota, który może w wielu przypadkach być jedynym źródłem dysfunkcjonalnego „zachowania” maszyny.
Radca prawny - Mateusz Romowicz
facebook.com/Legal.Marine.Mateusz.Romowicz
Autor jest radcą prawnym w Kancelarii Radcy Prawnego Legal Consulting - Mateusz Romowicz.
science-fiction, a dziś przechodzi do kategorii "zwykłych" kryminałów. Aż by się chciało coś takiego przeczytać:
Robot jako:
1. przestępca
2. ofiara
3. świadek
4. narrator opowiadania.
Zakladając, że robot nie ma jeszcze wbudowanego mechanizmu cygaństwa i krętactwa, że posiada pamięć absolutną, pozbawiony jest zdolności do konfabulacji, to dochodzenie z jego udziałem naprawdę mogłoby być fascynujące!
Zderzy się z zeznaniami ludzi, którzy będą zeznawać normalnie, jak ludzie. Komu śledczy uwierzy? A może.... może robot wystąpi w piątej kategorii, jako....
5. śledczy!
Kto napisze taki kryminał?
PortalMorski.pl nie ponosi odpowiedzialności za treść opinii.