Kultura Prawna, 2025
DOI: https://doi.org/10.37873/legal.2719-8286.141

Samochody autonomiczne a odpowiedzialność cywilna. Przyczynek do dyskusji

Tomasz Tyndel

Abstrakt / Abstract

Rozwój nowoczesnych technologii w XXI wieku, szczególnie postępy w dziedzinie sztucznej inteligencji oraz robotyki wyposażonej w zdolność do podejmowania decyzji porównywalnej do woli człowieka, rodzi istotną dyskusję na temat odpowiedzialności za działania systemów autonomicznych. Pojawia się pytanie, w jakim zakresie ich właściciel powinien ponosić odpowiedzialność cywilną za zachowanie robota. Artykuł podejmuje próbę analizy, czy obowiązujące w Polsce przepisy prawne są adekwatne wobec tych wyzwań i czy zapewniają wystarczające ramy regulacyjne dla funkcjonowania zaawansowanych systemów autonomicznych.



The development of modern technologies in the 21st century, and in particular the progress in the field of artificial intelligence and robotics equipped with the ability to make decisions comparable to the will of a human, raises an important discussion on the responsibility for the actions of autonomous systems. The question arises to what extent their owner should bear civil liability for their behavior. The article attempts to analyze whether the legal regulations in force in Poland are adequate to these challenges and whether they provide a sufficient regulatory framework for the functioning of advanced autonomous systems.

Słowa kluczowe: sztuczna inteligencja, odpowiedzialność cywilna, pojazdy autonomiczne, systemy humanoidalne

Keywords: artificial intelligence, civil liability, autonomous vehicles, humanoid systems


1. Wprowadzenie

Wprowadzenie sztucznej inteligencji do świata technologii jest niewątpliwie bardzo przydatne, jednocześnie rodzi się dyskusja dotycząca odpowiedzialności za szkody wyrządzone przez AI (Artificial Intelligence), szczególnie w kontekście samochodów wyposażonych w system sztucznej inteligencji. Robotyka ta oparta jest na algorytmach porównywalnych z procesem myślowym człowieka, umożliwiających podejmowanie autonomicznych działań. Ta niezależność oraz zdolność decyzyjna współczesnej robotyki budzi wątpliwości prawne, które niniejszy artykuł spróbuje rozwiać. Dodatkowo pojawiają się pytania dotyczące przypisania odpowiedzialności – czy spoczywa ona na użytkowniku samochodu, producencie czy programiście. W świecie motoryzacyjnym powstają coraz nowsze modele pojazdów w pełni zautomatyzowanych, które samodzielnie podejmują decyzje o zmianie pasa ruchu, omijaniu przeszkód itp.

W polskim kodeksie cywilnym istnieje kilka kategorii odpowiedzialności za szkodę, które mogą mieć zastosowanie w kontekście AI. Dla przykładu istnieje odpowiedzialność deliktowa, odpowiedzialność na zasadzie ryzyka czy odpowiedzialność za wprowadzenie produktu[1].

Celem niniejszego artykułu jest analiza, czy polskie prawo – w szczególności przepisy Kodeksu cywilnego – pozwala na skuteczne ustalenie odpowiedzialności w przypadku wypadku komunikacyjnego z udziałem pojazdu autonomicznego. Autor podejmie próbę oceny, czy obecne regulacje są wystarczające, a także przedstawi wybrane propozycje zmian de lege ferenda, które mogłyby zwiększyć adekwatność i skuteczność obowiązującego systemu prawnego w obliczu dynamicznego rozwoju technologii.

W ramach przyjętej metodologii badań przeprowadzona zostanie analiza kluczowych artykułów naukowych dotyczących odpowiedzialności cywilnej, przepisów ustawowych oraz wybranych orzeczeń sądowych, co umożliwi wieloaspektowe ujęcie problematyki badawczej.

Na potrzeby niniejszego artykułu sformułowano kilka hipotez:

Hipoteza 1: Aktualne przepisy Kodeksu cywilnego nie zapewniają wystarczających ram prawnych umożliwiających jednoznaczne ustalenie odpowiedzialności za szkody wyrządzone przez systemy autonomiczne.

Hipoteza 2: Zastosowanie odpowiedzialności na zasadzie ryzyka (art. 435 k.c.) stanowi skuteczne rozwiązanie w przypadku szkód spowodowanych przez systemy autonomiczne wykorzystywane przez przedsiębiorstwa w ramach określonych czynności zawodowych lub operacyjnych.

Hipoteza 3: Tradycyjna zasada winy jako podstawowa przesłanka odpowiedzialności cywilnej okazuje się niewystarczająca w sytuacjach, gdy system autonomiczny działa niezależnie od woli człowieka.

Powyższe hipotezy badawcze zostaną zweryfikowane w dalszej części artykułu.

2. Charakterystyka systemów autonomicznych

Rozwój technologii w XXI wieku umożliwił znaczny postęp w dziedzinie sztucznej inteligencji – robotów humanoidalnych, oraz jej praktyczne zastosowanie w różnych obszarach życia. Terminu systemów humanoidalnych po raz pierwszy użyto w drugiej połowie XX wieku[2]. Choć obecnie nie można jeszcze mówić o pełnym wykorzystaniu potencjału rozwiązań owych systemów, kierunek rozwoju jest jasny – naukowcy intensywnie pracują nad tworzeniem robotów humanoidalnych, czyli maszyn wyposażonych w cechy umożliwiające samodzielne podejmowanie decyzji w sposób zbliżony do ludzkiej woli. Mowa o zaawansowanej robotyce czwartej generacji, która potrafi podejmować samodzielnie decyzje o swoim działaniu, swobodnie przemieszczając się w środowisku, oraz dokonywać w nim racjonalnych zmian. Charakteryzuje się wtórną adaptacyjnością, czyli dostosowywaniem otoczenia do własnych potrzeb. Z tym zjawiskiem wiąże się pojęcie uncanny valley, czyli 'doliny niesamowitości'[3].

Pojęcie, które powstało w latach 70. XX wieku, zakłada, że maszyna powinna być maksymalnie podobna do człowieka – zarówno pod względem wyglądu, jak i zachowania. Humanoidy to jednostki zaprogramowane w taki sposób, by odwzorowywać ludzkie reakcje, mimikę, mowę ciała oraz sposób podejmowania decyzji. Celem konstruktorów jest stworzenie maszyn, które – dzięki odpowiednio zaprogramowanym sekwencjom i mechanizmom analizy danych – będą działać w sposób zbliżony do człowieka[4]. Tym samym pojawia się koncepcja przypisywania im swoistej wolnej woli rozumianej jako zdolność do samodzielnego wyboru jednej z kilku możliwych opcji działania[5].

Systemy humanoidalne znajdują zastosowanie w wielu dziedzinach życia codziennego. Dzięki swojej konstrukcji i zaawansowanym algorytmom mogą częściowo lub całkowicie zastępować człowieka w wykonywaniu określonych zadań. Ich potencjał wykorzystuje się m.in. w przemyśle produkcyjnym, gdzie wykonują powtarzalne i precyzyjne czynności, a także w medycynie – występują jako asystenci chirurgów, opiekunowie osób starszych lub elementy systemów diagnostycznych. Coraz częściej rozważa się także ich udział w innych obszarach życia społecznego, takich jak edukacja, obsługa klienta czy nawet bezpieczeństwo publiczne.

Warto wskazać, że w kontekście samochodów autonomicznych ustawa z dnia 20 czerwca 1997 r. – Prawo o ruchu drogowym[6] definiuje tę kwestię w art. 65, w którym wskazano, że „[i]lekroć [...] jest mowa o pojeździe autonomicznym, należy przez to rozumieć pojazd samochodowy, wyposażony w systemy sprawujące kontrolę nad ruchem tego pojazdu i umożliwiające jego ruch bez ingerencji kierującego, który w każdej chwili może przejąć kontrolę nad tym pojazdem”.

Zatem systemy humanoidalne cechują się wysokim stopniem samodzielnej decyzyjności bez ingerencji człowieka. Działają na podstawie wbudowanych algorytmów, które mają za zadanie zapewnić pełną autonomiczność w ich działaniach.

3. Podmiotowość prawna systemów autonomicznych

Na wstępie należy rozważyć kwestię podmiotowości prawnej systemów humanoidalnych. W dyskursie prawnym toczy się dyskusja, czy robotom przypisać osobowość prawną. Zwolennicy tego rozwiązania wskazują, że humanoid:

  1. „posiada «zdolność intelektualną» i działa racjonalnie sui iuris;
  2. przedstawia zdolność rozumienia i przestrzegania obowiązków prawnych;
  3. ma podlegać odpowiedzialności prawnej, której dolegliwość będzie go skłaniać do należytego wykonywania swoich obowiązków;
  4. ma zdolność kontraktowania, w tym tworzenia treści umów;
  5. ma zdolność kontrolowania środków i zdolność posiadania własności”[7].

Również R. van den Hoven van Genderen wskazuje, że w tym kontekście konieczne jest wypracowanie takich norm prawnych, które nadadzą sztucznej inteligencji podmiotowość prawną, która ma być uwarunkowana potrzebami społecznymi. Według niego, by przypisać podmiotowość prawną, musi zostać spełnionych kilka warunków, a mianowicie:

  1. konieczność istnienia systemu w społeczeństwie,
  2. istotne znaczenie społeczno-gospodarcze oraz odpowiednie systemy certyfikacji;
  3. wyznaczenie odpowiedniego poziomu autonomiczności, np. test Turinga, osiągnięcie przez system takiego poziomu rozwoju, który sprawiałby wrażenie posiadania przez ten system cech ludzkich;
  4. wystarczający poziom inteligencji społecznej pojmowanej jako zdolność do zrozumienia społeczno-emocjonalnej i moralnej wartości wypowiedzi innego podmiotu;
  5. umiejętność reagowania na zmieniające się okoliczności – tzw. inteligencja adaptacyjna;
  6. akceptacja przez inne podmioty prawa poprzez tworzenie zaufania do integracji gospodarczej, społecznej i prawnej;
  7. utworzenie publicznego rejestru określającego, które systemy będą miały konkretne kompetencje prawne w określonych rolach i zadaniach[8].

Marlena Janowska zauważa, że „rozpoczęcie refleksji nad podmiotowością AI powinno następować od analizy przypadków, w których wyposażenie ich w prawa i obowiązki realnie przyczynia się do usprawnienia obrotu gospodarczego, eliminuje problemy natury prawnej lub technicznej bądź generuje inne korzyści o charakterze prawnym i ekonomicznym”. Autorka podkreśla ponadto, że „skomplikowany i wielopłaszczyznowy charakter omawianej kwestii sprawia, że trudno wskazać jednoznaczne przykłady sytuacji, w których nadanie AI podmiotowości prawnej lub uznanie ich za podmioty prawa byłoby w pełni uzasadnione[9].

Podobnie P. Księżak prezentuje stanowisko, według którego nadanie podmiotowości prawnej sztucznej inteligencji stanowi proces nieuchronny. Jak zauważa, podmiotowość prawna sztucznej inteligencji może pojawić się najpierw jako fakt społeczny, a w dalszej kolejności jako fakt prawny. Wówczas formalne uznanie jej za podmiot prawa będzie jedynie potwierdzeniem faktycznego stanu rzeczy wynikającego z funkcjonowania tych systemów w rzeczywistości społeczno-gospodarczej[10].

Z kolei K. Szostek wskazuje, że przypisanie osobowości prawnej systemom sztucznej inteligencji jest niemożliwe. Jak argumentuje, przyznanie osobowości prawnej wymaga istnienia substratu ludzkiego stanowiącego organizacyjny i decyzyjny fundament danego bytu – tak jak ma to miejsce w przypadku podmiotów gospodarczych. Tymczasem systemy sztucznej inteligencji pozbawione są takiego elementu, co w konsekwencji uniemożliwia uznanie ich za podmioty praw[11].

Nadanie podmiotowości prawnej sztucznej inteligencji może stanowić pewien problem. W zasadzie skomplikowane jest rozważanie tej kwestii, skoro robot to urządzenie nieposiadające godności ludzkiej. Nawet gdybyśmy nadali mu podmiotowość, to w istocie robot nie stanie się współtowarzyszem człowieka, tylko pewnym narzędziem służącym człowiekowi, a więc podmiotowi prawa. W ocenie autora żadna ewolucja prawna w tym zakresie nie sprawi, że robot będzie pełnoprawnym podmiotem choćby z perspektywy prawa naturalnego.

4. Odpowiedzialność za szkody wyrządzone przez samochody autonomiczne

W literaturze przedmiotu wskazuje się kilka koncepcji uregulowania odpowiedzialności za szkody wyrządzone przez pojazdy autonomiczne. Po pierwsze proponuje się rozpatrywanie wypadków na podstawie art. 435 k.c., a więc zasady ryzyka przy wyłączeniu sytuacji, w których dochodzi do kolizji między dwoma pojazdami autonomicznymi. Po drugie wskazuje się na zastosowanie przepisów dotyczących odpowiedzialności za produkt niebezpieczny, obejmujących w szczególności błędy oprogramowania oraz awarie systemów odpowiedzialnych za sterowanie pojazdem[12]. Stąd odpowiedzialność w takich przypadkach może wynikać z kilku zasad: ryzyka, winy lub odpowiedzialności za produkt. Każda z tych zasad zostanie opisana poniżej.

4.1. Odpowiedzialność na zasadzie winy

W prawie cywilnym wyróżnia się odpowiedzialność na zasadzie winy – ex delicto. Artykuł 415 k.c. wskazuje, że „kto z winy swej wyrządził drugiemu szkodę, obowiązany jest do jej naprawienia”. Kluczowe znaczenie ma pojęcie winy. M. Balwicka-Szczyrba wskazuje trzy przesłanki odpowiedzialności deliktowej:

  1. czyn niedozwolony – bezprawny i zawiniony,
  2. szkoda,
  3. związek przyczynowy pomiędzy czynem niedozwolonym a szkodą.

Zatem, by mówić o winie człowieka, trzeba wykazać pewne jego działania bezprawne lub zaniechania[13]. Wyrok SA w Białymstoku z dnia 29 grudnia 2017 r. wskazuje, że odpowiedzialność deliktowa powstaje, gdy łącznie wystąpią trzy przesłanki: zawinione i bezprawne działanie lub zaniechanie sprawcy, szkoda oraz normalny związek przyczynowy między bezprawnym i zawinionym zachowaniem sprawcy a szkodą. W kontekście badania winy istotna jest kolejność analizy. Najpierw konieczne jest ustalenie zaniechania, dokonanie oceny jego bezprawności i zawinienia sprawcy, a następnie ustalenie, czy w majątku poszkodowanego wystąpiła szkoda i jakiego jest ona rodzaju. Dopiero po stwierdzeniu, że obie te przesłanki zachodzą, możliwe jest zbadanie istnienia między nimi związku przyczynowego[14]. Artykuł 436 § 2 k.c. odnosi się do odpowiedzialności za szkody komunikacyjne. Przepis ten stanowi, że w przypadku zderzenia pojazdów mechanicznych odpowiedzialność powinna być rozpatrywana na zasadach ogólnych, czyli na podstawie winy. W kontekście pojazdów autonomicznych wyposażonych w sztuczną inteligencję zastosowanie tej regulacji może być niewystarczające. Powstaje pytanie, komu w takim przypadku przypisać odpowiedzialność: twórcy algorytmu czy posiadaczowi pojazdu, który mógłby zlecić aktualizację systemu lub zapewnić należyte sprawdzanie tego systemu?[15]

Warto wskazać, że w 2024 r. w Wielkiej Brytanii wprowadzono ustawę Automated Vehicles Act 2024. W wyjaśnieniach zawartych w dokumencie Explanatory Notes. Automated Vehicles Act 2024 w sekcji Chapter 1: Legal position of the user in charge można przeczytać, że „gdy funkcja jazdy autonomicznej jest aktywna, użytkownik nie ponosi odpowiedzialności za dynamiczne prowadzenie pojazdu. Nie kontroluje pojazdu poprzez kierowanie, przyspieszanie ani hamowanie i nie musi monitorować otoczenia drogowego. Ma on wyraźny immunitet wobec najpoważniejszych wykroczeń drogowych. Nie ponosi również odpowiedzialności za sygnały i oświetlenie pojazdu. Immunitet ten zapewnia, że użytkownik odpowiedzialny nie może zostać pociągnięty do odpowiedzialności karnej za przestępstwa wynikające z działania funkcji jazdy autonomicznej”[16].

W omawianym przypadku nie ma zatem klasycznego podejścia na zasadzie ex delicto, ponieważ użytkownik nie jest zobowiązany do naprawienia szkód wyrządzonych przez pojazd autonomiczny. Odpowiedzialność z tytułu ewentualnych szkód spoczywa natomiast na podmiotach odpowiedzialnych za funkcjonowanie systemu autonomicznego, takich jak producenci lub operatorzy pojazdu, co w praktyce przesuwa ciężar odpowiedzialności z użytkownika na podmiot prawa korporacyjnego.

4.2. Odpowiedzialność na zasadzie ryzyka

Jak wcześniej wspomniano, sztuczna inteligencja działa na podstawie algorytmów zaprojektowanych przez ich twórców. Skoro jednak założeniem tych algorytmów jest umożliwienie podejmowania autonomicznych decyzji, pojawia się kluczowe pytanie – w jaki sposób i komu można przypisać winę za ewentualną szkodę wyrządzoną przez samochody autonomiczne – zwłaszcza jeśli dochodzi do czynu niedozwolonego.

W przypadku przedsiębiorstw wykorzystujących samochody autonomiczne do wykonywania określonych czynności (przewozu osób, dostarczania produktów do określonego miejsca itp.) należy rozważyć zastosowanie art. 435 k.c., który przewiduje odpowiedzialność przedsiębiorstwa za szkodę wyrządzoną przez ruch przedsiębiorstwa lub zakładu wprawianego w ruch za pomocą sił przyrody. Odpowiedzialność ta ma charakter obiektywny (na zasadzie ryzyka), chyba że szkoda nastąpiła wskutek siły wyższej, wyłącznej winy poszkodowanego lub osoby trzeciej, za którą przedsiębiorstwo nie ponosi odpowiedzialności. Jak wskazuje J. Kuźmicka- Sulikowska, według dominującego poglądu przepis ten nie dotyczy wyłącznie przedsiębiorstw, które bezpośrednio używają sił przyrody do prowadzenia działalności gospodarczej, ale również przedsiębiorstw, które poprzez wykorzystanie energii elektrycznej, gazu itp. przetwarzają te siły na pracę określonych urządzeń, maszyn[17].

Zasadne jest więc pytanie, czy ewentualny błąd decyzyjny systemu – działającego w ramach prawidłowo zaprogramowanego algorytmu – może być zakwalifikowany jako siła wyższa. Gdyby tak było, przedsiębiorstwo mogłoby próbować wyłączyć swoją odpowiedzialność. Niemniej jednak przy braku jednoznacznych regulacji prawnych kwalifikacja taka może budzić poważne wątpliwości. Należy zauważyć, że siła wyższa to zdarzenie, którego nie można przewidzieć ani mu zapobiec. Jak wskazuje M. Safjan, analizując obecny stan orzecznictwa, przykładowo awaria samochodu nie może być przesłanką wyłączającą odpowiedzialność na zasadzie siły wyższej[18].

Zatem jeśli samochód wyposażony jest w autonomiczny proces decyzyjny oparty na algorytmie i – mimo jego prawidłowego działania – nie wykona zadania lub wykona je w sposób nienależyty, pojawia się pytanie, czy może to stanowić podstawę do wyłączenia odpowiedzialności podmiotu posługującego się takim systemem. Tego rodzaju sytuacja podaje w wątpliwość zasadność zastosowania konstrukcji odpowiedzialności cywilnej, opartej w szczególności na zasadzie winy. Może bowiem okazać się, że żadna z przesłanek tej odpowiedzialności nie występuje po stronie człowieka – ani zawinione działanie, ani zaniechanie[19].

To prowadzi do istotnej refleksji nad granicami odpowiedzialności zaawansowanych systemów autonomicznych. W tym kontekście warto się zastanowić, czy w przypadku szkody można mówić wyłącznie o awarii w sytuacji, gdy algorytm działał prawidłowo, czy może w takim wypadku wprowadzić normę na zasadzie ryzyka, która wskazywałaby na odpowiedzialność posiadacza systemu autonomicznego, nawet w przypadku braku winy człowieka, lecz nieprzewidywalnego zachowania systemu.

4.3. Odpowiedzialność za produkt

Ostatnim możliwym rodzajem odpowiedzialności za szkodę wyrządzoną przez pojazd autonomiczny może być odpowiedzialność za produkt niebezpieczny. Jednakże ustawodawca w art. 4493 wskazał na przesłanki wyłączenia odpowiedzialności. Jedną z nich jest sytuacja, w której właściwości niebezpieczne produktu ujawniły się po wprowadzeniu go do obrotu, chyba że wynikałyby one z przyczyny tkwiącej w produkcji. Producent nie odpowiada również za niemożliwe do przewidzenia właściwości produktu[20]. Wojciech Robaczyński, odnosząc się do pojazdów autonomicznych, wskazuje, że odpowiedzialnych za wyrządzenie szkody może być kilka podmiotów: „Po pierwsze, kierujący pojazdem. Po drugie, posiadacz pojazdu. Po trzecie, tzw. operator pojazdu. Po czwarte, producent pojazdu. Po piąte, producent/autor oprogramowania. Po szóste wreszcie – organ władzy publicznej, zatwierdzający wymagania programów wykorzystywanych w odniesieniu do ruchu pojazdów autonomicznych”[21]. Zatem liczba podmiotów odpowiedzialnych za szkodę jest duża.

Dalej W. Robaczyński zauważa, że za utrzymaniem odpowiedzialności posiadacza pojazdu na zasadzie ryzyka przemawia zarówno koncepcja stwarzanego niebezpieczeństwa, jak i względy związane z odnoszonymi korzyściami. Ruch pojazdu odbywa się bowiem „na rzecz” posiadacza, niezależnie od tego, czy kierowanie pojazdem sprawuje człowiek, czy też system autonomiczny[22]. Zatem opowiada się za tym, by nie winić producenta, lecz nabywcę pojazdu.

Dodatkowo przy rozważaniach dotyczących odpowiedzialności produktowej należy uwzględnić, że istnieje możliwość, że do powstania szkody mogły przyczynić się osoby trzecie. Przykładem może być sytuacja, w której samochód zostaje zhakowany – czyli ktoś celowo wprowadza do jego systemu algorytm, który skutkuje wyrządzeniem szkody. W takim przypadku odpowiedzialność producenta może być wyłączona, o ile zostanie wykazane, że produkt był wolny od wad w chwili wprowadzenia do obrotu, a ingerencja miała charakter zewnętrzny i nieprzewidywalny. W tym kontekście art. 4493 będzie mieć zastosowanie[23].

Dodatkowo problem może pojawić się, gdy sztuczna inteligencja działa samodzielnie, czyli żadna ingerencja zewnętrzna ani niedoskonałość systemu nie mają wpływu na decyzyjność systemu. Jak podaje P. Kaniewski, taka sytuacja może dotyczyć wypadku komunikacyjnego, np. kolizji dwóch pojazdów albo gdy sztuczna inteligencja zmuszona jest do podjęcia decyzji w warunkach tzw. tragicznego wyboru – gdy każda z dostępnych opcji prowadzi do negatywnych skutków, a system wybiera tę, która w jego ocenie powoduje najmniejszą szkodę[24].

5. Wnioski

Kończąc niniejsze rozważania, należy zweryfikować wcześniej postawione hipotezy.

Hipoteza 1: Aktualne przepisy Kodeksu cywilnego nie zapewniają wystarczających ram prawnych umożliwiających jednoznaczne ustalenie odpowiedzialności za szkody wyrządzone przez systemy autonomiczne.

Kodeks cywilny reguluje odpowiedzialność cywilną głównie na podstawie winy (art. 415 k.c. i nast.), ryzyka (art. 435 k.c.) oraz innych zasad, np. winy w nadzorze (art. 427 k.c.). Przepisy te odnoszą się do działań ludzi lub przedsiębiorstw, ewentualnie do szkód wyrządzonych przez rzeczy lub zwierzęta. Jednak kwestia odpowiedzialności systemów autonomicznych, zwłaszcza wyposażonych w sztuczną inteligencję i zdolnych do autonomicznego podejmowania decyzji, nie znajduje umocowania w tych przepisach. Trudno przypisać winę samemu urządzeniu, skoro nie ma ono podmiotowości prawnej. Zatem niejednoznaczność regulacji powoduje trudności w dochodzeniu roszczeń i ustaleniu, kto ponosi odpowiedzialność za szkodę wyrządzoną przez system autonomiczny.

Hipoteza 2: Zastosowanie odpowiedzialności na zasadzie ryzyka (art. 435 k.c.) może stanowić rozwiązanie w przypadku szkód spowodowanych przez systemy autonomiczne wykorzystywane przez przedsiębiorstwa w ramach określonych czynności zawodowych lub operacyjnych.

Zasada ryzyka może okazać się niewystarczająca, jeśli system działał niezależnie od woli właściciela lub operatora. Przypisanie odpowiedzialności producentowi, operatorowi, właścicielowi lub programiście wymagałoby szczegółowych przepisów, których obecnie brakuje.

Hipoteza 3: Tradycyjna zasada winy jako podstawowa przesłanka odpowiedzialności cywilnej okazuje się niewystarczająca w sytuacjach, gdy system autonomiczny działa samodzielnie, podejmując decyzje niezależnie od woli człowieka.

Analizując winę w kontekście art. 415 k.c., trzeba uwzględnić pewne działanie bądź zaniechanie człowieka. Rozważając szkody wyrządzone przez systemy autonomiczne, które posiadają autonomiczność w podejmowaniu decyzji, trudno będzie przypisać winę posiadaczowi systemu. Jak w takim wypadku winić człowieka za w pełni autonomiczne działania systemu, który pomimo odpowiednich algorytmów wyrządził szkodę? Jedynymi przesłankami uznania odpowiedzialności byłaby sytuacja nieaktualizowania algorytmu lub niewłaściwego użytkowania systemu (braku przeglądów itp., za które byłby odpowiedzialny posiadacz systemu).

Kończąc weryfikację postawionych hipotez, trzeba stwierdzić, że istnieje wiele problemów dotyczących sposobu określenia właściwego rodzaju odpowiedzialności oraz tego, komu przypisać winę za wypadki komunikacyjne z udziałem samochodów autonomicznych. Przykładowo w kontekście zasady ryzyka przesłanką wyłączającą może być autonomiczność decyzyjna urządzenia. Trudno jednak będzie przypisać winę w kontekście art. 415 k.c., ponieważ robot nie jest podmiotem prawa, zaś właściciel samochodu nie ma wpływu na decyzję systemu.

Wydaje się, że niebawem ustawodawca będzie musiał rozważyć zmianę konstrukcji wymienionych norm prawnych, aby sprawiedliwie egzekwować zadośćuczynienie oraz naprawienie szkody.

6. Propozycje Parlamentu Europejskiego, polskiego ustawodawcy oraz uwagi de lege ferenda

W obliczu dynamicznego rozwoju systemów sztucznej inteligencji i robotyki Unia Europejska podjęła inicjatywę mającą na celu określenie zasad odpowiedzialności cywilnej za działania tych technologii. Rezolucja PE z 2020 r. stanowi wytyczne i rekomendacje, które mają na celu ujednolicenie stosunku państw członkowskich do kwestii odpowiedzialności za szkody wyrządzone przez systemy AI. Dokument ten nie posiada mocy prawnie wiążącej, jednak odgrywa istotną rolę w kształtowaniu przyszłych regulacji prawnych[25].

Rezolucja Parlamentu Europejskiego z 2020 r. w art. 8 ust. 2 wskazuje, że przesłankami uniknięcia odpowiedzialności są sytuacje, w których:

  1. system sztucznej inteligencji został uruchomiony bez zgody operatora, mimo że podjęto wszelkie rozsądne i potrzebne działania, aby temu zapobiec; lub
  2. operator zachował należytą staranność, wykonując wszystkie poniższe czynności: wybrał odpowiedni system do danego zadania i swoich umiejętności, prawidłowo go uruchomił, nadzorował jego działanie oraz regularnie instalował dostępne aktualizacje, dbając o jego sprawność[26].

A zatem w tym kontekście również mamy do czynienia z pewnym patem prawnym. Aby przypisać odpowiedzialność producentowi samochodu autonomicznego, konieczne byłoby wykazanie, że szkoda została wyrządzona wskutek wadliwego algorytmu, który został zaprogramowany w sposób nieprawidłowy już na etapie produkcji lub konstrukcji. Bez takiego dowodu odpowiedzialność cywilna producenta za „niepożądane” działanie robota staje się w praktyce trudna do ustalenia, zwłaszcza przy braku oczywistej usterki technicznej.

Rezolucja podkreśla, że zakres odpowiedzialności powinien być uzależniony od charakteru systemu sztucznej inteligencji, nad którym dany operator sprawuje kontrolę. Im wyższy poziom ryzyka wiąże się z funkcjonowaniem danego systemu, tym większe potencjalne zagrożenie dla dóbr takich jak życie, zdrowie lub mienie. W związku z tym postuluje się wprowadzenie jednolitego i bardziej rygorystycznego reżimu odpowiedzialności dla autonomicznych systemów AI o podwyższonym stopniu ryzyka[27].

Choć rezolucja UE nie posiada mocy prawnie wiążącej dla państw członkowskich, pełni funkcję wytycznych i rekomendacji mających na celu ujednolicenie podejścia do kwestii odpowiedzialności za działania systemów sztucznej inteligencji w Unii Europejskiej. Rezolucja nie proponuje jednak rewolucyjnych zmian. Wskazuje, że zakres przepisów prawnych odnoszących się do problematyki odpowiedzialności cywilnej jest na zadowalającym poziomie w krajach członkowskich.

Niemniej jednak trzeba zastanowić się, jak traktować w pełni autonomiczne systemy[28]. W dalszych rozwiązaniach proponuje się ułatwienie dochodzenia roszczeń przez poszkodowanych poprzez częściowe odwrócenie ciężaru dowodu. Oznacza to, że w określonych przypadkach to operator lub podmiot odpowiedzialny za działanie systemu AI będzie musiał wykazać, że dołożył należytej staranności, aby zapobiec powstaniu szkody.

Chociaż problematyka odpowiedzialności za wadliwy produkt była już uregulowana w dyrektywie 85/374/EWG z dnia 25 lipca 1985 r., to nie jest to wystarczające. Bowiem niniejszy akt wskazuje na odpowiedzialność na zasadzie ryzyka, jak w przypadku wspomnianego art. 449 k.c. Dyrektywa wprowadzała wyjątki polegające na tym, że wyłączano odpowiedzialność producenta w przypadku, gdy stan wiedzy technicznej i naukowej nie przewidywał wad[29]. Innymi słowy odpowiedzialność producenta mogła być wyłączona, jeśli:

  1. produkt nie został wprowadzony do obrotu przez producenta,
  2. wada ujawniła się dopiero po wprowadzeniu produktu na rynek,
  3. produkt nie został wytworzony z zamiarem sprzedaży lub dystrybucji w celu osiągnięcia zysku,
  4. produkt nie został wyprodukowany ani dystrybuowany w ramach zwykłej działalności producenta,
  5. wada wynikała z konieczności dostosowania produktu do bezwzględnie obowiązujących przepisów wydanych przez organy publiczne,
  6. wada elementu powstała w trakcie procesu wytwarzania produktu finalnego[30].

Co istotne, powstała nowa dyrektywa uchylająca poprzednią i stanowiąca istotne zmiany, które muszą nastąpić w polskim Kodeksie cywilnym, a które ściśle wiążą się z oprogramowaniem samochodów autonomicznych. Warto przypomnieć, że Kodeks cywilny definiuje produkt jako rzecz ruchomą. Nowa dyrektywa wskazuje, że produkt to nie tylko rzecz ruchoma, ale także oprogramowanie. Wprowadza również nowe definicje, takie jak „część składowa produktu”. Jest to przedmiot materialny bądź niematerialny, który jest zintegrowany z innym produktem, przy czym oba elementy są ze sobą powiązane. Dodatkowo wprowadzono pojęcie 'powiązanej usługi' jako cyfrowej usługi zintegrowanej z produktem materialnym. Ta usługa jest elementem składowym całego produktu. Zatem w kontekście samochodów autonomicznych odpowiedzialność producenta obejmuje nie tylko części fizyczne, ale także systemy sztucznej inteligencji, algorytmy i aktualizacje oprogramowania.

Podobnie jak w przypadku poprzedniej dyrektywy zakres podmiotów ponoszących odpowiedzialność na gruncie nowej dyrektywy obejmuje cały łańcuch dostawców produktu, czyli szeroko rozumianych uczestników obrotu. Zatem odpowiedzialność spoczywa na producencie wadliwego produktu, tj.:

  1. podmiocie, który podaje się za producenta, np. poprzez umieszczenie na produkcie swojej nazwy lub znaku towarowego;
  2. podmiocie, który zleca zaprojektowanie lub wytworzenie produktu[31].

Reasumując, nowa dyrektywa rozszerza odpowiedzialność solidarną kilku podmiotów. Stąd, jeśli chodzi o pojazdy autonomiczne, poszkodowany może dochodzić odszkodowania wobec producenta samochodu, lecz również wytwórcy oprogramowania. W sytuacji gdy udowodni się, że producent produktu materialnego nie ponosi winy, roszczenie odszkodowawcze przechodzi na programistę.

Nowa dyrektywa wprowadza również rozwiązania, które wyraźnie ułatwiają poszkodowanym dochodzenie roszczeń. Jednym z kluczowych mechanizmów są wzruszalne domniemania, znacząco poprawiające sytuację procesową powoda.

Przede wszystkim wprowadzono domniemanie wadliwości produktu w kilku typowych, praktycznych sytuacjach. Do takiego domniemania dochodzi, gdy pozwany – mimo żądania powoda – nie przedstawi wymaganych dowodów. Może ono również zostać zastosowane, jeżeli powód wykaże, że produkt nie spełnia określonych prawem standardów bezpieczeństwa lub że szkoda wynikała z oczywistego nieprawidłowego działania produktu podczas jego zwykłego, przewidywalnego użytkowania.

Kolejnym udogodnieniem jest domniemanie istnienia związku przyczynowego między wadą produktu a powstałą szkodą. Jeżeli potwierdzono wadliwość produktu, a rodzaj szkody odpowiada charakterowi tej wady, uznaje się, że związek przyczynowy zachodzi[32].

25 czerwca 2025 r. do polskiego Sejmu wpłynął druk nr 1427 dotyczący zmiany ustawy o ruchu drogowym. Uzasadnieniem projektu była potrzeba zmian tej ustawy w kontekście pojazdów autonomicznych. Projekt zakładał wprowadzenie definicji pojazdu zautomatyzowanego i w pełni zautomatyzowanego, by dookreślić pojęcie sztucznej inteligencji w samochodach. Przewidywał wprowadzenie pięciu poziomów autonomiczności. Dwa ostatnie – czwarty i piąty – odnoszą się właśnie do pojazdów w pełni autonomicznych. Klasyfikacja proponowana była na bazie rozwiązań National Highway Traffic Safety Administration[33]. W niniejszym projekcie zastosowano szereg regulacji dotyczących tego, jakie komponenty i warunki powinien spełniać pojazd autonomiczny, w szczególności:

  1. wyposażenie pojazdu zautomatyzowanego w rejestrator nagrywający obraz i dźwięk z przodu, tyłu i wnętrza;
  2. przeprowadzenie testów symulacyjnych i fizycznych na zamkniętych torach;
  3. przechowywanie nagrań z testów przez 5 lat;
  4. rejestrowanie obecności kierowcy podczas testów na drogach publicznych;
  5. rejestrowanie kolizji i wypadków, przechowywanie nagrań przez 5 lat i przekazywanie ich krajowemu koordynatorowi z opisem zdarzenia;
  6. składanie sprawozdań z prac badawczych do krajowego koordynatora w ciągu 30 dni od zakończenia badań lub utraty zezwolenia;
  7. zapewnienie obecności kierowcy z odpowiednimi uprawnieniami w pojeździe podczas badań;
  8. gwarantowanie odpowiedniego poziomu cyberbezpieczeństwa pojazdów i systemów zgodnie z rozporządzeniem (UE) 2019/881;
  9. ochrona pojazdów, systemów i prototypów przed nieuprawnionym dostępem, w tym internetowym[34].

W projekcie ustawy, w art. 65n ust. 3 dotyczącym odpowiedzialności cywilnej, wskazano, że „[p]osiadacz pojazdu zautomatyzowanego albo pojazdu w pełni zautomatyzowanego ponosi odpowiedzialność za szkody na osobie lub mieniu wyrządzone komukolwiek przez ruch takiego pojazdu, na zasadzie określonej w art. 436 § 1 ustawy z dnia 23 kwietnia 1964 r. – Kodeks cywilny (Dz. U. z 2025 r. poz. 1071 i 1172). Do odpowiedzialności posiadacza, o której mowa w zdaniu pierwszym, nie stosuje się art. 436 § 2 ustawy z dnia 23 kwietnia 1964 r. – Kodeks cywilny, o ile nie można przypisać winy żadnemu z posiadaczy pojazdów lub kierujących pojazdami, które się zderzyły”[35].

Zgodnie z projektem ustawa wprowadziłaby odpowiedzialność na zasadzie ryzyka dla posiadacza pojazdu autonomicznego. Miało to na celu łatwiejsze dochodzenie odszkodowań przez osoby poszkodowane w wypadkach z udziałem autonomicznych pojazdów. Jednakże, jak wcześniej wspomniano, trudno winić posiadacza pojazdu za zdarzenie, w którym nie miał udziału. 7 listopada 2025 r. Prezydent RP zawetował ustawę i skierował ją do ponownej analizy w parlamencie.

Choć w literaturze przedmiotu nie występuje wiele propozycji de lege ferenda w tym zakresie, przedstawione poniżej rozwiązania zasługują na szczególną uwagę. Monika Wałachowska proponuje, by przy badaniu odpowiedzialności cywilnej zastosować zasadę tzw. winy organizacyjnej. Chodzi tutaj o sytuacje, gdy urządzenia z AI nie były odpowiednio serwisowane albo nie zainstalowano potrzebnych aktualizacji mimo zaleceń producenta. Jej zdaniem możliwa jest też odpowiedzialność lekarza lub pielęgniarki, jeśli zawinili osobiście, choć częściej odpowiadałby cały podmiot leczniczy – na podstawie art. 429 lub 430 k.c.[36]

W kontekście odpowiedzialności za produkt M. Wilejczyk wskazuje, że należy zastanowić się nad wprowadzeniem takich regulacji, które będą wskazywały, jaki podmiot ma być odpowiedzialny za błąd algorytmu czy aktualizacji oprogramowania oraz czy w wyniku działań hakerskich odpowiedzialność cywilna będzie całkowicie wyłączona po stronie posiadacza systemu autonomicznego lub twórcy oprogramowania. Być może trzeba będzie rozważyć powstanie osobnej instytucji, która będzie kontrolować aktualizacje oprogramowań, podobnie jak w przypadku Urzędu Dozoru Technicznego. Kolejną z proponowanych zmian w prawie jest rezygnacja z uznawania siły wyższej i zachowań osób trzecich za przesłanki zwalniające posiadacza pojazdu z odpowiedzialności. Odpowiedzialność taka miałaby być wyłączona tylko wtedy, gdy szkoda została wyrządzona z winy poszkodowanego, ale jedynie jeśli działał on celowo lub w sposób rażąco nieostrożny[37].

Następna propozycja to odpowiedzialność na podstawie art. 431 k.c., w którym posiadacz zwierzęcia odpowiada za szkody wyrządzone przez nie. Odpowiedzialność ta powstaje w przypadku, gdy osoba posiada lub korzysta ze zwierzęcia, które spowodowało szkodę, oraz gdy istnieje bezpośredni związek przyczynowy między działaniem zwierzęcia a szkodą[38]. W literaturze prawniczej wskazuje się, że podobne rozwiązania mogłyby być stosowane wobec systemów inteligentnych. Chodzi przede wszystkim o przeniesienie mechanizmu odpowiedzialności opartego na nadzorze i staranności operatora – znanego z prawa dotyczącego zwierząt – na osoby korzystające z autonomicznych systemów robotycznych[39]. Natomiast takie rozważanie jest błędne, ponieważ zwierzę nie jest wyposażone w aparat analizy procesu decyzyjnego, lecz działa na podstawie instynktu, natomiast AI z założenia taką zdolność decyzyjną posiada[40].

W kontekście odpowiedzialności na zasadzie ryzyka wskazuje, że może ona prowadzić do zniechęcenia do zakupu takich urządzeń, dlatego proponuje się wyłączyć spod odpowiedzialności takich użytkowników, którzy nie są profesjonalistami[41]. Wielu prawników dyskutuje, jak zmienić prawo lub jak interpretować odpowiedzialność cywilną w tym aspekcie. Wskazuje się, że osoba fizyczna posiadająca taki system mogłaby odpowiadać w kontekście art. 427 k.c,. a więc na zasadzie winy w nadzorze, którego zwolennikiem jest A. Chłopecki[42]. Natomiast wyłączeniem będzie sytuacja, w której dochowano należytego nadzoru. Jednakże w dalszym ciągu w tym przepisie mowa o człowieku, a nie o systemie, co oznacza potrzebę zmiany regulacji.

Dalsze propozycje de lege ferenda sugerują, że odpowiedzialność deliktowa byłaby bardziej odpowiednia dla właścicieli pojazdów, którzy stwarzają większe ryzyko odniesienia poważnych obrażeń ze względu na charakter środka transportu. W praktyce może to wymagać ustalenia odpowiedzialności właściciela cięższego pojazdu za szkody poniesione przez właściciela lżejszego pojazdu w przypadku kolizji pojazdów mechanicznych stwarzających mniejsze zagrożenie. Taki sposób postępowania stanowiłby alternatywę dla aktualnie obowiązującej zasady, zgodnie z którą – w przypadku braku winy żadnej ze stron – każdy z posiadaczy ponosi odpowiedzialność za własne straty.

Zgodnie z proponowaną metodą podstawowym czynnikiem determinującym zakres odpowiedzialności jest stopień zagrożenia, jakie stwarza prowadzenie danego pojazdu. Na ocenę tego ryzyka duży wpływ mają takie czynniki jak masa pojazdu, wielkość, prędkość, stan techniczny i inne powiązane cechy[43].

Reasumując, konieczne wydaje się rozważenie wprowadzenia nowych regulacji prawnych dostosowanych do dynamicznie rozwijającej się technologii, takich jak odpowiedzialność oparta na ryzyku czy też nowe formy odpowiedzialności organizacyjnej i kontraktowej. Tylko w ten sposób możliwe będzie zapewnienie skutecznej ochrony prawnej w sytuacjach szkód wyrządzanych przez systemy sztucznej inteligencji i systemy autonomiczne.

Potrzebna jest ożywiona dyskusja dotycząca zmiany prawa cywilnego w celu dostosowania uregulowań do zmian nadchodzących w ruchu drogowym w Polsce. Co prawda obecnie są to fazy testowe, ponieważ dopuszczone do ruchu są pojazdy wyłącznie w „celach badawczych, rozwojowych”, jednak niedługo pojazdy autonomiczne staną się powszechne, a państwo polskie musi być przygotowane na takie możliwości.

7. Zakończenie

Niniejszy artykuł miał na celu przybliżenie czytelnikowi, jak zawiłe może być ustalanie odpowiedzialności cywilnej za szkody wyrządzone przez systemy autonomiczne. W tym przypadku skupiono się na pojazdach, ale problem dotyczy nie tylko tej materii. Postawione hipotezy potwierdzają obawy co do tego, że gdyby wprowadzić do obrotu tego rodzaju pojazdy autonomiczne, istniałby duży problem interpretacji odpowiedzialności cywilnej ze względu na brak dostosowania polskiej cywilistyki do potrzeb w tej dziedzinie.

Należy jednak wskazać, że prawo obecnie funkcjonujące nie jest wadliwie skonstruowane, bo w zasadzie środowiska naukowe sprzeczają się nie co do samej konstrukcji norm regulujących odpowiedzialność cywilną, lecz co do tego, jakie przepisy stosować. Jedni twierdzą, że bezwzględnie należy pociągać do odpowiedzialności właściciela pojazdu. Drudzy wskazują na producenta oprogramowania i samochodu, a inni, że należy dokładnie zbadać cały łańcuch powiązań różnych podmiotów, które stworzyły oprogramowanie.

Pojawia się również dyskusja dotycząca podmiotowości prawnej systemów autonomicznych. Powstaje pytanie, w jaki sposób nadawać podmiotowość prawną przedmiotowi, który pozostaje jedynie urządzeniem, nawet jeśli wyposażony jest w zaawansowane algorytmy i symulowane procesy decyzyjne. Robot, choć posiada zaprogramowane sekwencje decyzyjne, nigdy nie będzie podmiotem praw i obowiązków, choćby ze względu na brak natury ludzkiej. Zatem pod dyskusję można poddać, czy upodmiotowienie będzie niosło pozytywne skutki.

W literaturze przedmiotu pojawiło się wiele ciekawych propozycji de lege ferenda, z których częścią czytelnik mógł zapoznać się w niniejszym artykule. Są to istotnie ciekawe rozwiązania, jednakże potrzebna jest zmiana Kodeksu cywilnego, a przynajmniej definicji produktu – nie tylko jako rzeczy materialnej.

Przed polskim parlamentem stoi więc poważne wyzwanie: by stworzyć takie regulacje, które zapobiegną sytuacjom podważania odpowiedzialności za szkody wyrządzone przez zaawansowane technologie, a jednocześnie zapewnią bezpieczeństwo prawne wszystkim stronom ewentualnego postępowania odszkodowawczego.

Przypisy

  1. Zob. art. 449 ustawy z dnia 23 kwietnia 1964 r. – Kodeks cywilny (Dz. U. z 2025 r. poz. 1071 z późn. zm.), dalej: k.c.
  2. A. Prus, Uwarunkowania wykorzystania sztucznej inteligencji w przyszłej wojnie, „Cybersecurity and Law” 2024, nr 12(2).
  3. Ł. Sarowski, Robot społeczny – wprowadzenie do zagadnienia, „Roczniki Kulturoznawcze KUL” 2017, t. VIII, nr 1, https://doi.org/10.18290/rkult.2017.8.1-4, s. 84.
  4. M. Malinowski, Humanoid – Roboty na wzór człowieka, Dr inż. Michał Malinowski. Bazy grafowe, sztuczna inteligencja, cyberbezpieczeństwo, 24.10.2024, https://www.drmalinowski.edu.pl/posts/3147-humanoid-roboty-na-wzor-czlowieka, dostęp: 19.04.2025.
  5. Ł. Sarowski, op. cit., s. 84.
  6. Ustawa z dnia 20 czerwca 1997 r. – Prawo o ruchu drogowym (Dz. U. z 2024 r. poz. 1251 z późn. zm.).
  7. S. Chopra, L.F. White, A Legal Theory for Autonomous Artificial Agents, Michigan 2011, s. 162.
  8. R. van den Hoven van Genderen, Do We Need New Legal Personhood in the Age of Robots and AI? [w:] Robotics, AI and the Future of Law, eds. M. Corrales, M. Fenwick, N. Forgó, Singapur 2018, s. 50.
  9. M. Janowska, Podmiotowość prawna sztucznej inteligencji? [w:] O czym mówią prawnicy, mówiąc o podmiotowości, red. A. Bielska-Brodziak, Katowice 2015, s. 191–192.
  10. P. Księżak, Zdolność prawna sztucznej inteligencji (AI) [w:] Czynić postęp w prawie: księga jubileuszowa dedykowana Profesor Birucie Lewaszkiewicz-Petrykowskiej, red. W. Robaczyński, Łódź 2017, s. 70.
  11. K. Biczysko-Pudełko, D. Szostek, Koncepcje dotyczące osobowości prawnej robotów – zagadnienia wybrane, „Kwartalnik Naukowy Prawo Mediów Elektronicznych” 2019, nr 2, s.11.
  12. G. Urbanik, Odpowiedzialność za szkody wyrządzone przez pojazd autonomiczny w kontekście art. 446 kc, „Studia Prawnicze. Rozprawy i Materiały” 2019, nr 2(25), https://sp.ka.edu.pl/numery/studia-prawnicze-rim-2019-2.pdf, dostęp: 8.11.2025, s. 90.
  13. L. Jantowski, komentarz do art. 415 [w:] Kodeks cywilny. Komentarz aktualizowany, red. M. Balwicka-Szczyrba, A. Sylwestrzak, LEX 2025.
  14. Zob. wyrok Sądu Apelacyjnego w Białymstoku z dnia 29 grudnia 2017 r., sygn. I ACa 661/17, Legalis nr 1732944.
  15. P. Kaniewski, K. Kowacz, Odpowiedzialność cywilna za szkody spowodowane funkcjonowaniem sztucznej inteligencji – uwagi de lege lata i de lege ferenda, „Palestra” 2024, nr 1, https://palestra.pl/pl/czasopismo/wydanie/11-2024/artykul/odpowiedzialnosc-cywilna-za-szkodyspowodowane-funkcjonowaniem-sztucznej-inteligencji-uwagi-de-lege-lata-i-de-lege-ferenda, dostęp: 8.11.2025, s. 16.
  16. Explanatory Notes. Automated Vehicles Act 2024, https://www.legislation.gov.uk/ukpga/2024/10/pdfs/ukpgaen_20240010_en.pdf, dostęp: 22.11.2025, pkt 31, s. 7, tłum. T.T.
  17. J. Kuźmicka-Sulikowska, Część II. Rozdział VII. Czyny niedozwolone [w:] E. Gniewek, P. Machnikowski, Zarys prawa cywilnego, wyd. 4, Warszawa 2021, s. 244.
  18. M. Safjan, komentarz do art. 435 [w:] Kodeks cywilny. Tom I. Komentarz do artykułów 1–449 11, red. K. Pietrzykowski, Warszawa 2008, s. 1384.
  19. P. Kaniewski, K. Kowacz, Odpowiedzialność cywilna za szkody..., s.15.
  20. G. Karaszewski, komentarz do art. 4493 [w:] Kodeks cywilny. Komentarz, red. J. Ciszewski, P. Nazaruk, Warszawa 2019.
  21. W. Robaczyński, Odpowiedzialność za szkody wyrządzone przez pojazdy autonomiczne, „Forum Prawnicze” 2022, nr 1(69), https://forumprawnicze.eu/wp-content/uploads/2022/03/fp69-Robaczynski.pdf, dostęp: 8.12.2025, s. 69.
  22. Ibidem, s. 75.
  23. K. Wojdyło, Kto odpowiada za robota?, https://codozasady.pl/p/kto-odpowiada-za-robota, dostęp: 19.04.2025.
  24. P. Kaniewski, K. Kowacz, Odpowiedzialność cywilna za szkody..., s. 8.
  25. Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)).
  26. Ibidem.
  27. Parlament Europejski na drodze ku regulacji sztucznej inteligencji, Krzysztof Rożko i wspólnicy. Kancelaria prawna, 12.11.2020, https://krwlegal.pl/aktualnosci/parlament-europejski-na-drodze-ku-regulacji-sztucznej-inteligencji, dostęp: 8.11.2025.
  28. P. Staszczyk, Czy unijna regulacja odpowiedzialności cywilnej za sztuczną inteligencję jest potrzebna?, „Europejski Przegląd Sądowy” 2022, nr 6, s. 24–30.
  29. L. Helińska, B. Paczocha, A. Piskorz, Prawne aspekty ochrony konsumenta oraz odpowiedzialności za szkody w kontekście samochodów autonomicznych, „Internetowy Kwartalnik Antymonopolowy i Regulacyjny” 2020, nr 9(7), https://doi.org/10.7172/2299-5749, s. 34–45.
  30. Dyrektywa Rady z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących odpowiedzialności za produkty wadliwe (85/374/EWG), https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:31985L0374, dostęp: 22.11.2025.
  31. A. Kucharska, Dyrektywa PLD (2024/2853), czyli nowa odsłona odpowiedzialności za produkt niebezpieczny, PARP, 12.03.2025, https://www.parp.gov.pl/component/content/article/88223:dyrektywa-pld-2024-2853-czyli-nowa-odslona-odpowiedzialnosci-za-produktniebezpieczny, dostęp: 24.11.2025.
  32. Ibidem. Zob. także: Dyrektywa Parlamentu Europejskiego i Rady (UE) 2024/2853 z dnia 23 października 2024 r. w sprawie odpowiedzialności za produkty wadliwe i uchylenia dyrektywy Rady 85/374/EWG, tekst mający znaczenie dla EOG, https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=OJ:L_202402853, dostęp: 22.11.2025.
  33. T. Neumann, Perspektywy wykorzystania pojazdów autonomicznych w transporcie drogowym w Polsce, „Autobusy” 2018, nr 12, s. 787.
  34. Rządowy projekt ustawy o zmianie ustawy – Prawo o ruchu drogowym oraz ustawy o ubezpieczeniach obowiązkowych, Ubezpieczeniowym Funduszu Gwarancyjnym i Polskim Biurze Ubezpieczycieli Komunikacyjnych, druk sejmowy nr 1427 z dnia 25 czerwca 2025 r., https://www.sejm.gov.pl/Sejm10.nsf/druk.xsp?nr=1427, dostęp: 22.11.2025.
  35. Ibidem.
  36. P. Kaniewski, K. Kowacz, Odpowiedzialność cywilna za szkody…, s. 12.
  37. M. Wilejczyk, Ograniczenie okoliczności zwalniających od odpowiedzialności za szkody wyrządzone ruchem mechanicznego środka komunikacji, „Państwo i Prawo” 2018, z. 6, s. 88.
  38. Wyrok Sądu Najwyższego z dnia 6 czerwca 1968 r., sygn. ICR 148/68, OSNC 1969, nr 11, poz. 199.
  39. A. Gnas, Odpowiedzialność za roboty inteligentne, „Internetowy Kwartalnik Antymonopolowy i Regulacyjny” 2021, nr 6(10), https://press.wz.uw.edu.pl/cgi/viewcontent.cgi?article=1784&context=ikar, dostęp: 8.11.2025, s. 67–77,.
  40. P. Kaniewski, K. Kowacz, Co jeśli AI zawiedzie, czyli odpowiedzialność cywilna za sztuczną inteligencję, ITwiz, 3.10.2023, https://itwiz.pl/co-jesli-ai-zawiedzie-czyli-odpowiedzialnosc-cywilna-za-sztuczna-inteligencje/, dostęp: 19.04.2025.
  41. A. Gnas, op. cit.
  42. Ibidem, s. 12.
  43. M. Wilejczyk, Odpowiedzialność cywilna w razie zderzenia się pojazdów de lege ferenda [w:] O dobre prawo dla ubezpieczeń. Księga jubileuszowa Profesora Eugeniusza Kowalewskiego, red. E. Bagińska et al., Toruń 2019, s. 554.

Bibliografia

Literatura

  1. Biczysko-Pudełko K., Szostek D., Koncepcje dotyczące osobowości prawnej robotów – zagadnienia wybrane, „Kwartalnik Naukowy Prawo Mediów Elektronicznych” 2019, nr 2.
  2. Chopra S., White L.F., A Legal Theory for Autonomous Artificial Agents, Michigan 2011.
  3. Gnas A., Odpowiedzialność za roboty inteligentne, „Internetowy Kwartalnik Antymonopolowy i Regulacyjny” 2021, nr 6(10), https://press.wz.uw.edu.pl/cgi/viewcontent.cgi?article=1784&context=ikar, dostęp: 8.11.2025.
  4. Helińska L., Paczocha B., Piskorz A., Prawne aspekty ochrony konsumenta oraz odpowiedzialności za szkody w kontekście samochodów autonomicznych, „Internetowy Kwartalnik Antymonopolowy i Regulacyjny” 2020, nr 9(7), https://doi.org/10.7172/2299-5749.
  5. Hoven van Genderen R. van den, Do We Need New Legal Personhood in the Age of Robots and AI? [w:] Robotics, AI and the Future of Law, eds. M. Corrales, M. Fenwick, N. Forgó, Singapur 2018.
  6. Janowska M., Podmiotowość prawna sztucznej inteligencji? [w:] O czym mówią prawnicy, mówiąc o podmiotowości, red. A. Bielska-Brodziak, Katowice 2015.
  7. Jantowski L., komentarz do art. 415 [w:] Kodeks cywilny. Komentarz aktualizowany, red. M. Balwicka-Szczyrba, A. Sylwestrzak, LEX 2025.
  8. Kaniewski P., Kowacz K., Odpowiedzialność cywilna za szkody spowodowane funkcjonowaniem sztucznej inteligencji uwagi de lege lata i de lege ferenda, „Palestra” 2024, nr 1, https://palestra.pl/pl/czasopismo/wydanie/11-2024/artykul/odpowiedzialnosc-cywilna-za-szkodyspowodowane-funkcjonowaniem-sztucznej-inteligencji-uwagi-de-lege-lata-i-de-lege-ferenda, dostęp: 8.11.2025.
  9. Karaszewski G., komentarz do art. 4493 [w:] Kodeks cywilny. Komentarz, red. J. Ciszewski, P. Nazaruk, Warszawa 2019.
  10. Księżak P., Zdolność prawna sztucznej inteligencji (AI) [w:] Czynić postęp w prawie: księga jubileuszowa dedykowana Profesor Birucie Lewaszkiewicz-Petrykowskiej, red. W. Robaczyński, Łódź 2017.
  11. Kuźmicka-Sulikowska J., Część II. Rozdział VII. Czyny niedozwolone [w:] E. Gniewek, P. Machnikowski, Zarys prawa cywilnego, wyd. 4, Warszawa 2021.
  12. Malinowski M., Humanoid – Roboty na wzór człowieka, Dr inż. Michał Malinowski. Bazy grafowe, sztuczna inteligencja, cyberbezpieczeństwo, 24.10.2024, https://www.drmalinowski.edu.pl/posts/3147-humanoid-roboty-na-wzor-czlowieka, dostęp: 19.04.2025.
  13. Neumann T., Perspektywy wykorzystania pojazdów autonomicznych w transporcie drogowym w Polsce [w:] „Autobusy” 2018, nr 12.
  14. Prus A., Uwarunkowania wykorzystania sztucznej inteligencji w przyszłej wojnie, „Cybersecurity and Law” 2024, nr 12(2).
  15. Robaczyński W., Odpowiedzialność za szkody wyrządzone przez pojazdy autonomiczne, „Forum Prawnicze” 2022, nr 1(69), https://forumprawnicze.eu/wp-content/uploads/2022/03/fp69-Robaczynski.pdf.
  16. Safjan M., komentarz do art. 435 [w:] Kodeks cywilny. Tom I. Komentarz do artykułów 1–449 11, red. K. Pietrzykowski, Warszawa 2008.
  17. Sarowski Ł., Robot społeczny – wprowadzenie do zagadnienia, „Roczniki Kulturoznawcze KUL” 2017, t. VIII, nr 1, https://doi.org/10.18290/rkult.2017.8.1-4.
  18. Staszczyk P., Czy unijna regulacja odpowiedzialności cywilnej za sztuczną inteligencję jest potrzebna?, „Europejski Przegląd Sądowy” 2022, nr 6.
  19. Urbanik G., Odpowiedzialność za szkody wyrządzone przez pojazdy autonomiczny w kontekście art. 446 kc, „Studia Prawnicze. Rozprawy i Materiały” 2019, nr 2(25), https://sp.ka.edu.pl/numery/studia-prawnicze-rim-2019-2.pdf, dostęp: 8.11.2025.
  20. Wilejczyk M., Odpowiedzialność cywilna w razie zderzenia się pojazdów de lege ferenda [w:] O dobre prawo dla ubezpieczeń. Księga jubileuszowa Profesora Eugeniusza Kowalewskiego, red. E. Bagińska et al., Toruń 2019.
  21. Wilejczyk M., Ograniczenie okoliczności zwalniających od odpowiedzialności za szkody wyrządzone ruchem mechanicznego środka komunikacji, „Państwo i Prawo” 2018, z. 6.
  22. Wojdyło K., Kto odpowiada za robota?, https://codozasady.pl/p/kto-odpowiada-za-robota, dostęp: 19.04.2025.

Akty prawne

  1. Ustawa z dnia 23 kwietnia 1964 r. – Kodeks cywilny (Dz. U. z 2025 r. poz. 1071 z późn. zm.).
  2. Ustawa z dnia 20 czerwca 1997 r. – Prawo o ruchu drogowym (Dz. U. z 2024 r. poz. 1251 z późn. zm.).
  3. Dyrektywa Rady z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących odpowiedzialności za produkty wadliwe (85/374/EWG), https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:31985L0374, dostęp: 22.11.2025.
  4. Dyrektywa Parlamentu Europejskiego i Rady (UE) 2024/2853 z dnia 23 października 2024 r. w sprawie odpowiedzialności za produkty wadliwe i uchylenia dyrektywy Rady 85/374/EWG, tekst mający znaczenie dla EOG, https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=OJ:L_202402853, dostęp: 22.11.2025.

Orzecznictwo

  1. Wyrok Sądu Najwyższego z dnia 6 czerwca 1968 r., sygn. ICR 148/68, OSNC 1969, nr 11, poz. 199.
  2. Wyrok Sądu Apelacyjnego w Białymstoku z dnia 29 grudnia 2017 r., sygn. I ACa 661/17, Legalis nr 1732944.

Pozostałe pisma i dokumenty urzędowe

  1. Rządowy projekt ustawy o zmianie ustawy – Prawo o ruchu drogowym oraz ustawy o ubezpieczeniach obowiązkowych, Ubezpieczeniowym Funduszu Gwarancyjnym i Polskim Biurze Ubezpieczycieli Komunikacyjnych, druk sejmowy nr 1427 z dnia 25 czerwca 2025 r., https://www.sejm.gov.pl/Sejm10.nsf/druk.xsp?nr=1427, dostęp: 22.11.2025.
  2. Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)).
  3. Explanatory Notes. Automated Vehicles Act 2024, https://www.legislation.gov.uk/ukpga/2024/10/pdfs/ukpgaen_20240010_en.pdf, dostęp: 22.11.2025.

Źródła internetowe

  1. Kaniewski P., Kowacz K., Co jeśli AI zawiedzie, czyli odpowiedzialność cywilna za sztuczną inteligencję, ITwiz, 3.10.2023, https://itwiz.pl/co-jesli-ai-zawiedzie-czyli-odpowiedzialnosc-cywilna-za-sztuczna-inteligencje/, dostęp: 19.04.2025.
  2. Kucharska A., Dyrektywa PLD (2024/2853), czyli nowa odsłona odpowiedzialności za produkt niebezpieczny, PARP, 12.03.2025, https://www.parp.gov.pl/component/content/article/88223:dyrektywa-pld-2024-2853-czyli-nowa-odslona-odpowiedzialnosci-za-produkt-niebezpieczny, dostęp: 24.11.2025.
  3. Parlament Europejski na drodze ku regulacji sztucznej inteligencji, Krzysztof Rożko i wspólnicy. Kancelaria prawna, 12.11.2020, https://krwlegal.pl/aktualnosci/parlament-europejski-na-drodze-ku-regulacji-sztucznej-inteligencji, dostęp: 8.11.2025.