Tesla - coraz lepsza, nadal niedoskonała

29 maja 2018
/

23 marca w słonecznej Kalifornii Walter Huang jak co dzień pokonywał drogę do pracy swoim samochodem – Tesla model S – z włączoną funkcją Autopilota. Nagle jadące prawidłowo auto wykonało skręt, uderzając w barierę po lewej stronie drogi. System ostrzegł o istniejącym niebezpieczeństwie - o 6 sekund za późno...

Jak podaje w swoim oświadczeniu Tesla wypadek spowodowany był słabą widocznością pasów na jezdni – miały być one zatarte. Kiedy Autopilot nie jest pewny, jak powinien się zachować, wydaje komunikat o konieczności przejęcia kierownicy. Także w tym wypadku, na 6 sekund przed kolizją, wydawał sygnały dźwiękowe i świetlne. Jak to się stało, że kierowca nie zdążył zareagować i dlaczego samochód skręcił bez ostrzeżenia? Kto ponosi odpowiedzialność za kolejny śmiertelny wypadek z udziałem autonomicznego systemu Tesli?

Super-mądry tempomat

Czym właściwie jest Autopilot Tesli? Funkcja ta pozwala na jazdę bez udziału kierowcy. Jej działanie opiera się na systemie 8 kamer i radarów o zasięgu 250 m. Zebrane dane oraz zawarte w chmurze informacje oprogramowania są w stanie kierować pojazdem, przy minimalnym udziale kierowcy.

Nie jest to jednak system w pełni autonomiczny, taki jaki znamy z filmów science-fiction. Przyrównać go można do „super-mądrego tempomatu”. Potrafi utrzymać odpowiednią odległość między autami, nadawać tempo, pokonywać proste zakręty i parkować. W momencie uruchomienia na ekranie pojawia się komunikat, że autopilot to „funkcja asystująca, która wymaga, by cały czas zachować ręce na kierownicy”. Świadczy to o tym, że autopilot nie zwalnia kierowcy z obowiązku zachowania kontroli i odpowiedzialności za pojazd.

Khobi Brooklyn, wiceprezes ds. łączności globalnej Tesla, w wywiadzie dla portalu Wired mówi:

„Autopilot ma zapewnić namacalne doświadczenie, żeby dodać więcej odwagi za kółkiem, podnosząc poziom bezpieczeństwa i sprawiając, że jazda autostradą jest przyjemniejsza” (tłum. własne).

Firma wielokrotnie wspominała, że najnowsze oprogramowanie Tesli zapewnia” większe bezpieczeństwo niż człowiek siedzący za kierownicą”. Auta w fazie testowej przejechały bezkolizyjnie aż 200 mln kilometrów. W Internecie można znaleźć wiele kompilacji takich jak filmik poniżej, na których Tesla S przewiduje wypadek na parę sekund zanim się wydarzy, co ratuje życie kierowcy. Niestety, mimo wszystko, człowiek już dwukrotnie stracił życie, ufając bezrefleksyjnie w nieomylność autopilota.

Szara strefa

Tak naprawdę systemy autonomiczne to wciąż prawnicza „szara strefa”. Legislator nie nadąża za tak szybkim rozwojem technologicznym. Jeszcze przed wprowadzeniem nowego oprogramowania w swoim artykule dla Wired idealnie podsumował to Alex Davis:

„W tym momencie sytuacja staje się niezbyt klarowna. Zapytaliśmy się kilku ekspertów, czy to jest legalne. Najczęstszą odpowiedzią było ¯\_(ツ)_/¯” (tłum. własne)

Obecnie, chociaż ubezpieczenie OC przypisane jest do pojazdu, a nie do człowieka, to kierowca ponosi pełną odpowiedzialność prawną za wypadek. Kodeks drogowy posługuje się pojęciem „kierującego”, na którego nakłada liczne obowiązki dotyczące prowadzenia pojazdu. Wydawać by się więc mogło, że to człowiek ponosi odpowiedzialność za skutki zdarzeń potencjalnie wywołane przez producenta.

Nawiązuje do tego art. 436 § 2 kodeksu cywilnego, który wskazuje, że w razie zderzenia się dwóch pojazdów mechanicznych naprawienie szkody następuje na zasadach ogólnych, tj. „Kto z winy swej wyrządził drugiemu szkodę, obowiązany jest do jej naprawienia.”

Jak można łatwo zauważyć uregulowania te odnoszą się do sytuacji, w której osoba kierująca pojazdem wyrządzi szkodę innemu kierowcy. A co w sytuacji, z której niedoskonałość oprogramowania odpowiada za uszczerbek na zdrowiu kierującego?

Podejmować ryzyko

Istnieje niewiele czynników, na podstawie których, to producent ponosiłby winę za wypadek. Zgodnie z art. 4491 § 1 k.c.,” kto wytwarza w zakresie swojej działalności gospodarczej produkt niebezpieczny, odpowiada za szkodę wyrządzoną komukolwiek przez ten produkt”.  Produktem tym może być rzecz ruchoma, która nie zapewnia bezpieczeństwa, „jakiego można oczekiwać, uwzględniając normalne użycie produktu„.

Ustawa zawiera jednak szereg wyłączeń od odpowiedzialności. Kluczowy może być fakt, że o ocenie bezpieczeństwa produktu decyduje sposób zaprezentowania go na rynku oraz podane konsumentowi informacje o właściwościach produktu„ co mogłoby sugerować, że konsument zna ryzyko, kupując produkt. Ponadto Tesla wyraźnie podaje zakres zastosowania swojego systemu autonomicznego i nie zwalnia kierowcy z obowiązku zachowania ostrożności.

Coraz lepszy – niedoskonały

Autopilot Tesli jest systemem ciągle ulepszanym, lecz wciąż niedoskonałym. Może gubić się, kiedy znaki wizualne są dla niego niewystarczająco wyraźne lub kiedy kolory otoczenia zlewają się ze sobą. Sytuacja taka wystąpiła w 2016 r. na Florydzie, kiedy to biała ciężarówka zlała się z białym tłem nieba. Samochód Tesli przejechał pod naczepą, zrywając dach. Kierowca zginął na miejscu. Wydawać by się mogło, że nad winą producenta można zastanawiać się jedynie w momentach, kiedy system nie wychwyci tego, co faktycznie mogłoby zauważy ludzkie oko.

W Polsce pojazdy autonomiczne nie są produkowane i wciąż są ogromną rzadkością. Gdyby kierowca chciał ściągnąć taki samochód do Polski, to zgodnie z art. 4495 § 2 zd. 2 k.c., za szkodę wyrządzoną przez produkt pochodzenia zagranicznego odpowiadałby ten, kto wprowadza produkt do obrotu krajowego w zakresie swojej działalności gospodarczej, czyli importer.

Reasumując, sytuacja prawna pojazdów autonomicznych jest niejasna. Niemal cała odpowiedzialność przerzucana jest na człowieka, chociaż często producent nie pozostaje bez winy. Do wyprodukowania idealnego autopilota niczym z filmów science-fiction jest jeszcze daleka droga. Czy rewolucja techniczna doprowadzi do rewolucji w prawie? Uregulowanie kwestii systemów autonomicznych w Polsce nie wydaje się naglące, niemniej jednak będzie konieczne. Póki co, do konfliktu rodem z Transformersów jest nam jeszcze daleko.