Opoka - Portal katolicki
opoka.newsopoka.photo
Pekao

Czy pojazdy inteligentne mogą się przyczynić do zmniejszenia liczby wypadków?

prof. dr hab. inż. Włodzimierz Choromański

Pojazdy inteligentne. Część III

Pojazdy inteligentne. Część III - foto
Autor/źródło: Pixabay.com

Szczególną uwagę w cyklu artykułów poświęciliśmy pojazdom inteligentnym. Pod pojęciem tym rozumiemy przede wszystkim pojazdy na poziomie autonomizacji L4 oraz L5. Obok problemów czysto technicznych wprowadzenie tego typu pojazdów napotyka poważne problemy związane z legislacją, certyfikacją i homologacją. Pojazdy te generują również kolejne zagrożenia, z którymi należy się zmierzyć i starać się je wyeliminować. Tym niemniej prognozy i pierwsze doświadczenia badawcze wskazują na to, że poprzez wprowadzenie tych pojazdów liczba wypadków bardzo zmaleje, a zatem ich wpływ na podniesienie bezpieczeństwa w ruchu drogowym będzie przełomowy. W przekonaniu autora, nadejście ery pojazdów autonomicznych jest nieuchronne.

Odnieśmy się do wspomnianych na początku trudności. Należy zredefiniować na początku szereg ustaw i zarządzeń. Te ustawy muszą być jednolite w skali międzynarodowej. Pierwszą z nich jest uznanie automatycznego systemu prowadzenia pojazdu (system sensorów, sztuczna inteligencja itd.) za równorzędny z kierowcą-człowiekiem. Następny istotny element to odpowiedzialność za ewentualne kolizje czy wypadki. Tutaj problem jest niezwykle złożony. Na poziomie L5 człowiek pozbawiony jest nawet możliwości korekty pracy autopilota. Czy więc odpowiedzialność za zdarzenie drogowe ponosi firma informatyczna? Na obecnym poziomie rozwoju pojazdów autonomicznych firmy zastrzegają, że nie ponoszą odpowiedzialności za działanie swojego oprogramowania. Chcą zrzucić tym samym odpowiedzialność na producentów samochodów. To właśnie te firmy powinny certyfikować i testować oprogramowanie i układy sensoryczne pojazdów.

Problem sprawdzania tego oprogramowania jest niezwykle trudny. Liczba możliwych sytuacji drogowych, które mogą prowadzić do wypadku jest bardzo duża. A zatem proces walidacji (pojęcie to zostało omówione w poprzednich artykułach) jest niezwykle trudne. W fazie obecnej wiele firm przyjmuje zasadę: testowanie aut oraz konkretnych rozwiązań to wykonanie prób, które zapewnia bezwypadkowe działanie 10 do -9 potęgi. Jest to jeden wypadek na miliard prób. Tesla przejechała miliony kilometrów, a poziom bezpieczeństwa oszacowano na 10 do -5 potęgi.  Czyli potrzeba jeszcze trochę czasu.

Podobna ewolucję przechodziło lotnictwo. Na początku nie było przepisów i ludzie chodzili po skrzydłach w ramach pokazów. Potem w latach `20 i `30 XX wieku powstały konkretne normy prawne i to pozwoliło na zorganizowanie bezpiecznej komunikacji lotniczej. Możliwość wprowadzenia nowej funkcji w samochodach jest związane z zarządzanie ryzykiem. Chodzi o zapewnienie właściwego, akceptowalnego społecznie poziomu bezpieczeństwa. W pojazdach na poziomie autonomizacji L3 (tzw. warunkowa autonomizacja — przypominamy, że na tym poziomie kierowca musi cały czas monitorować system autonomicznej jazdy i w przypadku zagrożenia przejąć natychmiastową kontrolę nad pojazdem) kierowca ponosi odpowiedzialność za wypadek.

Rodzą się jednak też problemy. Dobrym przykładem była ostatnia katastrofa pojazdu Ubera, w którym kierowca testował pojazd autonomiczny na poziomie L3 (Rys 1 a). Świadomość kontrolowania pojazdu przez autopilota powoduje „uśpienie” koncentracji kierowcy. Nagłe pojawienie się kobiety przechodzącej nieprawidłowo przez jezdnię zaskoczyła kierowcę, którego czas reakcji był zbyt długi by uniknąć wypadków (w tym czasie zajmował się on czym innym). System sensoryczny (lidar) zauważył kobietę, ale błąd w oprogramowaniu uniemożliwił uniknięcie wypadku. Obecnie, by kierowca cały czas przygotowany był do wykonania manewru system czujników na kierownicy wymusza trzymanie rąk na niej, w przeciwnym wypadku pojazd zostanie zatrzymany. Możliwość wypadków i trudność ich zapobieżenia związany jest z realizacją np. zasady ograniczonego zaufania.

Żadne systemy (nawet współczesne wyposażone w systemy automatycznego stopu) nie zapobiegną wypadkowi gdy nastąpi nagłe wtargnięcie przed maskę samochodu np. rowerzysty łamiącego przepisy ruchu. Błędy w oprogramowaniu systemu autopilota to np. błąd systemu parkowania oraz niezauważenie przez system betonowej bariery oddzielającej dwa pasy i w konsekwencji zderzenie, które skutkowało zapaleniem się pojazdu. Wszystkie wypadki są szczegółowo analizowane, a system autopilota jest poprawiany by tego typu wypadek w przyszłości został wyeliminowany.

Zagrożenia, które generują pojazdy autonomiczne, to potencjalna możliwość cyberataków na układy autopilota. Hakerzy, przestępcy i terroryści dostają nową broń do ataków. Mogą sparaliżować system informatyczny autopilota. Wreszcie, nawet przy braku świadomych ataków, oddziaływanie zewnętrznych pól elektromagnetycznych może zakłócić działanie systemu autopilota. Badanie więc tzw. kompatybilności elektromagnetycznej (odporności na takie zakłócenia) staje się niezwykle istotnym elementem w dopuszczeniu do ruchu takich pojazdów.

Odnośnie do osób podróżujących pojazdami autonomicznymi wymagany będzie też prawdopodobnie jakiś rodzaj prawa jazdy (w zakresie np. umiejętności zachowania się w sytuacjach awaryjnych).

Unifikacja prawodawstwa w zakresie prawa o ruchu drogowym będzie na pewno wymagana (np. w USA i Europie istnieją różnice w określeniu zasad pierwszeństwa na skrzyżowaniu dróg równorzędnych).

Widzimy więc, że masowe wprowadzenie transportu autonomicznego wymaga jeszcze wielu badań i rozstrzygnięć w obszarach: techniki, legislacji i standaryzacji.

 


Podziel się tym materiałem z innymi:


Kliknij aby zobaczyć dokumenty zawierające wybrany tag: koncentracja komputer wypadek kierowca kolizja nawigacja sztuczna inteligencja pojazd autonomiczny bezpieczeństwo czynne pojazd inteligentny autonomizacja L3 Tesla
 
© Fundacja Opoka 2017
Realizacja: 3W
© Fundacja Opoka 2017
Realizacja: 3W