Uberi isesõitva autoga juhtunud õnnetus on tehnilises mõttes üsna jahmatama panev, isegi veel rohkem kui mõni nädal tagasi Tallinnas juhtunud Smartlynxi lennuõnnetus. Sest olukord oli tehnoloogia jaoks väga “lihtne”. Kuigi inimsilmale tundub pardakaamera videost, et jalakäijat polnud pimedas eriti näha, siis enamik isesõitva auto anduritest näevad pimedas sama hästi kui valges. Samuti, auto ei pidurdanud isegi siis, kui jalakäija oli otse auto ees ja ka pardakaamera videos väga hästi näha.
Niisiis, Uberi tehnoloogia kindlasti on suuteline selles olukorras jalakäijat märkama ja paremini käituma – ning tõenäoliselt on ka tuhandeid kordi seda edukalt teinud. Tõenäoliselt oli auto ees oleva takistuse peale pidurdamine lausa kõige esimene turva-abinõu, mille nad oma autole programmeerisid. Starshipi robotitele küll oli ning ma olen kümneid kordi meie robotile ette hüpanud, et vaadata, kuidas ta kohe pidurid blokki lööb.
Miks andurid Uberil antud juhul ei töötanud? On ainult kaks reaalset varianti:
- Mingi riistvaraline komponent oli rikkis ning auto polnud piisavalt hästi tehtud, et seda automaatselt tuvastada ning vastavalt reageerida (aeglustada kiirust, keelduda edasi sõitmast vms).
Sisuliselt oleks pidanud kuskil süttima punane tuluke “takistuste vältimise kaamera ei tööta”, kuid seda tulukest polnud keegi ehitanudki või siis ei töötanud see piisavalt hästi. See on küllalt tavaline, et arenduses keskendutakse oma fantastiliselt võimekale tehnoloogiale, mis töötab ulmeliselt hästi ja kõik on rõõmsad, aga unustatakse lisamata turva-abinõud tõsiasja jaoks, et tehnoloogia ei saagi töötada, kui juhe on lahti ühendatud, katki, aku on tühi, tarkvara juba viimased tund aega kokku jooksnud vms.
Starshipi robotites on kümneid selliseid turva-abinõusid ja oma sõidukogemuse ajal näeme ikka ja jälle, et suur osa turvalisusest seisneb just sellistes asjades. ISO Functional Safety sertifikaat, mis Starshipi robotitel on, keskendub just sellele – igasugune tehnoloogia on mõnikord rikkis ning turvalisuse saavutamiseks tuleb see rikkisolek kiiresti automaatselt tuvastada. Ühelgi isesõitval autol veel sellist sertifikaati pole – neil on seda raskem saada, sest mõistagi on autod tunduvalt ohtlikumad kui väikesed kõnniteerobotid.
- Inimfaktor testimise protsessides.
Näiteks sõideti mingi eksperimentaalse tarkvara versiooniga, mis ei pidanudki takistusi nii hästi nägema, ning keegi jättis kahe silma vahele instruktsioonid “selle autoga sõita ainult suletud territooriumil kuni 20km/h”. Või keegi mõtles, et tuleks selline silt sellele autole külge panna, aga siis tuli lõunapaus vahele ja ununes noh. Juhtub. Ohtlike tehnoloogiate katsetamise ajalugu on täis selliseid näiteid.
Kosmoserakettidele on andureid valepidi peale kruvitud ja siis nähtud, kuidas inimeste 10 aasta töö ilmatuma kärakaga plahvatab jne. Aja jooksul need protsessid arenevad, lisatakse topelt-kontrolle, kahe silmapaari nõuded, tarkvaralised “punased tulukesed” jne ning probleemid lahenevad.
Tasub meeles hoida, et Uberi isesõitvad autod on viimase aastaga sõitnud üle 1 miljoni kilomeetri – nende testimisprogrammis töötab tõenäoliselt 500+ inimest, kellest suur osa on palgatud viimase aasta jooksul. Sellise palkamise tempo juures on keeruline tagada, et protsessid on paigas ja neid ka tegelikult järgitakse. (Ilmselgelt ka antud autos olnud “safety driver” ei olnud piisavalt hoolas, kuid see polegi nii üllatav – inimesed ongi üldiselt väga kehvad masinate passiivses jälgimises).
Kokkuvõttes on selge, et Uberi autodes olev tehnoloogia on võimeline palju, palju paremaks. Antud õnnetus oli väga traagiline lastehaigus, mis kiiresti lahendatakse – kuid Uberi renomee sai sellega kindlasti suure hoobi. Sellele õnnetusele pole võimalik anda selgitust, mis ei näitaks Uberit halvas valguses.
Allikas: Ahti Heinla