Interesujący problem dla inżynierów. Dwa samochody autonomiczne firmy Waymo uderzyły w odstępie kilku minut w holowanego przez lawetę pickupa. Pickup był ciągnięty tyłem, pod kątem, częściowo jechał po pasie (pasach?) do skrętu, które znajdowały się obok. Obydwa auta źle zinterpretowały widzianą przez siebie sytuację, dlatego firma ogłosiła „akcję przywoławczą” dotyczącą oprogramowania.
Samochody autonomiczne widzą w nocy, ale w dzień potrafią popełniać głupie błędy
Jak opisuje Waymo we wpisie na blogu, laweta nie zatrzymała się po pierwszym uderzeniu, pojechała dalej. Kilka minut później o holowanego pickupa zahaczył kolejny samochód firmy. Nie ucierpiał żaden z ludzi, nie przerwano też działalności usługi transportu osób, uszkodzenia aut były minimalne.
Do zdarzenia doszło w Phoenix (Arizona, Stany Zjednoczone) 11 grudnia 2023 roku. Cztery dni później przedsiębiorstwo zdecydowało się powiadomić regulatora (NHTSA), aktualizacja oprogramowania, która rozwiązywała problem, była dostępna już dziewięć dni po zdarzeniu, 20 grudnia. NHTSA zasugerowała Waymo, że należy ujawnić informacje o przypadku, ogłosić „akcję przywoławczą”.
Z europejskiego punktu widzenia najważniejszy jest bodaj czas reakcji. I Tesla, i Waymo dały się poznać z tego, że potrafią łatać błędy w ciągu zaledwie dni – a w przypadku jazdy autonomicznej i sposobu identyfikacji pickupa, który jedzie holowany, nie było to zbyt łatwe zadanie. Tymczasem europejskie marki ciągle borykają się z aktualizacjami software’u, polegają na zewnętrznych dostawcach, miewają problemy nawet z dużymi update’ami, w których po prostu nadpisuje się stare pliki.