Ostatnia aktualizacja oprogramowania 2019.16.2 do Tesli Model 3 odświeżyła interfejs liczników i wprowadziła nowy sposób prezentacji pojazdów, które znajdują się w okolicy. Niestety, nie wszystko jeszcze zostało doszlifowane – modele 3D na ekranie wpadają niekiedy w dziwne pląsy.
Skaczące bryły samochodów, czyli błędy w renderingu
Widoczne na ekranie bryły reprezentują sylwetki prawdziwych samochodów, które znajdują się w pobliżu Tesli. Są one rysowane w czasie rzeczywistym na podstawie obrazu uzyskiwanego przez kamery i regularnie przekształcane. Efekty bywają dość zaskakujące, co widać na poniższym filmie.
Just a dance off!???
Wow, look at those 360 moves!#Tesla #Model3 #Orlando pic.twitter.com/ZTpb5U95lv— Purple Model 3 (@nate_mccomb) 25 maja 2019
Problem jest dość łatwy do zdiagnozowania: komputer Tesli widzi niektóre pojazdy pod dość dużymi kątami i składa je w całość z kilku obrazów. Kierunek i zwrot ich ruchu interpretuje poprawnie, ale jeszcze nie radzi sobie z precyzyjnym zamienieniem kilku bardzo różnych płaskich fotografii w nieregularną bryłę, jaką jest samochód. Łatwo to sobie wyobrazić na przykładzie białego samochodu z innego ujęcia z kamer Tesli:
Dla nas jest oczywiste, że to jakiś van z otwartą maską, przy którym znajdują się ludzie. Dla Autopilota Tesli jest to nieregularny kształt z jednym kołem i pieszymi obok (obraz z kamery patrzącej w przód, góra-środek) oraz regularny tył samochodu. Wystarczy teraz, że elektronika uzna, że biały van stoi pod nieco innym kątem niż wydawało mu się ułamek sekundy wcześniej, a sylwetka samochodu na wyświetlaczach Tesli skokowo zmieni kąt ustawienia.
> Co Autopilot Tesli widzi podczas deszczu? Całkiem sporo! [wideo]
Z punktu widzenia fizjologii wzroku człowieka nieco przerażające jest to, jak bardzo ten system przypomina naszą, ludzką percepcję. Otóż obraz z tyłu Tesli Model 3 powstaje na bazie mniejszej liczby sensorów, które są w dodatku gorzej (niżej) ulokowane. Czyli widzi tam słabiej. My na granicy pola widzenia też mamy problem z poprawnym rozpoznawaniem kształtów, dobrze radzimy sobie tylko z percepcją ruchu.
Problemy uwidocznione na filmie tak naprawdę dotyczą również nas, ale ludzki umysł „wie”, że obiekty nie są w stanie przemieszczać się z takimi przyspieszeniami. Programiści z Tesli z pewnością to poprawią. A z czasem pewnie wpadną na pomysł, jak lepiej interpretować obraz mimo kiepskiej jakości źródeł.
Czytaj: przekroczą nasze, fizjologiczne ograniczenia. Wykonają krok poza możliwości ludzkiej percepcji…