Hatékonyabb lidar az önvezető autók számára

Az önvezető autók általában egy óriás forgó hengerrel a tetejükön közlekednek, ez a lidar. A lidar infravörös fény impulzusokat küld ki, és méri az időtartamot, amíg az a tárgyakról visszaverődik. Így egy pontokból álló 3D térképet hoz létre, amely pillanatképként mutatja az autó környezetét.

A lidar egyik hátránya, hogy 3D adathalmaza óriási és számításigényes. Például egy tipikus 64 csatornás érzékelő másodpercenként több mint 2 millió pontot produkál. A további térbeli dimenzió miatt a korszerű 3D-s modellek 14-szer több számítást igényelnek a kép 2D-s megfelelőjéhez képest. Ez azt jelenti, hogy a hatékony navigálás érdekében a mérnököknek először általában 2D-re kell összecsukniuk az adatokat – ennek mellékhatása az, hogy jelentős információvesztést okoz.

Az MIT egy csapata egy önvezető rendszeren dolgozik, amely gépi tanulást használ, így nincs szükség egyedi kézi hangolásra. Új end-to-end keretrendszerük autonóm módon tud navigálni, csak a nyers 3D-s pontfelhő-adatokat és az alacsony felbontású GPS-térképeket felhasználva, hasonlóan a mai okostelefonokhoz.

A nyers lidar adatokból a végpontok közötti tanulás számítási szempontból intenzív folyamat, mivel hatalmas mennyiségű érzékszervi információit igényel a számítógéptől a kormányzás megtanulásához. Emiatt a csapatnak új mély tanulási összetevőket kellett megterveznie, amelyek hatékonyabban kihasználják a modern GPU-hardvereket, hogy valós időben irányítsák a járművet.

„Optimalizáltuk megoldásainkat algoritmusok és rendszer szempontjából egyaránt, nagyjából 9-szeres kumulatív gyorsulást értünk el a meglévő 3D lidar megközelítésekhez képest” – mondta Ph.D. Zhijian Liu diák, aki a cikk társszerzője volt Alexander Amini mellett.

A tesztek során a kutatók kimutatták, hogy rendszerük csökkentette azoknak az eseteknek a számát, amikor az embernek át kellett vennie az irányítást a géptől, még az érzékelők súlyos meghibásodásai esetén is.
Az önvezető autók kameráinak, valamint a rendszerek lidar érzékelőinek hasonló problémái vannak rossz időjárási viszonyok közt, mint az emberi szemnek a tükröződés miatt, amikor például egy alagútból hirtelen kiér a fényre. Ennek kezelésére az MIT csapatának rendszere különböző súlyokat rendel az egyes előrejelzésekhez egy döntés meghozatalakor. (Egy alagútból való kilépéskor például minden előrejelzést figyelmen kívül hagyna, amely bizonytalan a pontatlan szenzoros adatoknak köszönhetően.)

A csapat „hibrid bizonyításos fúzió”-nak nevezi megközelítését, mivel egyesíti a különböző irányítási döntéseket a mozgásra vonatkozó választásainak meghozatala során.

„Azáltal, hogy a modell bizonytalansága szerint összesíti a kontroll-előrejelzéseket, a rendszer alkalmazkodni tud a váratlan eseményekhez” – mondja Daniela Rus, az MIT professzora, a tanulmány egyik vezető szerzője.
Sok szempontból maga a rendszer három korábbi MIT-projekt fúziója:

  • MapLite, kézzel hangolt keret nagyfelbontású 3D-s térképek nélküli vezetéshez
  • „variációs végpontok közötti navigáció”, gépi tanulási rendszer, amelyet emberi vezetési adatok felhasználásával képeznek ki, hogy megtanulják, hogyan kell navigálni.
  • SPVNAS, egy hatékony 3D mély tanulási megoldás, amely optimalizálja a neurális architektúrát és a következtetési könyvtárat.

„Kihasználtuk a térkép nélküli vezetési megközelítés előnyeit, és kombináltuk a végpontok közötti gépi tanulással, így nincs szükségünk szakértő programozókra a rendszer kézi hangolásához” – mondja Amini.

Következő lépésként a csapat azt tervezi, hogy rendszerét továbbra is a valós világban – kedvezőtlen időjárási körülmények és más járművekkel való dinamikus interakcióban – teszteli, hogy egyre összetettebbé váljon.

Forrás: Tech Xplore

https://techxplore.com/news/2021-05-efficient-lidar-self-driving-cars.html

 

Lépjen kapcsolatba velünk

Budapest, Than Károly u. 3, 1119
(1) 371 5936