Olvasási idő: 3 perc 21 másodperc
A mesterséges intelligencia kulcsfontosságú technológia az önvezető járművek számára. Döntéshozatalra, érzékelésre, prediktív modellezésre és egyéb feladatokra használják. De mennyire sebezhetőek ezek az AI-rendszerek a támadásokkal szemben?
A Buffalo Egyetemen (UB) folyó kutatások ezt a kérdést vizsgálják, és az eredmények arra utalnak, hogy rosszindulatú támadások tönkretehetik ezeket a rendszereket. Lehetséges például, hogy egy jármű láthatatlanná tehető a mesterséges intelligencia által működtetett radarrendszerek számára, ha 3D nyomtatott objektumokat helyeznek el a járművön, amelyek eltakarják az észlelés elől.
A kutatók szerint az ellenőrzött kutatási környezetben végzett kísérletek eredménye nem jelenti azt, hogy a meglévő autonóm járművek nem lennének biztonságosak. Mindazonáltal ez hatással lehet az autóiparra, a technológiai, a biztosítási és más iparágakra, valamint a kormányzati szabályozókra és a döntéshozókra.
„Bár ma még újszerűek, az önvezető járművek a közeljövőben a közlekedés meghatározó formáivá válhatnak” – mondja Chunming Qiao, a SUNY Számítástechnikai és Mérnöki Tanszékének kiváló professzora, aki a munkát vezeti. „Ennek megfelelően biztosítanunk kell, hogy az ezeket a járműveket meghajtó technológiai rendszerek, különösen a mesterséges intelligencia modelljei biztonságban legyenek az ellenséges cselekményektől. Ezen dolgozunk szorgalmasan a Buffaloi Egyetemen.”
Az eredményeket számos tanulmány leírja 2021-ig visszamenően, amikor egy a Proceedings of the 2021 ACM SIGSAC Conference on Computer and Communications Security (CCS) folyóiratban megjelent kutatás mutatja be. Az újabb példák közé tartozik a Proceedings of the 30th Annual International Conference on Mobile Computing and Networking (közismertebb nevén Mobicom) májusi tanulmánya, valamint az e havi 33. USENIX Security Symposium egy tanulmánya, amely az arXiv rendszeren érhető el.
Az mmWave érzékelés hatékony, de sérülékeny
Az elmúlt három évben Yi Zhu és Qiao csapatának többi tagja tesztelt egy autonóm járművet az UB északi kampuszán.
Zhu, a kiberbiztonság specialistája, a fent említett cikkek elsődleges szerzője, amelyek a lidarok, radarok és kamerák, valamint az ezeket az érzékelőket összekapcsoló rendszerek sebezhetőségére összpontosítanak.
„Az autonóm vezetés során a milliméterhullámú [mmWave] radar széles körben elterjedt az objektumok észlelésére, mivel esőben, ködben és rossz fényviszonyok között megbízhatóbb és pontosabb, mint sok kamera” – mondja Zhu. – „De a radar digitálisan és személyesen is feltörhető.”
Ennek az elméletnek az egyik ilyen tesztje során a kutatók 3D nyomtatókat és fémfóliákat használtak bizonyos geometriai formájú tárgyak előállítására, amelyeket „csempemaszkoknak” neveztek. Ha két csempemaszkot helyeztek el egy járműre, azt találták, hogy félrevezethetik az AI-modelleket a radarészlelésben, így ez a jármű eltűnik a radarról.
A támadás motiváló tényezői közé tartozhat a biztosítási csalás, és az AV-verseny
Zhu megjegyzi, hogy bár a mesterséges intelligencia rengeteg információt képes feldolgozni, összezavarodhat, és helytelen információkat közölhet, ha speciális utasításokat kap, amelyek kezelésére nem lett kiképezve.
„Tegyük fel, hogy van egy képünk egy macskáról, és a mesterséges intelligencia pontosan tudja azonosítani, hogy ez macska. De ha megváltoztatunk néhány pixelt a képen, akkor az AI azt gondolhatja, hogy ez egy kutya képe” – mondja Zhu. „Ez a mesterséges intelligencia átverésének példája. Az elmúlt években a kutatók számos átverési példát találtak vagy terveztek különböző AI-modellekhez. Feltettük magunknak a kérdést: lehetséges-e példákat tervezni az AI-modellekre autonóm járművekben? ”
A kutatók megjegyezték, hogy a potenciális támadók titokban ráragaszthatnak egy megtévesztő tárgyat a járműre, mielőtt a vezető megkezdi az utazást, ideiglenesen leparkol, vagy megáll egy közlekedési lámpánál. Még egy tárgyat is elhelyezhetnek valamiben, amit egy gyalogos visel, például egy hátizsákba, ami hatékonyan gátolja meg a gyalogos észlelését, mondja Zhu.
Az ilyen támadások lehetséges motivációi közé tartozik a biztosítási csalás miatti balesetek előidézése, az autonóm vezetéssel foglalkozó társaságok közötti verseny, vagy a személyes vágy, hogy megsebesítsék egy másik jármű vezetőjét vagy utasait.
A kutatók szerint fontos megjegyezni, hogy a szimulált támadások feltételezik, hogy a támadó teljes mértékben ismeri az áldozat járművének radarobjektum-érzékelő rendszerét. Bár ezeknek az információknak a megszerzése lehetséges, a nyilvánosság körében nem túl valószínű.
A biztonság elmarad a többi technológia mögött
A legtöbb AV biztonsági technológia a jármű belső részére összpontosít, míg kevés tanulmány foglalkozik a külső fenyegetésekkel, mondja Zhu.
„A biztonság valahogy lemaradt a többi technológia mögött” – mondja.
Miközben a kutatók vizsgálták az ilyen támadások megállításának módjait, még nem találtak határozott megoldást.
„Úgy gondolom, hogy hosszú utat kell megtenni egy tévedhetetlen védelem megteremtéséig” – mondja Zhu. „A jövőben nem csak a radarok, hanem más szenzorok, például a kamera és a mozgástervezés biztonságát is szeretnénk megvizsgálni. Reméljük, hogy néhány védelmi megoldást is kifejlesztünk a támadások mérséklésére.”
Forrás: techxplore.com
Olvasási idő: 50 másodperc
A Dewesoft két új terméket – az Obsidiant és a Naviont – mutatott be az ADAS & Autonomous Vehicle Technology Expo California 2024 kiállításon.
A vállalat az Obsidian-t egy élvonalbeli szenzorfúziós platformként írja le, amelyet arra terveztek, hogy páratlan pontosságot és megbízhatóságot biztosítson az autonóm járművek számára, és azt állítja, hogy a fejlett adatfeldolgozási képességek biztosítják, hogy az Obsidian zökkenőmentesen integrálódjon a különböző érzékelőkkel, lehetővé téve a valós idejű döntéshozatalt és a fokozott biztonságot.
A Navion pedig a Dewesoft legújabb áttörése a navigációs rendszerek terén. „A legkorszerűbb Kalman algoritmusokkal megtervezett Navion kiemelkedő pontosságot biztosít összetett környezetekben, biztosítva, hogy az autonóm járművek biztonságosan és hatékonyan navigálhassanak még kihívásokkal teli körülmények között is” – magyarázta Bojan Čontala üzletfejlesztési igazgató.
A Dewesoft célja az volt, hogy a látogatók saját bőrükön tapasztalják meg az Obsidian és a Navion által az AV-iparban hozott újításokat. A csapat élő bemutatókat tartott, és válaszolt minden kérdésre.
Az ADAS & Autonomous Vehicle Technology Expo California kiállításra a San Jose McEnery Kongresszusi Központban került sor 2024. augusztus 28-án és 29-én.
Forrás: www.autonomousvehicleinternational.com
Olvasási idő: 1 perc 38 másodperc
Az Ambarella, egy élvonalbeli mesterséges intelligencia félvezető cég, és a Plus, amely mesterséges intelligencia alapú vezető-segítő és autonóm vezetési (AD) megoldásokat nyújt, integrálta a Plus PlusVision észlelési szoftverét az Ambarella CV3-AD AI a chipen alapuló rendszereinek domainvezérlő családjába (SoC).
A PlusVision egy nagy teljesítményű, transzformátor alapú AD észlelési szoftvercsomag.
Az együttműködés célja, hogy segítse a Tier 1 beszállítókat és autógyártókat az L2+/L3 autonómiával rendelkező, következő generációs járművek piacra dobásának felgyorsításában. A PlusVision a fejlett mesterséges intelligencia észlelési képességeit egy kiterjedt adatkészlettel kombinálja, amely több millió valós vezetési mérföldből származik az Egyesült Államokban, Európában és Ausztráliában.
Ennek az adatgyűjtésnek az a célja, hogy javítsa a szoftver azon képességét, hogy részletes és információban gazdag kimenetet biztosítson, ami kulcsfontosságú az autonóm vezetési irányelvek kialakításához. A PlusVision által biztosított egységes érzékelési szoftver megkönnyítheti ezen adatvezérelt irányelvek megvalósítását a különböző járműmodelleknél és felszereltségi szinteken.
David Liu, a Plus vezérigazgatója és társalapítója így nyilatkozott: „Örülünk, hogy együttműködhetünk az Ambarellával a PlusVision élvonalbeli észlelési képességeinek kínálatában a CV3-AD SoC-jeiken. Ez a kombináció rugalmas, nagy teljesítményű és energiahatékony észlelési megoldást kínál a Tier 1-ek és az OEM-ek számára, lehetővé téve számukra, hogy olyan jövőálló platformot hozzanak létre, amely hozzáigazítható a fejlődő autonómiaigényeikhez.”
A középkategóriás CV3-AD655 SoC-n futó PlusVision stack egyszerre 11 kamerát képes feldolgozni 30 képkocka/másodperc sebességgel, így több mint 200 méteres elülső kamera érzékelési tartományt biztosít.
A vállalatok azt mondják, hogy a partnerség optimalizálta a PlusVision modellt a CVflow AI-motorhoz a CV3-AD SoC-kben, ami egy nagy teljesítményű, alacsony késleltetésű, alacsony fogyasztású AI-feldolgozási megoldást eredményezett. Remélhetőleg a CV3-AD család hatékonysága segít növelni az akkumulátor hatótávolságát az új elektromos járművekben, és képes lesz az eredeti gyártók számára más szoftverek integrálására és differenciált funkciók létrehozására.
Fermi Wang, az Ambarella elnök-vezérigazgatója hozzátette: „Együttműködésünk a Plusszal a Tier 1s és az OEM-ek számára további élvonalbeli transzformátor alapú mesterséges intelligencia észlelési szoftvermegoldásokat kínál a következő generációs járműfejlesztések felgyorsítására. Ez egy sorsdöntő időszak az autóipar számára, és az ehhez hasonló megoldások rugalmasságot biztosítanak a Tier 1-eknek és az OEM-eknek, hogy hatékonyan megkülönböztessék kínálatukat és maximalizálják a vásárlói értéket.”
Forrás: autonomousvehicleinternational.com
Olvasási idő: 1 perc 48 másodperc
A WorldGen-1-et, egy többszenzoros generatív mesterséges intelligencia alapmodellt, amelyet egy teljes autonóm járműcsoport szimulálására terveztek, a Helm.ai, az ADAS, az autonóm vezetés és a robotika AI-szoftvereinek szállítója mutatta be.
A modellt úgy tervezték, hogy valósághű szenzor- és észlelési adatokat szintetizáljon többféle módozat és perspektíva szerint. Ezenkívül extrapolálhatja az érzékelőadatokat egyik modalitásról a másikra, és megjósolhatja az ego jármű és más ágensek viselkedését a vezetési környezetben. A Helm.ai szerint ezek a szimulációs képességek leegyszerűsítik az autonóm vezetési rendszerek fejlesztését és validálását.
A WorldGen-1 kihasználja a generatív mély neurális hálózati (DNN) architektúrákat és a mély tanítást, egy felügyelet nélküli képzési technológiát. Több ezer órányi vezetési adatra van kiképezve, amely magában foglalja az autonóm vezetési rendszer minden rétegét, beleértve a látást, az érzékelést, a lidart és a kilométer-mérést.
A modell valósághű érzékelőadatokat generál a térhatású kamerák számára, szemantikai szegmentációt az észlelési rétegben, lidar elölnézetet, lidar madártávlatot és az ego jármű útvonalát fizikai koordinátákban. A teljes AV csoportra vonatkozó adatok generálásával a rendszer célja, hogy az önvezető jármű szemszögéből pontosan lemásolja a lehetséges valós helyzeteket.
„A generatív mesterségesintelligencia-architektúrák innovációját a mély tanítási technológiánkkal kombinálva a generatív AI rendkívül skálázható és tőkehatékony formáját hozzuk létre. A WorldGen-1-gyel arra törekszünk, hogy bezárjuk az autonóm vezetés terén fennálló sim-to-real szakadékot, ésszerűsítve és egységesítve a csúcskategóriás ADAS és L4 rendszerek fejlesztését és érvényesítését. Ennek az eszköznek a célja a fejlesztés felgyorsítása, a biztonság javítása, valamint a szimuláció és a valós tesztelés közötti szakadék csökkentése” – mondta a Helm.ai vezérigazgatója és társalapítója, Vladislav Voroninski.
Ezenkívül a rendszer képes extrapolálni a valós kameraadatokat számos egyéb modalitásra. Ezt a funkciót arra tervezték, hogy biztosítsa a meglévő, csak kamerával rendelkező adatkészletek szintetikus többérzékelős adatkészletekké történő kiegészítését.
A szenzorszimuláción és az extrapoláción túl a WorldGen-1 képes előre jelezni a gyalogosok, a járművek és az ego-jármű viselkedését is a környező környezethez képest. Ez lehetővé teszi a mesterséges intelligencia számára, hogy a lehetséges forgatókönyvek széles skáláját hozza létre, beleértve a ritka sarkalatos eseteket, és több lehetséges kimenetet modellezzen a megfigyelt bemeneti adatok alapján.
Voroninski hozzátette: „A WorldGen-1-ből származó adatok előállítása olyan, mintha a valós vezetési környezetek változatos digitális testvéreinek hatalmas gyűjteményét hoznánk létre, olyan intelligens ügynökökkel kiegészítve, amelyek emberhez hasonlóan gondolkodnak és jósolnak, lehetővé téve számunkra, hogy megbirkózzunk az autonóm vezetés legösszetettebb kihívásaival.”
Forrás: autonomousvehicleinternational.com
Olvasási idő: 1 perc 13 másodperc
Az autóipari technológiai vállalat, a Luminar bemutatta Sentinel szoftvercsomagját, öt év szoftver- és mesterséges intelligencia-rendszerfejlesztést követően.
A Sentinel célja, hogy segítse az autógyártókat a fejlett biztonsági és autonóm funkciók fejlesztésének felgyorsításában a járművekben. A csomag proaktív biztonságot, érzékelést, 3D-s térképezést és lokalizációt, szimulációt és lidar funkciókat tartalmaz. A kezdeti szállítások ezen a héten kezdődtek, a tervek szerint a legjobb autógyártók számára az idei harmadik negyedévben fognak lezajlani.
A Sentinel a Luminar lidar hardvereit és mesterséges intelligencia-alapú szoftvertechnológiáit használja, amelyeket elsősorban a cég Szilícium-völgyben és Münchenben működő szoftvercsapatai fejlesztettek ki, külső szoftverpartnerek támogatásával, köztük a Scale AI-val, az Applied Intuitionnel és a Civil Mapsszel.
A Luminar azt állítja, hogy arra összpontosított, hogy az autógyártók számára olyan eszközkészletet biztosítson, amely a következő generációs biztonsági és autonóm képességeket valósítja meg a fogyasztói sorozatgyártású járművekben.
„Az emberek ismerik a Luminart a világméretű sorozatgyártású járművek úttörő lidar rendszereként, de 2017 óta új generációs mesterséges intelligencia-alapú szoftvereket is készítünk a nagyobb biztonság és autonómia érdekében” – mondta Austin Russell, a Luminar alapítója és vezérigazgatója.
„A piacra dobás nem is lehetne időszerűbb, mivel 2029-ig minden egyesült államokbeli sorozatgyártású jármű új generációs biztonságára vonatkozó új NHTSA-megbízatással rendelkezünk, és máig mi vagyunk az egyetlen olyan megoldás, amelyik megfelel ezeknek a követelményeknek. Ez lehetőséget ad számunkra, hogy nagy haszonkulcs mellett drasztikusan bővítsük azt az értéket, amelyet a járművek tartalmaznak.”
A Sentinel, amelyet először 2021-ben mutattak be prototípusként, folyamatos fejlesztés alatt áll, és az autógyártók és a technológiai vállalatok értékelni fogják a jövőbeni fejlett biztonsági és autonóm vezetési programokba való integrálhatóság szempontjából.
Forrás: autonomousvehicleinternational.com
Olvasási idő: 4 perc 58 másodperc
Egy gyors keresés az interneten számos videót eredményez, amelyek bemutatják a vezető nélküli autók szerencsétlenkedéseit, amelyek gyakran viccesek. De miért találjuk mulatságosnak ezeket a viselkedéseket? Lehet, hogy azért, mert éles ellentétben állnak azzal, ahogyan egy emberi sofőr kezelne hasonló helyzeteket.
A számunkra triviálisnak tűnő mindennapi helyzetek továbbra is jelentős kihívások elé állíthatják a vezető nélküli autókat. Ennek az az oka, hogy olyan mérnöki módszerekkel tervezték őket, amelyek alapvetően különböznek az emberi elme működésétől. A mesterséges intelligencia legújabb fejlesztései azonban új lehetőségeket nyitottak meg.
A nyelvi képességekkel rendelkező új mesterséges intelligencia rendszerek – például a chatbotok mögött meghúzódó technológia, mint a ChatGPT – kulcsfontosságúak lehetnek abban, hogy a vezető nélküli autók észszerűen és emberi sofőrként viselkedjenek.
Az autonóm vezetéssel kapcsolatos kutatások jelentős lendületet kaptak a 2010-es évek végén a mély neurális hálózatok (DNN) megjelenésével, amely a mesterséges intelligencia (AI) egy olyan formája, amely magában foglalja az adatok emberi agy által inspirált módon történő feldolgozását. Ez lehetővé teszi a forgalmi forgatókönyvek képeinek és videóinak feldolgozását a „kritikus elemek”, például az akadályok azonosítása érdekében.
Ezek észlelése gyakran magában foglalja egy 3D-s doboz kiszámítását, amely meghatározza az akadályok méretét, tájolását és helyzetét. Ez a járművekre, gyalogosokra és kerékpárosokra alkalmazott eljárás például osztályok és térbeli tulajdonságok alapján hozza létre a világ reprezentációját, beleértve a vezető nélküli autóhoz viszonyított távolságot és sebességet.
Ez az alapja az autonóm vezetés legszélesebb körben elfogadott mérnöki megközelítésének, az úgynevezett „sense-think-act” (érzékelés-gondolkodás-cselekvés) módszernek. Ebben a megközelítésben az érzékelő által szerzett adatokat először a DNN dolgozza fel. Az érzékelő adatait ezután az akadály mozgási pályájának előrejelzésére használják. Végül a rendszerek megtervezik az autó következő lépéseit.
Noha ez a megközelítés olyan előnyöket kínál, mint az egyszerű hibakeresés, az érzékelés-gondolkodás-cselekvés keretrendszernek van egy kritikus korlátja: alapvetően különbözik az emberi vezetés mögött meghúzódó agyi mechanizmusoktól.
Az agyműködéssel kapcsolatban sok minden továbbra is ismeretlen, ezért kihívást jelent az emberi agyból származó intuíció alkalmazása a vezető nélküli járművekre. Mindazonáltal a különböző kutatási erőfeszítések célja, hogy az idegtudományból, a kognitív tudományból és a pszichológiából merítsenek ihletet az autonóm vezetés javítása érdekében.
Egy régóta megalapozott elmélet azt sugallja, hogy az „érzékelés” és a „cselekedet” nem egymást követő, hanem egymással szorosan összefüggő folyamatok. Az emberek a környezetüket aszerint érzékelik, hogy mennyire képesek arra, hogy aszerint cselekedjenek.
Például amikor egy kereszteződésben balra kanyarodni készül, a járművezető a környezet meghatározott részeire és a kanyarodás szempontjából releváns akadályokra összpontosít. Ezzel szemben az érzékelés-gondolkodás-cselekvés megközelítés a teljes forgatókönyvet az aktuális cselekvési szándékoktól függetlenül dolgozza fel.
Egy másik lényeges különbség az emberekhez képest, hogy a DNN-ek elsősorban azokra az adatokra támaszkodnak, amelyekre betanították őket. Ha egy forgatókönyv akár enyhe szokatlan változásának van kitéve, meghiúsulhat, vagy fontos információk hiányozhatnak.
Az ilyen ritka, alulreprezentált forgatókönyvek, amelyeket „hosszú farkú eseteknek” neveznek, komoly kihívást jelentenek. A jelenlegi megoldások egyre nagyobb képzési adatkészletek létrehozását jelentik, de a valós élethelyzetek összetettsége és változékonysága lehetetlenné teszi az összes lehetőség lefedését.
Ennek eredményeként az olyan adatvezérelt megközelítések célja, mint az érzékelés-gondolkodás-cselekvés, az ismeretlen helyzetekre történő általánosítás. Az emberek viszont kiválóak az újszerű helyzetek kezelésében.
A világ általános ismeretének köszönhetően képesek vagyunk új forgatókönyveket felmérni a „józan ész” segítségével, amely a gyakorlati tudás, érvelés és az emberek általános viselkedés intuitív megértésének keveréke, amely egy életen át tartó tapasztalatokból épül fel.
Valójában az emberek járművezetése a társas interakció egy formája, és a józan ész kulcsfontosságú a közlekedők (más járművezetők, gyalogosok, kerékpárosok) viselkedésének értelmezésében. Ez a képesség lehetővé teszi számunkra, hogy váratlan helyzetekben józan ítéleteket és döntéseket hozzunk.
A józan ész megismétlése a DNN-ekben jelentős kihívást jelentett az elmúlt évtizedben, ami arra késztette a tudósokat, hogy radikálisan módosítsák a megközelítésüket. Az AI legújabb fejlesztései végre megoldást kínálnak.
A nagy nyelvi modellek (LLM-ek) – a technológia, amely a chatbotok, például a ChatGPT mögött áll – figyelemre méltó jártasságot mutattak az emberi nyelv megértésében és generálásában. Lenyűgöző képességeik abból fakadnak, hogy különféle területeken hatalmas mennyiségű információra képezték ki őket, ami lehetővé tette számukra, hogy a miénkhez hasonló józan észt fejlesszenek ki.
A közelmúltban a multimodális LLM-ek (amelyek képesek válaszolni a felhasználói kérésekre szövegben, képekben és videóban), mint például a GPT-4o és a GPT-4o-mini, egyesítették a nyelvet a látással, integrálva a kiterjedt világismeretet a vizuális inputok megmagyarázásának képességével.
Ezek a modellek képesek felfogni a bonyolult, ismeretlen forgatókönyveket, természetes nyelvi magyarázatokat adnak, és megfelelő intézkedéseket javasolnak, ígéretes megoldást kínálva a „hosszú farkú problémára”.
A robotikában megjelennek a vision-language-action modellek (VLAM), amelyek a nyelvi és vizuális feldolgozást a robot cselekvéseivel kombinálják. A VLAM-ok lenyűgöző korai eredményeket mutatnak a robotkarok nyelvi utasításokon keresztüli vezérlésében.
Az autonóm vezetés terén a kezdeti kutatások a multimodális modellek használatára összpontosítanak a vezetési kommentár és a cselekvés-tervezési döntések magyarázata céljából. Például egy modell jelezheti: „Egy kerékpáros áll előttem, aki lassítani kezd”, betekintést nyújtva a döntéshozatali folyamatba és növelve az átláthatóságot. A Wayve cég ígéretes kezdeti eredményeket mutatott fel a nyelvvezérelt vezető nélküli autók kereskedelmi szintű alkalmazása terén.
Míg az LLM-ek képesek kezelni a hosszú távú eseteket, új kihívásokat is jelentenek. Megbízhatóságuk és biztonságuk értékelése bonyolultabb, mint az olyan moduláris megközelítések esetében, mint az érzékelés-gondolkodás-cselekvés. Az autonóm járművek minden alkatrészét, beleértve az integrált LLM-eket is, ellenőrizni kell, amihez új, ezekhez a rendszerekhez szabott tesztelési módszerekre van szükség.
Ezenkívül a multimodális LLM-ek nagyok és jelentős számítógépes erőforrást igényelnek, ami magas késleltetéshez vezet (késés a műveletben vagy a számítógépről érkező kommunikációban). A vezető nélküli autóknak valós idejű működésre van szükségük, és a jelenlegi modellek nem tudnak elég gyorsan reagálni. Az LLM-ek futtatása jelentős feldolgozási teljesítményt és memóriát is igényel, ami ütközik a járművek korlátozott hardveres korlátaival.
Jelenleg számos kutatási erőfeszítés irányul az LLM-ek járművekben történő felhasználásra való optimalizálására. De eltelik még néhány év, mire józan ésszel rendelkező, vezető nélküli járműveket láthatunk az utcákon.
Az autonóm vezetés jövője azonban bíztató. A nyelvi képességekkel rendelkező mesterséges intelligencia modellek szilárd alternatívát kínálnak az érzékelés-gondolkodás-cselekvés paradigmához, amely közeledik határaihoz.
Az LLM-eket széles körben úgy tekintik, mint a kulcsot ahhoz, hogy olyan járműveket hozzanak létre, amelyek jobban tudnak úgy gondolkodni és viselkedni, mint az emberek. Ez az előrelépés döntő fontosságú, tekintve, hogy évente körülbelül 1,19 millió ember hal meg közúti balesetek következtében.
A közúti balesetek jelentik a vezető halálokot az 5-29 éves gyermekek és fiatal felnőttek körében. Az emberhez hasonló gondolkodású autonóm járművek fejlesztése potenciálisan jelentősen csökkentheti ezeket a számokat, és számtalan életet menthet meg.
Forrás: theconversation.com
Olvasási idő: 2 perc 12 másodperc
A német technológiai cég, a ZF Group bemutatta a ZF Annotate-et, egy mesterséges intelligencia által vezérelt, felhő alapú rendszert, amelyet a fejlett vezetőtámogató rendszerek (ADAS) és az automatizált vezetési (AD) megoldások fejlesztésének és minőségbiztosításának javítására terveztek.
A rendszer egy mesterséges intelligencia által támogatott validációs megoldás a modern ADAS/AD rendszerek tesztelésére és betanítására a 2+ szinttől az 5. szintig.
A ZF Globális Technológiai Napján jelentették be június 27-én a hannoveri Jeversenben, a szolgáltatás gyorsabbnak és költséghatékonyabbnak ígérkezik, mint a hagyományos módszerek – közölte a vállalat.
A ZF Annotate célja, hogy pontos és megbízható adatokat biztosítson, amelyek felhasználhatók az ADAS járművekben történő fejlesztéséhez. Ezek a rendszerek kamerák, radar, lidar és ultrahangos szenzorok segítségével 3D-s képet készítenek a jármű környezetéről, valós időben felismerve különféle objektumokat. Az érzékelők adatait pontosan kell feldolgozni, hogy a jármű megkapja a „pontos valóságot”, ami elengedhetetlen a biztonságos vezetési funkciók megvalósításához.
A ZF rendszerét úgy tervezték, hogy javítsa ezt a folyamatot azáltal, hogy az összegyűjtött szenzorinformációkat egy nagy pontosságú referencia-érzékelőkészlettel hasonlítja össze, amely 360°-os rálátást biztosít a jármű környezetére.
„A ZF Annotate egy robusztus és független referenciaérzékelő készlet előnyeit ötvözi egy skálázható felhőszolgáltatással, amely intelligens 2D és 3D nyomkövetési algoritmusokat használ” – mondta Dr. Holger Klein, a ZF igazgatótanácsának elnöke.
„Az AI-nak köszönhetően akár 10-szeresére is felgyorsíthatjuk az érvényesítési folyamatot, és így a feldolgozás idejét 12-ről két hónapra csökkenthetjük. Ezzel ügyfeleink számára időt és pénzt takaríthatunk meg.”
A szolgáltatás az ügyfél járműadatait és további ZF szenzoradatok rögzítését is felhasználja a pontos „alap valóság” biztosítására, a vizsgált érzékelőktől függetlenül működik, valós időben hasonlítja össze az adatokat a jármű működése során. A rögzített adatok ezután feltöltésre kerülnek a felhőbe, ahol az AI megjelöli, osztályozza és követi a releváns objektumokat.
A vállalat szerint a rendszer képes az adatok 80%-kal alacsonyabb költséggel történő feldolgozására, mint a manuális módszerekkel. Hagyományosan az ADAS és AD rendszerek validálása kiterjedt kézi annotálást igényelt, ami időigényes és költséges volt.
„A ZF Annotate segítségével a lehető legrövidebb időn belül képesek vagyunk „alap valóságot” generálni” – mondta Klaus Hofmockel, a ZF vezetőtámogató rendszerek és elektronikai részlegének kutatás-fejlesztési részlegének vezetője. „A nap 24 órájában, a hét minden napján történő munkavégzés lehetőségével felhőalapú szolgáltatásunk a piachoz képest rendkívül rövid idő alatt, minőségromlás nélkül végzi el a referenciaadatok validálását.”
A vevői igényektől függően a referenciaérzékelők magán a tesztjárművön vagy „Pursuit” módban is használhatók, ahol külön referenciaadat-járművet alkalmaznak. A ZF szerint ez a rugalmasság lehetővé teszi, hogy az Annotate független legyen az adott szenzorgyártótól, és a tesztjárművek jelentős módosítása nélkül integrálódjon a folyamatban lévő fejlesztési projektekbe.
„A megbízhatóság és a hatékonyság jelentős a referenciaadatok validálása és az egyre népszerűbb, fejlett vezetőtámogató rendszerek fejlesztése során” – mondta Klein. „A ZF Annotate mindkettőt kínálja egy skálázható rendszerben. Megoldásunkkal a ZF egy újabb építőelemet szállít a szoftveresen definiált járműhöz.”
Forrás: www.autonomousvehicleinternational.com
Olvasási idő: 1 perc 1 másodperc
A japán informatikai vállalat, az NTT Data és a Denso, autóipari alkatrészeket gyártó cég szándéknyilatkozatot írt alá, hogy stratégiai partnerséget alakítsanak ki a szoftverfejlesztésre összpontosítva.
Az együttműködés előremozdítja a japán autóipart, és különféle társadalmi problémákat kezel a vállalatok jármű- és számítási felhő-technológiáiban szerzett kombinált szakértelmén keresztül. A partnerek azt mondják, hogy együtt fognak dolgozni a stratégia, a tehetséggondozás és a technológia területén, kihasználva a Denso erősségeit a járműbe épített szoftverek területén és az NTT felhőalapú számítástechnikai szakértelmét a fejlett járműszoftverek fejlesztésében.
Az autóipar az automatizált vezetés, az elektromosítás és a mesterséges intelligencia fejlődésével halad előre. A szoftveresen definiált járművek koncepciója egyre fontosabbá válik, ami fokozott fejlesztési hatékonyságot, valamint a járművek és az infrastruktúra szorosabb integrációját teszi szükségessé. Az együttműködés célja ezen igények kielégítése a felhőtechnológia felhasználásával a járműszoftverek fejlesztésére és összekapcsolására.
A vállalatok azt is tervezik, hogy 2030-ig 3000 mérnököt vesznek fel és képeznek ki egy globálisan telepíthető szoftverorientált mobilitási szolgáltatási platform létrehozása érdekében. Ez a platform támogatja a járműbe épített szoftverek növekvő összetettségét és elterjedését az új járművekben. A partnerség első kezdeményezése egy közös szoftverfejlesztési rendszer és képzési programok létrehozása lesz mérnökök számára. Ezenkívül közösen fejleszt és telepít egy platformot a járműbe épített szoftverek hatékony fejlesztésének támogatására, IT-megoldások felhasználásával az AI-alapú kiértékelő eszközök és egyéb funkciók fejlesztésének javítására.
Forrás: www.autonomousvehicleinternational.com
Olvasási idő: 1 perc 18 másodperc
Az eSync Alliance egy autóipari kezdeményezés, amelynek célja egy biztonságos platform felépítése a végpontok közötti OTA-hoz (távoli frissítésekhez), most sikeresen bemutatta a konténeres szoftverek valós idejű, vezeték nélküli frissítéseit egy autóipari alkalmazásban.
Az év eleji nevadai Las Vegas-i Consumer Electronics Show (CES) sikeres statikus bemutatóját követően az eSync Alliance mérnöki partnereivel együtt mutatta be a konténeres szoftverek OTA frissítéseit egy dinamikus autonóm járművön az AutoTech: Detroit rendezvényen.
A következő generációs okosjárműveket gyártó Pix Moving által kifejlesztett PIXKit jármű vezetési bemutatókat tartott a rendezvény parkolójában. Kezdetben a jármű megpróbált önállóan navigálni egy úton, de biztonságosan megállt, amikor akadályba ütközött. A frissített tervezési modul OTA telepítése után a jármű sikeresen megkerülte az akadályt és teljesítette a pályát.
Az OTA frissítések felgyorsítják az autonóm vezetési szoftverek fejlesztését, és javítják a képességeket a jármű teljes életciklusa során.
Ez a bemutató az eSync Alliance, az Autoware Foundation és a SOAFEE közös projektje volt.
Az eSync az autóipar egyetlen szabványosított kétirányú OTA-kapcsolata, amely kompatibilis az összes népszerű autóipari operációs rendszerrel és járműbeli architektúrával. Úgy tervezték, hogy lehetővé tegye az autógyártók számára a szoftverfrissítések telepítését a teljes járműben, miközben a diagnosztikai adatokat visszaküldik a gyártónak.
A szövetség tagjai aktívan részt vesznek ezeknek a specifikációknak a kialakításában, ami a Szövetség szerint gyorsabb és megbízhatóbb rendszerfejlesztést eredményez a teljes ellátási láncban.
Mike Gardner, az eSync Alliance ügyvezető igazgatója a következőket mondta: „Tevékenységünk az AutoTechnél: Detroit egy egyértelmű és határozott következő lépés, hogy bemutassuk az eSync platform előnyeit és képességét, hogy változást idézzen elő az egész autóiparban. A bemutató nem csak az eSync képességeit helyezi fókuszba, hanem azt is bizonyítja, hogy az együttműködés ezen a téren izgalmas eredményekhez vezet.”
Forrás: autonomousvehicleinternational.com
Olvasási idő: 1 perc 43 másodperc
A Helm.ai, a csúcskategóriás ADAS-hoz, 4. szintű autonóm vezetéshez és robotautomatizáláshoz szükséges fejlett mesterségesintelligencia-szoftver szolgáltatója bemutatott egy generatív mesterséges intelligencia-modellt, amely rendkívül valósághű videósorozatokat készít vezetési jelenetekről az autonóm vezetés fejlesztéséhez és ellenőrzéséhez.
A VidGen-1 elindításaként ismert mesterséges intelligencia technológia a Helm.ai GenSim-1 bejelentését követi az AI által generált címkézett képekhez, és hasznos mind az előrejelzési feladatokhoz, mind a generatív szimulációhoz.
A több ezer órányi változatos vezetési felvételen kiképzett mesterséges intelligencia-videótechnológia a mély neurális hálózati (DNN) architektúrákat és a mély tanítási technológiát, egy felügyelet nélküli képzési technológiát használ fel, hogy valósághű videósorozatokat készítsen a vezetési jelenetekről. Ezek a videók – amelyek 384 x 640-es felbontásban, akár 30 képkocka/másodpercig változó képkockasebességgel készülnek, és akár több percig is tarthatnak – akár véletlenszerűen, beviteli felszólítás nélkül, akár egyetlen képpel vagy bemeneti videóval is előállíthatók.
„Évek óta fejlesztett mély tanítási technológiánkat a generatív DNN-architektúrák további házon belüli innovációjával kombinálva rendkívül hatékony és méretezhető módszert kapunk valósághű, mesterséges intelligencia által generált videók előállítására. Technológiánk általános, és ugyanolyan hatékonyan alkalmazható az autonóm vezetésre, a robotikára és a videogenerálás bármely más területére, változtatás nélkül” – mondta a Helm.ai vezérigazgatója és társalapítója, Vladislav Voroninski.
A vállalat szerint a VidGen-1 a vezetési jelenetekről különböző földrajzi területeken, többféle kamerából és járműperspektívából képes videókat készíteni.
A modell egyszerre képes rendkívül valósághű megjelenést és időben konzisztens tárgymozgást produkálni, valamint emberszerű vezetési viselkedést tanulni és reprodukálni, hogy a jármű és a többi közlekedésben résztvevő közlekedési szabályoknak megfelelő mozgását generálja.
Valósághű videofelvételeket képes szimulálni különböző forgatókönyvekről több nemzetközi városban, beleértve a városi és külvárosi környezetet; különféle járműveket; gyalogosokat; kerékpárosokat; kereszteződéseket; kanyarodásokat; időjárási viszonyokat (például eső és köd); megvilágítási hatásokat (például vakító fény és éjszakai vezetés) és tükröződéseket a nedves útfelületen; fényvisszaverő épületfalakon és a jármű motorháztetején.
„A videó következő képkockájának megjóslása hasonló a mondat következő szavának előrejelzéséhez, de sokkal nagyobb dimenziójú” – mondta Voroninski.
„A vezetési jelenet valósághű videoszekvenciáinak generálása az autonóm vezetés előrejelzésének legfejlettebb formája, mivel a valós világ megjelenésének pontos modellezését jelenti, és magában foglalja mind a szándék előrejelzését, mind az útvonaltervezést, mint implicit részfeladatokat a legmagasabb szinten. Ez a képesség kulcsfontosságú az autonóm vezetéshez, mert a vezetés alapvetően arról szól, hogy előrejelezzük, mi fog történni.”
Forrás: autonomousvehicleinternational.com