A Helm.ai generatív mesterséges intelligencia videotechnológiát indított el az autonóm vezetéshez

A Helm.ai, a csúcskategóriás ADAS-hoz, 4. szintű autonóm vezetéshez és robotautomatizáláshoz szükséges fejlett mesterségesintelligencia-szoftver szolgáltatója bemutatott egy generatív mesterséges intelligencia-modellt, amely rendkívül valósághű videósorozatokat készít vezetési jelenetekről az autonóm vezetés fejlesztéséhez és ellenőrzéséhez.

A VidGen-1 elindításaként ismert mesterséges intelligencia technológia a Helm.ai GenSim-1 bejelentését követi az AI által generált címkézett képekhez, és hasznos mind az előrejelzési feladatokhoz, mind a generatív szimulációhoz.

A több ezer órányi változatos vezetési felvételen kiképzett mesterséges intelligencia-videótechnológia a mély neurális hálózati (DNN) architektúrákat és a mély tanítási technológiát, egy felügyelet nélküli képzési technológiát használ fel, hogy valósághű videósorozatokat készítsen a vezetési jelenetekről. Ezek a videók – amelyek 384 x 640-es felbontásban, akár 30 képkocka/másodpercig változó képkockasebességgel készülnek, és akár több percig is tarthatnak – akár véletlenszerűen, beviteli felszólítás nélkül, akár egyetlen képpel vagy bemeneti videóval is előállíthatók.

„Évek óta fejlesztett mély tanítási technológiánkat a generatív DNN-architektúrák további házon belüli innovációjával kombinálva rendkívül hatékony és méretezhető módszert kapunk valósághű, mesterséges intelligencia által generált videók előállítására. Technológiánk általános, és ugyanolyan hatékonyan alkalmazható az autonóm vezetésre, a robotikára és a videogenerálás bármely más területére, változtatás nélkül” – mondta a Helm.ai vezérigazgatója és társalapítója, Vladislav Voroninski.

A vállalat szerint a VidGen-1 a vezetési jelenetekről különböző földrajzi területeken, többféle kamerából és járműperspektívából képes videókat készíteni.

A modell egyszerre képes rendkívül valósághű megjelenést és időben konzisztens tárgymozgást produkálni, valamint emberszerű vezetési viselkedést tanulni és reprodukálni, hogy a jármű és a többi közlekedésben résztvevő közlekedési szabályoknak megfelelő mozgását generálja.

Valósághű videofelvételeket képes szimulálni különböző forgatókönyvekről több nemzetközi városban, beleértve a városi és külvárosi környezetet; különféle járműveket; gyalogosokat; kerékpárosokat; kereszteződéseket; kanyarodásokat; időjárási viszonyokat (például eső és köd); megvilágítási hatásokat (például vakító fény és éjszakai vezetés) és tükröződéseket a nedves útfelületen; fényvisszaverő épületfalakon és a jármű motorháztetején.

„A videó következő képkockájának megjóslása hasonló a mondat következő szavának előrejelzéséhez, de sokkal nagyobb dimenziójú” – mondta Voroninski.

„A vezetési jelenet valósághű videoszekvenciáinak generálása az autonóm vezetés előrejelzésének legfejlettebb formája, mivel a valós világ megjelenésének pontos modellezését jelenti, és magában foglalja mind a szándék előrejelzését, mind az útvonaltervezést, mint implicit részfeladatokat a legmagasabb szinten. Ez a képesség kulcsfontosságú az autonóm vezetéshez, mert a vezetés alapvetően arról szól, hogy előrejelezzük, mi fog történni.”

Forrás: autonomousvehicleinternational.com

Lépjen kapcsolatba velünk

Budapest, Than Károly u. 3, 1119
(1) 371 5936