A mesterséges intelligencia már elég okos, hogy tudja, mikor nem megbízható

A mesterséges intelligencia kutatói olyan idegi hálózatot hoztak létre, amelyek tudják magukról, hogyha nem megbízhatóak. Ezeket a mélyen tanuló ideghálózatokat úgy tervezték meg, hogy utánozzák az emberi agyat, mérlegelve egymással egyensúlyban lévő tényezők sokaságát, olyan adatok tömegében észlelve a mintákat, amelyeket az emberek nem képesek elemezni.

Az AI már döntéseket hoz olyan területeken, amelyek befolyásolják az emberi életet, mint például az autonóm vezetés és az orvosi diagnózis, és ez azt jelenti, hogy létfontosságú, hogy a lehető legpontosabbak legyenek. Ennek a célnak az elősegítése érdekében ez az újonnan létrehozott neurális hálózati rendszer megalkothatja a megbízhatósági szintjét, valamint az előrejelzéseit.

„Szükségünk van nem csak arra, hogy nagy teljesítményű modelljeink legyenek, hanem észre kell vennünk azt is, amikor nem tudunk megbízni ezekben a modellekben” – mondja Alexander Amini informatikus  az MIT Számítástudományi és Mesterséges Intelligencia Laboratóriumától (CSAIL).

A megbízhatóság ezen öntudata a Deep Evidential Regression nevet kapta, és a rendelkezésre álló adatok minőségére alapozza megítélését – minél pontosabbak és átfogóbbak az adatok, annál valószínűbb, hogy a jövőbeni előrejelzéseik helyesek lesznek.

A kutatócsoport egy önvezető autóval példázza ezt, amely különböző szinten biztos abban, hogy egy kereszteződésben haladjon-e tovább, vagy várjon inkább, ha az ideghálózat kevésbé bízik az előrejelzéseiben. A megbízhatósági besorolás még tippeket is tartalmaz a magasabb minősítés megszerzéséhez (például a hálózat vagy a bemeneti adatok módosításával).

Míg hasonló biztosítékokat korábban is beépítettek az idegi hálózatokba, ami ezt megkülönbözteti, az a működési sebessége túlzott számítási igény nélkül – a hálózaton keresztül egy menetben, többször is elvégezhető, így a döntéssel egy időben annak megbízhatóságát is jelzi.

„Ez egy fontos és széles körben alkalmazható ötlet”, mondta a számítógép szakember Daniela Rus. „ “Olyan termékek értékelésére használható, amelyek tanult modellekre támaszkodnak. A megtanult modell bizonytalanságának becslésével azt is megtudhatjuk, hogy mekkora hibára számíthatunk a modelltől, és milyen hiányzó adatok javíthatják a modellt.”

A kutatók tesztelték új rendszerüket azzal, hogy megítéltették a mélységet egy kép különböző részeiben, hasonlóan ahhoz, ahogy egy önvezető autó megítéli a távolságot. A hálózat a meglévő beállításokhoz hasonlóan működött, miközben megbecsülte a saját bizonytalanságát is – a legkevésbé biztos valóban akkor volt, amikor tévedett a mélység megítélésében.

További bónuszként a hálózat képes volt megjelölni azokat az eseteket, amikor a szokásos hatáskörén kívül eső képekkel találkozott (annyira különbözött azoktól az adatoktól, amikre megtanították) – ami orvosi helyzetben azt jelentheti, mint amikor az orvos még egyszer ránéz a betegre.

Még ha az ideghálózatnak is igaza van az esetek 99 százalékában, ennek a hiányzó 1 százaléknak súlyos következményei lehetnek, a helyzettől függően. A kutatók bíznak abban, hogy új, korszerű megbízhatósági tesztjük javíthatja a biztonságot, bár a munkát még nem értékelték más szakértők.

„Kezdjük látni, hogy ezek a [neuronhálózati] modellek sokkal többször jelennek meg már a való világban, olyan helyzetekben, amelyek potenciálisan életveszélyes következményekkel járhatnak” – mondja Amini.

„A módszer bármely felhasználójának, legyen az orvos vagy a jármű utasülésén ülő személy, tisztában kell lennie a döntéshez kapcsolódó minden kockázattal vagy bizonytalansággal.”

A kutatást a decemberi NeurIPS konferencián mutatják majd be.

Forrás: Science Alert

https://www.sciencealert.com/neural-networks-are-now-smart-enough-to-know-when-they-shouldn-t-be-trusted

Lépjen kapcsolatba velünk

Budapest, Than Károly u. 3, 1119
(1) 371 5936