Hogyan fognak a jövő mesterséges intelligencia rendszerei etikus döntéseket hozni?

A mesterséges intelligencia (AI) már most is hoz döntéseket az üzleti élet, az egészségügy és a gyártás területén. Az AI-algoritmusok azonban általában továbbra is segítséget kapnak az ellenőrzéseket végrehajtó és az utolsó döntést meghozó emberektől.

Mi történne, ha az AI-rendszereknek független döntéseket kellene hozniuk, és olyanokat, amelyek életet vagy halált jelenthetnek az emberek számára?

A popkultúra régóta tükrözi a mesterséges intelligencia iránti általános bizalmatlanságunkat. A 2004-es I, Robot című sci-fi filmben Del Spooner nyomozó (akit Will Smith alakít) gyanakszik a robotokra, miután az egyik kimentette egy autóbalesetből, miközben egy 12 éves lányt hagyott megfulladni. Azt mondja:

„Én voltam a logikus választás. Kiszámolta, hogy 45% esélyem van a túlélésre. Sarah-nak csak 11% volt az esélye. De valakinek a gyereke volt – 11% több mint elég. Ezt egy emberi lény tudta volna.”

Az emberekkel ellentétben a robotokból hiányzik az erkölcsi lelkiismeret, és követik a beléjük programozott „etikát”. Ugyanakkor az emberi erkölcs nagyon változó. A „helyes” lépés minden helyzetben attól függ, hogy kit kérdezel.

Ahhoz, hogy a gépek teljes potenciálját kiaknázhassuk, meg kell győződnünk arról, hogy etikusan viselkednek. Felmerül tehát a kérdés: hogyan befolyásolja a mesterséges intelligencia fejlesztőinek és mérnökeinek etikája az AI döntéseit?

Képzeljünk el egy jövőt önvezető autókkal, amelyek teljesen autonómok. Ha minden a tervezettnek megfelelően működik, a reggeli ingázás alkalom lesz arra, hogy felkészüljünk a napi találkozókra, értesüljünk a hírekről, vagy hátradőljünk és lazítsunk.

De mi van, ha a dolgok rosszul mennek? Az autó egy közlekedési lámpához közeledik, de hirtelen meghibásodik a fék, és a számítógépnek a másodperc törtrésze alatt kell döntenie. Beleütközhet egy közeli oszlopba, és megölheti az utast, vagy tovább haladhat, és megölheti az előtte haladó gyalogost.

Az autót vezérlő számítógép csak korlátozottan fér majd hozzá az autó szenzorjain keresztül gyűjtött információkhoz, és ez alapján kell döntést hoznia. Bármilyen drámainak is tűnik ez, már csak néhány év választ el attól, hogy ilyen dilemmákkal szembesüljünk.

Az autonóm autók általában biztonságosabb vezetést biztosítanak, de elkerülhetetlenek lesznek a balesetek – különösen a belátható jövőben, amikor ezek az autók az emberi vezetőkkel és a többi közlekedővel osztoznak majd az utakon.

A Tesla még nem gyárt teljesen autonóm autókat, bár már tervezi. Ütközési helyzetekben a Tesla autók nem kapcsolják be és nem kapcsolják ki automatikusan az automatikus vészfékező rendszert (AEB), ha emberi vezető irányít. Más szóval, a sofőr cselekvéseit nem zavarják meg – még akkor sem, ha ők maguk okozzák az ütközést. Ehelyett, ha az autó potenciális ütközést észlel, figyelmeztetést küld a vezetőnek, hogy tegyen lépéseket.

„Autopilot” üzemmódban azonban az autónak automatikusan fékeznie kell, ha gyalogos van előtte. Egyesek azzal érvelnek, hogy ha az autó meg tudja akadályozni az ütközést, akkor erkölcsi kötelessége, hogy minden esetben felülbírálja a sofőr cselekedeteit. De szeretnénk, hogy egy autonóm autó meghozza ezt a döntést?

Mi lenne, ha egy autó számítógépe felmérné az utas és a gyalogos relatív „értékét”? Ha a döntése ezt az értéket venné figyelembe, akkor technikailag csak költség-haszon elemzést végezne.

Ez riasztónak tűnhet, de már folyamatban vannak olyan technológiák, amelyek lehetővé tehetik ezt. Például a nemrégiben átkeresztelt Meta (korábban Facebook) rendkívül fejlett arcfelismeréssel rendelkezik, amely könnyen azonosítani tudja a helyzetben szereplő személyeket.

Ha ezeket az adatokat beépítenék egy autonóm jármű mesterséges intelligencia-rendszerébe, az algoritmus minden életet kifejezhetne pénzben. Ezt a lehetőséget mutatja be egy 2018-as kiterjedt tanulmány, amelyet a Massachusetts Institute of Technology szakértői és munkatársai végeztek.

Moral Machine kísérlet során a kutatók különféle önvezető autós forgatókönyveket állítottak össze, amelyek arra kényszerítették a résztvevőket, hogy eldöntsék, egy hajléktalan gyalogost vagy egy vezető beosztásban dolgozó gyalogost öljenek meg.

Az eredmények azt mutatták, hogy a résztvevők választása az országukban tapasztalható gazdasági egyenlőtlenség mértékétől függött, ahol a nagyobb gazdasági egyenlőtlenség azt jelentette, hogy nagyobb valószínűséggel áldozták fel a hajléktalant.

Bár nem ennyire előrehaladott formában, de az ilyen adatösszesítést már alkalmazzák a kínai szociális kreditrendszerben, amely meghatározza, hogy az emberek milyen szociális jogosultságokkal rendelkeznek.

Az egészségügyi ágazat egy másik olyan terület, ahol a mesterséges intelligencia olyan döntéseket hoz, amely megmentheti az embereket vagy árthat nekik. A szakértők egyre több olyan AI rendszert fejlesztenek, amely észreveszi az anomáliákat az orvosi képalkotásban és segíti az orvosokat az orvosi ellátás fontossági sorrendjének megállapításában.

Egyelőre az orvosok mondják ki a végső szót, de ahogy ezek a technológiák egyre fejlettebbé válnak, mi történik, ha az orvos és az AI algoritmus nem ugyanazt a diagnózist állítja fel?

Egy másik példa az automatizált gyógyszeremlékeztető rendszer. Hogyan reagáljon a rendszer, ha a beteg nem hajlandó bevenni a gyógyszerét? És hogyan befolyásolja ez a páciens autonómiáját és a rendszer általános elszámoltathatóságát?

A mesterséges intelligencia által hajtott drónok és fegyverek etikailag is aggályosak, mivel dönthetnek a gyilkolásról. Ellentmondó nézetek vannak arról, hogy az ilyen technológiákat teljesen be kell-e tiltani vagy szabályozni kell-e. Például az autonóm drónok használata korlátozható lehetne csak a megfigyelésre.

Egyesek azt szorgalmazzák, hogy a katonai robotokat etikusan is programozzák. Ez azonban kérdéseket vet fel a programozó elszámoltathatóságával kapcsolatban abban az esetben, ha egy drón tévedésből civileket öl meg.

Számos filozófiai vita zajlott már az AI által meghozandó etikai döntésekről.

Az emberek gyakran küzdenek olyan döntésekkel, amelyek életüket megváltoztató következményekkel járhatnak. Amikor azt értékeljük, hogyan reagálunk az ilyen helyzetekre, az egyik tanulmány szerint a választási lehetőségek számos tényezőtől függően változhatnak, beleértve a válaszadó korát, nemét és kultúráját.

Ami az AI-rendszereket illeti, az algoritmusok betanítási folyamatai kritikusak a való világban való működésük szempontjából. Az egyik országban kialakított rendszert befolyásolhatja az adott ország nézetei, politikája, etikája és erkölcse, így alkalmatlanná válik egy másik helyen és időben történő használatra.

Ha a rendszer repülőgépet vagy rakétát irányít, akkor nagyfokú megbízhatóságot szeretnének elérni, hogy olyan adatokkal képezzék ki, amelyek reprezentálják a környezetet, amelyben használják majd.

Az AI nem „jó” vagy „gonosz”. Az emberekre gyakorolt ​​hatása a fejlesztők etikájától függ. Tehát ahhoz, hogy a legtöbbet hozzuk ki belőle, konszenzusra kell jutnunk arról, hogy mit tekintünk „etikusnak”.

Míg a magáncégeknek, állami szervezeteknek és kutatóintézeteknek megvannak a saját iránymutatásai az etikus mesterséges intelligencia tekintetében, az Egyesült Nemzetek Szervezete azt javasolta, hogy dolgozzanak ki egy „ átfogó globális szabvány-meghatározó eszközt” annak érdekében, hogy globális etikus mesterséges intelligencia-keretet biztosítsanak – és biztosítsák az emberi jogok védelmét.

Forrás: The conversation

https://theconversation.com/the-self-driving-trolley-problem-how-will-future-ai-systems-make-the-most-ethical-choices-for-all-of-us-170961

Lépjen kapcsolatba velünk

Budapest, Than Károly u. 3, 1119
(1) 371 5936