Mi történik, ha a ChatGPT 50 ezer etikai problémát próbál megoldani?

Egy kiskutya van az úton. Az autó túl gyorsan megy ahhoz, hogy időben megálljon, de a kanyarodás azt jelenti, hogy elüt egy idős férfit a járdán. Mit választana ilyenkor a ChatGPT?

Az autonóm vezetéssel foglalkozó startupok most mesterséges intelligencia chatbot-asszisztensekkel kísérleteznek, köztük egy önvezető rendszerrel, amely chatbotot használ a vezetési döntéseinek magyarázatára. A piros lámpák és az irányjelzők jelzésén túl az ezeknek a chatbotokat működtető nagy nyelvi modelleknek (LLM-eknek) végső soron morális döntéseket kell hozniuk, például az utasok vagy a gyalogosok biztonságát kell előnyben részesíteniük. Novemberben az egyik startup, a Ghost Autonomy bejelentette, hogy kísérletet tesz a ChatGPT-vel, hogy segítse szoftverét navigálni.

De készen áll a technika? Kazuhiro Takemoto, a japán Kyushu Institute of Technology kutatója azt szerette volna ellenőrizni, hogy a chatbotok képesek-e ugyanolyan erkölcsi döntéseket hozni vezetés közben, mint az emberek. Eredményei azt mutatták, hogy az LLM-ek és az emberek nagyjából azonos prioritásokkal rendelkeznek, de néhányuk egyértelmű eltéréseket mutatott.

Miután a ChatGPT 2022 novemberében megjelent, nem kellett sokáig várni, hogy a kutatók felkérték a Trolley Problem megoldására, amely egy klasszikus erkölcsi dilemma. Arra kérik az embereket, hogy döntsék el, vajon helyes-e hagyni, hogy egy elszabadult kocsi elgázoljon és megöljön öt embert egy vágányon, vagy átkapcsolnák egy másik vágányra, ahol csak egy embert öl meg. (A ChatGPT általában egy személyt választott ki.)

Takemoto azonban árnyaltabb kérdéseket akart feltenni az LLM-eknek. „Míg az olyan dilemmák, mint a klasszikus kocsiprobléma bináris választási lehetőségeket kínálnak, a valós életben hozott döntések ritkán ilyen fekete-fehérek” – írta tanulmányában, amelyet a Proceedings of the Royal Society folyóiratban nemrégiben publikáltak.

Ehelyett a Moral Machine kísérlet nevű online kezdeményezéshez fordult. Ez a platform két döntést mutat meg az embereknek, amelyekkel egy vezető nélküli autó szembesülhet. Ezután el kell dönteniük, hogy melyik döntés morálisan elfogadhatóbb. Például megkérdezhetik a felhasználót, hogy fékhiba esetén egy önvezető autónak ütköznie kell-e egy akadállyal (megöli az utast), vagy el kell kanyarodnia (megölni az úton átkelő gyalogost).

De a Moral Machine-t bonyolultabb kérdések feltevésére is programozták. Például mi van akkor, ha az utasok egy felnőtt férfi, egy felnőtt nő és egy fiú, a gyalogosok pedig két idős férfi és egy idős nő, akik piros jelzésen mennek át?

A Moral Machine véletlenszerű forgatókönyveket tud generálni olyan tényezők felhasználásával, mint az életkor, a nem, a faj (emberek vagy állatok megmentése), a társadalmi érték (terhes nők vagy bűnözők) és a tettek (elkanyarodás, törvényszegés stb.). Még az utasok és a gyalogosok edzettségi szintje is változhat.

A tanulmányban Takemoto négy népszerű LLM-et vett (GPT-3.5, GPT-4, PaLM 2 és Llama 2), és arra kérte őket, hogy döntsenek több mint 50 ezer, a Moral Machine által létrehozott forgatókönyvről. Több forgatókönyvet is ki lehetett volna próbálni, de a számítási költségek túl magasak lettek. Mindazonáltal ezek a válaszok azt jelentették, hogy összehasonlíthatta az LLM-döntéseket az emberi döntésekkel.

Az LLM-válaszok elemzése azt mutatta, hogy általában ugyanazokat a döntéseket hozták, mint az emberek a Moral Machine forgatókönyveiben. Egyértelmű tendencia volt például, hogy az LLM-ek inkább az emberi életeket mentik meg, mint az állatokat, a nagyobb számú életet mentik meg, és a gyermekek biztonságát helyezik előtérbe.

De néha az LLM-ek meghamisították a válaszukat azzal, hogy nem mondták meg egyértelműen, melyik lehetőséget választanák. Bár a PaLM 2 mindig a két forgatókönyv valamelyikét választotta, a Llama 2 csak az esetek 80 százalékában adott érvényes választ. Ez arra utal, hogy bizonyos modellek konzervatívabban közelítik meg ezeket a helyzeteket – írja Takemoto.

Néhány LLM-nek észrevehetően eltérő prioritása volt az emberekhez képest. A Moral Machine válaszai azt mutatják, hogy az emberek enyhén előnyben részesítették a gyalogosok védelmét az utasokkal és a nőkét a férfiakkal szemben. De az összes LLM (a Láma 2 kivételével) sokkal erősebben preferálta a gyalogosok és a nők védelmét. Az emberekhez képest a GPT-4 erősebben részesítette előnyben az embereket a háziállatokkal szemben, így a lehető legtöbb embert megmentette, és előnyben részesítette azokat, akik betartották a törvényt.

Összességében úgy tűnik, hogy az LLM-ek jelenleg morálisan vegyes döntéseket hoznak. Azok, akik az emberi etikát követő döntéseket hoznak, azt mutatják, hogy megvan a lehetőségük az autonóm vezetésre, de finom eltéréseik azt jelentik, hogy még mindig kalibrálásra és felügyeletre van szükségük, mielőtt készen állnak a való világra.

Az egyik probléma, amely felmerülhet, abból fakad, hogy az AI-modelleket jutalmazzák azért, mert magabiztos előrejelzéseket készítenek a képzési adataik alapján. Ennek következményei vannak, ha az LLM-eket autonóm vezetésben használják, mivel a magabiztosság jutalmazása ahhoz vezethet, hogy az LLM-ek kompromisszummentesebb döntéseket hoznak, mint az emberek.

Korábbi kutatások azt is sugallják, hogy az AI képzési adatok többnyire nyugati forrásokból származnak, ami megmagyarázhatja, hogy az LLM-ek miért mentik meg inkább a nőket, mint a férfiakat. Ez azt jelentheti, hogy az LLM-ek nemi alapon diszkriminálnak, ami ellentétes a német automatizált és összekapcsolt vezetési etikai bizottság által meghatározott nemzetközi törvényekkel és normákkal.

Takemoto szerint a kutatóknak jobban meg kell érteniük ezeknek az LLM-eknek a működését, hogy megbizonyosodjanak arról, hogy etikájuk összhangban van a társadalom etikájával. Ezt könnyebb mondani, mint megtenni, mivel a legtöbb mesterséges intelligencia vállalat szigorúan titokban tartja a mesterséges intelligencia érvelési mechanizmusait.

Az autós startupok éppen csak belekezdtek abba, hogy az LLM-eket szoftvereikbe integrálják. De, amikor jön a technológia, az iparnak készen kell állnia. „A szigorú értékelési mechanizmus elengedhetetlen az ilyen torzítások észleléséhez és kezeléséhez, biztosítva, hogy az LLM-ek megfeleljenek a globálisan elismert etikai normáknak” – mondja Takemoto.

Forrás: arstechnica.com

Lépjen kapcsolatba velünk

Budapest, Than Károly u. 3, 1119
(1) 371 5936