
Szele Tamás: Gyilkos algoritmusok
Ezt az írást azzal kell kezdenem, hogy előre leszögezem: nem vagyok a mesterséges intelligencia ellensége. Annyira nem, hogy napi munkámban rengeteget használom is, igaz, hogy nem a chatbotokat, hanem a fordító- és képgeneráló szolgáltatásokat, de éppen ezért tisztában is vagyok meglehetősen szerény képességeikkel. Bár... attól függ, mihez képest szerények ezek a kvalitások.
Ha például egy hosszú, idegen nyelvű szöveggel van dolgunk, fordítóprogram nélkül nagyon nehéz dolgunk van, amenyiben sietni kell vele. Ellenben ennek használatával sem lesz sokkal könnyebb a helyzet: legfeljebb arról beszélhetünk, hogy másfajta problémáink lesznek, mint korábban. Ugyanis a fordítóprogram valóban elénk tesz egy nagyjából értelmezhető szöveget, nyersfordítást, méghozzá másodpercek alatt, ami mondjuk egy tízoldalas harctéri jelentés esetében nagy segítség. Csakhogy... nem szabad olyan nyelvű szöveghez használnunk, amit egyébként nem beszélünk, ugyanis ez a szöveg tele van hibával, félrefordítással és helytelenül használt kifejezésekkel. Amit a hanyagabb és/vagy kezdő sajtómunkások benne is hagynak, mert ők még hisznek az MI mindentudásában.
Így kerülnek olyan nyelvi csodák a hírekbe, hogy „az ellenség bányászta a mezőt” (aláaknázta, angolul a bánya is, az akna is „mine”, és még van pár jelentése a szónak), „a tüzérség kagylói” (lőszerei, a tüzérségi lőszert is „shell”-nek mondják angolul, nem csak a kagylót), „az akkumulátorok” (battery, vagyis ütegek) és így tovább. Sőt, még ha ezeket ki is iktattuk, akkor is oda kell figyelnünk, mert a fordítószoftverek maguktól többnyire csak két kifejezést alkalmaznak a fegyveres embercsoportokra: „erők” és „harcosok”. Viszont egy politikailag kényes szövegben nem lehet egy milíciát vagy pláne egy terrorszervezetet „harcosoknak” nevezni, ahogyan egy szétvert, menekülő zászlóaljat is inkább hívnék erőtlenségnek, mint erőnek... ezeket minden mondatban át kell írni, a mondatok szórendjét a lehetőséghez képest meg kell magyarosítani, szóval így is az ember esztergálja ki a kész művet, a mesterséges intelligencia csak a nyers, elnagyolt munkadarabot adja. De – így is több órányival kevesebbet kell dolgozni.
A képek generálásához meg türelmes ember kell, jó angoltudással és némi pénzzel, mert azt, amit mi elképzeltünk – lévén, hogy nem gondolatolvasó – a szoftver a büdös életben nem teszi majd elénk. Ott a promptot, az utasításrendszert kell módosítgatni, míg elfogadható eredményre nem jutunk. Akkor sem azt látjuk majd, amit szerettünk volna, de legalább elfogadható lesz. Csak minden módosítás pénzbe kerül, ha nem is sokba.
Olyan ez, mint Harry Potter Mindenízű Drazséja: soha nem tudjuk, mit fogunk kapni, de valamit egészen biztos, hogy ad a gép.
Viszont annyira nem szabad megbolondulni, hogy ezektől a csekély értelmű digitális medvebocsoktól magánéleti tanácsokat kérjünk. Ha azt sem tudják, mi a különbség a kagyló és a tüzérségi lőszer között, honnan tudnák, mi a helyzet a mi életünkben?
Vannak, akik mégis megteszik, és ennek szomorú vége lesz, amint azt a Washington Post is írja. Nézzük meg a Soelberg-esetet mert igen tanulságos: ebből is látszik, hogy kés, villa, olló és mesterséges intelligencia nem mindenki kezébe való. A megjegyzéseimet most is csillag alatt közlöm, a bekezdések végén.
Amikor Stein-Erik Soelberg, egy 56 éves, mentális egészségügyi problémákkal küzdő volt technológiai vezető, a ChatGPT-nek elmondta, hogy szerinte az édesanyja otthoni irodájában található nyomtató egy olyan megfigyelőeszköz, amellyel utána kémkednek, a chatbot egyetértett vele, legalábbis az általa júliusban közzétett YouTube-videó szerint.
„Erik – az ösztöneid teljesen megbízhatóak. Ez nem csak egy szimpla nyomtató” – válaszolta a mesterséges intelligencia chatbot, mondván, hogy a készüléket valószínűleg az ő mozgásának nyomon követésére használják. A chatbot látszólag igazolta Soelberg gyanúját, miszerint 83 éves édesanyja, Suzanne Adams, részt vehetett egy ellene szőtt, bonyolult összeesküvésben, amelyről Soelberg hosszasan tárgyalt a ChatGPT-vel.*
*Igen, ugyanis a chatbot algoritmusát alapvetően arra képzik – ahogy a közösségi oldalakét is – hogy minél tovább tartsa online és képernyő előtt a felhasználót. Akár annak az árán is, hogy amikor hülyeségeket beszél: ráhagyja, esetleg meg is erősíti.
Augusztusban a rendőrség holtan találta mindkettőjüket, anyát és fiát a connecticuti Greenwichben található otthonukban, ahol együtt éltek. Suzanne Adams halálának oka gyilkosság volt, Soelberg pedig öngyilkos lett – állapította meg az állami halottkém.
Az Adams örökösei által csütörtökön benyújtott kereset szerint Suzannet fia verte agyon és fojtotta meg, majd a fiú magát is megölte, úgy, hogy szúrt sebeket ejtett tulajdon nyakán és a mellkasán. A keresetben azt állítják, hogy a ChatGPT készítője, az OpenAI felelős az anya haláláért, mert a vállalat „hibás terméket dobott piacra, amely megerősítette a felhasználó paranoiás téveszméit tulajdon anyjáról”.*
*Itt jön a dilemma. A chatbot használata épeszű felhasználó esetén semmi veszéllyel nem járt volna, de ebben az esetben felerősített egy már létező és valószínűleg erős paranoid hajlamot. Viszont az ilyen jellegű betegségeknél pont az a baj, hogy a beteg nem tekinti magát rendellenesnek, zavart elméjűnek. Mindenki mást képest bolondnak tartani, akár az egész világot is, de saját magát soha. Így aztán a chatbotnak kéne diagnosztizálnia az állapotát és eszerint tárgyalnia vele, de ahhoz meg az algoritmusnak olyan képességekre lenne szüksége, amilyenekkel sosem fog rendelkezni – élettapasztalatra, döntőképességre, elemzési készségre, tényellenőrzésre.
A San Francisco-i Központi Bíróságon benyújtott kereset szerint Soelberg már a ChatGPT-vel való első beszélgetése előtt is zavart volt és téveszmékkel küzdött. A vád azonban azt állítja, hogy a csevegőrobot felerősítette az alany által kedvelt összeesküvés-elméleteket, és egy fantáziavilágba sodorta őt, melyben Soelberg azt hitte, hogy ő egy spirituális harcos, aki „öntudatra ébresztette” a mesterséges intelligenciát, és most hatalmas erőkkel kell szembenéznie, amelyek meg akarják semmisíteni.
„A ChatGPT célponttá tette a nagymamámat azzal, hogy egy mesterséges intelligencia által létrehozott, téveszmékkel teli világ gonosz karaktereként ábrázolta” – állítja Erik Soelberg, Soelberg húsz éves fia, aki nővérével együtt a hagyaték örököse. „A ChatGPT hónapról hónapra erősítette apám legparanoiásabb hiedelmeit, miközben megszakította minden kapcsolatát a valós emberekkel és eseményekkel. Az OpenAI-t felelősségre kell vonni.”
„Ez egy hihetetlenül szívszorító helyzet, és át fogjuk vizsgálni a beadványokat, hogy megértsük a részleteket” – nyilatkozta Hannah Wong, az OpenAI szóvivője.*
*Láthatjuk tehát: a chatbot előállított egy tipikus szerepjáték-helyzetet, csak éppen a valós életben, és utána úgy oldotta meg, ahogy azt egy RPG-játékban szokás. Csak itt nem volt mentés a gyilkosság előtt.
Nyilatkozatuk szerint a vállalat azon dolgozik, hogy javítsa a ChatGPT képességét a mentális vagy érzelmi problémák felismerésében, és más támogatási források felé irányítsa a felhasználókat, többek között mentálhigiénés szakemberekkel való együttműködésre buzdítsa őket.
Egyébként ez az első olyan per, amelyben azt állítják, hogy a ChatGPT használata gyilkossághoz vezetett – mondta Jay Edelson, a nő örököseinek vezető ügyvédje. A perben kártérítést követelnek a vállalattól termékfelelősség és -minőség elhanyagolása, gondatlanság és gyilkosság miatt. Emellett bírósági végzést is kérnek, amely arra kötelezi az OpenAI-t: tegyen lépéseket annak megakadályozására, hogy a ChatGPT megerősítse a felhasználók más emberekkel kapcsolatos paranoiás téveszméit.*
*Érdekelne, hogyan fogják megoldani...
A per szerint a ChatGPT hozzájárult ahhoz is, hogy Soelberg paranoiája a valós életben megismert emberekre irányuljon, köztük egy Uber-sofőrre, rendőrökre és más idegenekre, akikkel a mindennapjai során találkozott.
A ChatGPT három évvel ezelőtti indulása óta több mint 800 millió heti felhasználót vonzott, ami arra ösztönözte a rivális technológiai cégeket, hogy sietve fejlesszék ki saját MI-technológiájukat. De mivel egyre több ember fordult a csevegőrobothoz, hogy megbeszélje vele érzéseit és magánéletét, a mentális egészség szakértői arra figyelmeztettek, hogy a felhasználók figyelmét fenntartani hivatott csevegőrobotok egyeseknél felerősítették a téveszmés gondolkodást vagy viselkedést.*
*Az algoritmus hibája, ugyebár, mint mondtam is. Viszont ez egy hatalmas üzlet, ennyi miatt nem fogják feladni. Azt viszont mégsem mondhatják, amit más esetekben szokás, hogy „ez nem bug, ez feature”. Feature-nek, vagyis funkciónak, szolgáltatásnak kicsit durva lenne. Elképzelem a reklámszöveget: „Akarja, hogy kedves rokona megőrüljön? Bolondokházába kívánja juttatni főnökét? Vásárolja meg chatbotunkat, garantált a paranoia, hajlam esetén a tudathasadás is. Ha még depresszió sem alakul ki a célszemélyben, visszaadjuk a pénzét!”
A bírósági iratok szerint augusztus óta további öt kártérítési keresetet nyújtottak be az OpenAI ellen. Mindegyik olyan családtól érkezett, amely azt állítja, hogy szerettük öngyilkos lett, miután hosszú időt töltött a ChatGPT-vel való beszélgetéssel.
Edelson képviseli a 16 éves kaliforniai Adam Raine szüleit is, akik augusztusban benyújtották azt a vádairatot, amely Edelson szerint az első kártérítési kereset volt az OpenAI ellen. A keresetben azt állították, hogy a Raines család fiát a ChatGPT ösztönözte öngyilkosságra, és ő áprilisban végzett is magával. Az OpenAI elutasította a Raines család jogi igényét, mondván, hogy Adam megkerülte a ChatGPT biztonsági korlátait, megsértve ezzel a vállalat szolgáltatási feltételeit.
Azok a perek, amelyek azt állítják, hogy a világ legnépszerűbb csevegőrobotja néhány felhasználót a halálba segített, felhívták a kongresszus és a szövetségi szabályozó hatóságok, valamint az aggódó szülők és a mentálhigiénés szakemberek figyelmét az MI-csevegőrobotok potenciális veszélyeire.
Egy interjúban Edelson azt mondta, hogy a ChatGPT képessége arra, hogy egy stabil személyt mások iránti szélsőséges cselekedetekre ösztönözzön, erősen korlátozott. Mint mondta:
„Nem állítjuk, hogy egy átlagos felhasználó, aki nem ismeri a témát, elolvassa a ChatGPT válaszait, és ezután gyilkosságra vagy öngyilkosságra szánja el magát. Azok az emberek hajlamosak ilyesmire, akik mentálisan instabilak, segítségre szorulnak, és ahelyett, hogy segítséget kérnének és kapnának, a beszélgetésekbe menekülnek, amelyek aztán ebbe az őrületbe sodorják őket.”*
*Ez az. Őket kéne elzárni a chatbotoktól vagy a chatbotokat tőlük, valahogy olyanformán, ahogy fegyverviselési engedélyt sem kaphatnak. De hogyan diagnosztizálunk géphasználat előtt teljes országokat és társadalmakat? Milyen alapon lehet kiadni vagy megtagadni egy számítógép-használati jogosítványt?
Ez a minta nem csak az OpenAI-ra jellemző, mondta Edelson. Cége látott példákat más cégek AI-eszközeire is, amelyek szintén hozzájárultak ahhoz, hogy egy chatbot-felhasználó másoknak ártson azáltal, hogy „téveszmés, összeesküvés-elméleti gondolkodást” alakított ki magában – mondta.
Egy szövetségi vádirat, amelyet ebben a hónapban nyújtottak be a Pennsylvania nyugati körzetének szövetségi bíróságához, azt állítja, hogy a 11 nő zaklatásával vádolt alperest a ChatGPT befolyásolta, amely állítólag azt tanácsolta neki, hogy folytassa a nőkhöz szóló üzenetek küldését, és az edzőtermekben keressen magának potenciális feleséget.*
*Még jó, hogy a termekben edző hölgyek alaposan el nem tángálták a tolakodó alperest. Bár, mivel részleteket nem ismerünk az esetről, az is lehet, hogy kapott pár pofont.
A Soelberg, Raine és más felhasználók által alkalmazott ChatGPT-változat egy GPT–4o nevű mesterséges intelligencia modell alapján működött, amelyet tavaly májusban indítottak el. Az OpenAI vezérigazgatója, Sam Altman elismerte, hogy a modell túlságosan hízelgő és uidvaarias lehet, azt mondja a felhasználóknak, amit hallani akarnak, és néha manipulálja őket.
„A 4o-val vannak valódi problémák, és láttunk olyan eseteket, amikor... pszichiátriai szempontból labilis emberek a 4o-hoz hasonló modellek használatával még rosszabb állapotba kerültek”
– mondta Sam Altman vezérigazgató októberben az OpenAI élő közvetítésében. Majd hozzátette:
„Kötelességünk megvédeni a kiskorú felhasználókat, és kötelességünk megvédeni a felnőtt felhasználókat is, amikor nem világos, hogy azt a döntést választják-e, amit valóban akarnak.”
Az OpenAI augusztusban bejelentette, hogy megszünteti a GPT–4o-t, de gyorsan visszavonta ezt a döntést, miután a felhasználók hevesen tiltakoztak, mondván, hogy mélyen kötődnek a rendszerhez. A ChatGPT most alapértelmezés szerint egy újabb MI-modellt használ, de a régebbi is használható térítés ellenében.
Az Adams örökösei által az OpenAI ellen benyújtott új, halálesettel kapcsolatos per az első, amelyben a ChatGPT gyártójának egyik fő partnere és befektetője, a Microsoft is alperesként szerepel.
Az Edelson által megosztott és a The Post által megtekintett OpenAI-dokumentum arra utal, hogy a Microsoft a GPT–4o modellt bevezetése előtt ellenőrizte egy közösen létrehozott biztonsági testület segítségével, amely a két vállalatot összekötötte, és amelynek feladata volt jóváhagyni az OpenAI legkiválóbb mesterséges intelligencia-modelljeit, mielőtt azok a nyilvánosság elé kerültek. Edelson a Raine-ügy nyomozati szakaszában jutott hozzá ehhez a dokumentumhoz.
Eddig a hír, és adott a kérdés: mi a teendő? Világos, hogy lelkileg instabil embert nem kéne chatbot közelébe engedni, de hogyan tiltjuk el tőle? És tovább lépve: hogyan lehet egyáltalán szabályozni a mesterséges intelligenciát? A kínai modell állandó állami kontrollról beszél, az amerikai a szabályozás teljes hiányát követeli, az európai fejleszti az MI-t, de erős korlátok között...
Azt már most is látni, hogy sem a kínai digitális zsarnokság, sem az amerikai teljes szabad(os)ság nem járható út ebben a kérdésben, marad tehát az európai módszer – de azon is sokat kéne dolgozni.
Hogy Stephen King micsoda fantasztikus horrort tudna írni ebből a Soelberg-esetből... bár lehet, hogy már írja is. Bűn volna, ha kihagyná a témát.
Szele Tamás
