
Szele Tamás: A praetorianus-probléma
Nagyon érdekes etikai és műszaki-informatikai kérdéssel szembesült az Anthropic MI-fejlesztő cég: szabad-e olyan technológiát eladnia a Pentagonnak, ami később, továbbfejlesztve akár amerikai állampolgárok (vagy bárki más) ellen is bevethetővé válhat? Üzleti akadálya nincsen, de a jözan ész azt mondja, hogy vigyázni kéne az ilyesmivel. Ezt a The Washington Post járta körül, én az alábbiakban mutatom be – megjegyzéseimet szokás szerint csillag alatt, a bekezdések végén teszem meg.
Az tehát a helyzet, hogy az Egyesült Államok egyik vezető mesterséges intelligencia-cége tárgyalásokat folytat arról, hogy továbbra is együttműködhet-e a hadsereggel, miután a Pentagon tisztviselői megkérdőjelezték az egykor szoros kapcsolatuk megbízhatóságát a Nicolás Maduro venezuelai vezető elfogására indított januári rajtaütés után.*
*Igen ám, de azért „kérdőjelezték meg”, mert az Anthropic pedig megkérdőjelezte a Pentagon jogát ahhoz, hogy a Claude MI segítségével embereket öljön, még ha egyelőre „csak” venezuelai és kubai katonákról is volt szó. Egyelőre, mondom.
Az Anthropic Claude modellje egyike annak a maroknyi vezető AI-rendszernek, amelyet a Pentagon a kiberhadviselés terén meglévő képességeinek gyors kiépítésére, autonóm fegyverrendszerek teljesítményének javítására és a személyi állomány hatékonyságának növelésére használ.
Pete Hegseth védelmi miniszter csapata az elmúlt hetekben ragaszkodott ahhoz, hogy a hadseregnek teljes szabadságot kell biztosítani abban, hogy a nagy teljesítményű eszközöket saját belátása szerint használhassa. Az illetékesek szerint más vezető MI-cégek is csatlakoztak a követeléshez. Az OpenAI, a ChatGPT készítője, a Google és az Elon Musk-féle xAI beleegyezett abba, hogy a Pentagon „minden törvényes célra” használhassa a rendszereiket nem titkosított hálózatokon – mondta egy védelmi tisztviselő –, és dolgoznak a titkosított hálózatokra vonatkozó megállapodásokon is.
De az Anthropic – amely a rivalizáló cégek közül a leginkább biztonságorientáltként igyekezett beállítani magát – olyan vállalati alapelveket követ, amelyek megakadályozhatják abban, hogy a Pentagonnak teljesen szabad kezet adjon. A hagyományos fegyverekkel ellentétben a nagy teljesítményű mesterséges intelligencia-rendszerek sok olyan módon is bevethetők, amelyet tervezőik nem láthatnak előre, és a vita kérdéseket vetett fel azzal kapcsolatban, hogy kinek kellene a végső szót kimondania a katonai felhasználásuk esetén. Bár az Anthropic nem közölte, hogy pontosan milyen aggályai vannak a Pentagon követeléseivel kapcsolatban, vezérigazgatója nemrégiben figyelmeztetett az autonóm fegyverek és az MI-alapú tömeges megfigyelés veszélyeire.
A The Washington Postnak adott nyilatkozatában az Anthropic azt mondta, hogy „elkötelezett a mesterséges intelligencia határterületeken történő felhasználása mellett az amerikai nemzetbiztonság támogatására”.
„A Claude-ot a kormányzaton belül, beleértve a Védelmi Minisztériumot is, a felhasználási szabályzatunkkal összhangban a hírszerzéssel kapcsolatos felhasználási területek széles skáláján használják” – mondta az Anthropic. „Jóhiszemű, produktív beszélgetéseket folytatunk a Védelmi Minisztériummal arról, hogyan folytassuk ezt a munkát, és hogyan oldjuk meg ezeket az összetett kérdéseket.”*
*Ez azért kissé veszélyes lehet: a hírszerzés alapvetően olyan műfaj, ahol aránytalanul nagy a tévedés lehetősége és sokkal többet számít az emberi tényezők figyelembevétele, mint más területeken, márpedig pont ezekben számít gyengének az összes mai MI.
Az elmúlt hetekig az Anthropic irigylésre méltó helyzetben volt: 200 millió dolláros szerződést kötött az állammal, és technológiáját egyedülálló módon engedélyezték a Pentagon titkos hálózataiban való használatra. A Trump-adminisztráció tisztviselői szerint ez akkor kezdett gyorsan megváltozni, amikor az Anthropic reagált az eszközeinek a Pentagon által a Maduro-akcióban való közelmúltbeli használatára.
Az Anthropic Claude-ot és a Palantir védelmi cég által kifejlesztett technológiát használták a január 3-i rajtaütés előkészítésében egy, a támadást ismerő személy szerint, aki névtelensége megőrzése mellett nyilatkozott, hogy bizalmas részleteket oszthasson meg a műveletről. A rajtaütés során Maduro kubaiakból álló biztonsági őrsége és a venezuelai biztonsági szolgálat tagjai közül többeket megöltek.
A támadás után egy magas rangú védelmi tisztviselő elmondása szerint az Anthropic egyik vezetője megvitatta a rajtaütést a Palantir egyik igazgatójával, és megkérdezte, hogy az Anthropic eszközeit használták-e fel. A Palantir vezetője továbbította a kérdést a védelmi minisztériumnak, mondvá: az arra utalt, hogy az Anthropic esetleg nem értett egyet azzal, ahogyan a Claude-ot használták – mondta a tisztviselő. Ez arra késztette a minisztérium vezetőit, hogy kétségbe vonják, lehet-e teljes mértékben támaszkodni a vállalatra.
„Aggodalmuknak adtak hangot a Maduro-féle rajtaütés miatt, ami hatalmas probléma a minisztérium számára” – mondta egy kormányzati tisztviselő.
Az Anthropic azonban azt mondta, hogy nem tárgyalt semmilyen konkrét műveletről a Védelmi Minisztériummal, és a szigorúan technikai kérdésekkel kapcsolatos rutinszerű megbeszéléseken kívül „nem egyeztetett erről egyetlen ipari partnerével sem, és nem is fejezte ki aggodalmait”.
Úgy tűnik, a vita mélyebbre nyúlik, mint a venezuelai támadással kapcsolatos kérdések. Hegseth a mesterséges intelligencia dominanciáját elengedhetetlen képességnek tekinti a Pentagon számára, és utasításai arra sürgetik a hadsereget, hogy gyorsan haladjon a technológia átvételével. Januárban azt mondta, hogy az MI által vezérelt jövőben „a gyorsaság győz”, és utasította a Pentagont, hogy oldja fel az MI számára az adatok blokkolását a képzéshez, miközben arra sürgette a minisztériumot, hogy térjen át a hadjárat-tervezésről a „gyilkos parancsláncolat” (kill chain") fejlesztésére.
„Úgy kell megközelítenünk a kockázati kompromisszumokat, az egyenlőségi szempontokat és más szubjektív kérdéseket, mintha máris hadban állnánk” – írta Hegseth a 2026. januári irányelvekben.
Alig több mint két héttel Hegseth irányelveinek megjelenése után Dario Amodei, az Anthropic társalapítója és vezérigazgatója közzétett egy esszét, amelyben egy olyan lehetséges disztópiát vázolt fel, amelyben a mesterséges intelligencia megállíthatatlan fegyverek és megfigyelési eszközök új generációját teszi lehetővé. Mint írta:
„Aggódnunk kell amiatt, hogy autokráciák kezébe kerülnek, de amiatt is aggódnunk kell, hogy mivel nagyon erősek és alig elszámoltathatóak, jelentősen megnő annak a veszélye, hogy a demokratikus kormányok a saját népük ellen fordítják őket, hogy megszerezzék a teljhatalmat.”
*Ezt nevezem én a praetorianus-problémának. Gondolkodjunk egy kicsit. Az őskorban egyszerű volt megkaparintani a teljhatalmat: a legerősebb volt a törzsfőnök, ha valakitől féltette a hatalmát, azt egyszerűen leütötte és megette. Az ókorban, amikor már komoly hadseregekkel kellett számolni, nyilván az győzött, akár tulajdon polgártársaival szemben is, akinek erősebb volt a serege – és kéznél is volt, elérhető távolságban, mert ha Galliában tartózkodtak a hadak, az Rómában nem sokat ért. Ezért is lett volna tilos Caesarnak átlépnie a Rubicont a szenátus törvénye alapján. A császárság idején Rómában a praetoriánusok, a császári testőrség volt a „királycsináló”, aki őket meg- és lefizette, lekötelezte, az uralkodhatott, aki megfeledkezett róluk vagy elhanyagolta őket, az nem. Csakhogy vigyázni kellett az önérzetükre is, nem csak a zsebükre: Caligula ott rontotta el a jó dolgát, hogy állandóan obszcén jelszavakat adott meg Cassius Chaereának, a gárda egyik vezetőjének, addig sértegette, míg az végzett vele. Tehát a zsarnoki hatalom még a leghűségesebb, kiválóan megfizetett praetorianust is képes megsérteni, maga ellen hangolni, ugyanakkor mindennél nagyobb szüksége van arra a gárdára, amit a biztonságát és hatalmát garantálja. Itt vetődik fel az MI-vezérelt drónrajok alkalmazásának lehetősége. A világ legolcsóbb praetorianusai, sosem alszanak, nem kérnek enni, nem kell minden hónapban fizetni őket és minden körülmények között hűségesek maradnak: de vajon szabad-e egy ilyen eszközt a Trump-adminisztráció – vágy bármely jelenlegi kormányzat – kezébe adni? Nos, ez a praetorianus-probléma.
Az ilyen fegyverek valószínűleg csak a jövőben fognak megjelenni, de ha nem sikerül megállapodni róluk, az messzemenő következményekkel járhat.
A Pentagon felvetette, hogy az esszében vázolt felvetést az „ellátási lánc kockázatának” lehetne bélyegezni, ami nem csak az Anthropicra, hanem minden olyan cégre hatással lenne, amely a cég mesterséges intelligenciáját használja. A megjelölés eddig általában a kínai és orosz cégekre vonatkozott.
„Megkövetelhetjük ezek után, hogy minden beszállítónk és vállalkozónk igazolja, miszerint nem használ semmiféle Anthropic modellt” – mondta egy védelmi tisztviselő a The Postnak.*
*Ha megfigyeljük, itt Hegseth Pentagonja még csak nem is a hűtlenséget bünteti, hanem pusztán a kétkedő gondolatokat és azok nyilvánosságra hozatalát Dario Amodei részéről.
A múltban a cégek a Pentagonnal kötött szerződéseikben el tudtak helyezni olyan kiegészítéseket, amelyek mentesítették őket a felelősség alól, ha technológiájukat jogellenes módon használták fel, és lehetővé tették számukra, hogy a kormányt arra kötelezzék, hogy a technológiáikat csak törvényes célokra használják.
De ésszerűtlen lehet, hogy a Pentagonnal szerződést kötő cégek megpróbálják korlátozni a gyorsan fejlődő technológiájuk alkalmazásának módját – mondta Frank Kendall, aki a Biden-kormány idején a légierő államtitkáraként dolgozott, és felügyelte az autonóm harci repülőgépek flottájának fejlesztését.
„A hadsereg feladata az erőszak alkalmazása, és ha bármit is adunk a védelmi minisztériumnak, azt valószínűleg arra fogják használni, hogy segítsen embereket ölni” – fogalmazott Kendall.
A kormányzat azt állítja, hogy akciói – amelyek közé tartoznak az állítólagos karibi droghajók elleni amerikai rakétacsapások, az aktív szolgálatot teljesítő katonák amerikai földön történő bevetése és a két amerikai állampolgárt meggyilkoló erőszak alkalmazásáról szóló döntés is Minneapolisban – törvényesek voltak. A Trump-kormányzat azonban számos olyan független katonai és igazságügyi minisztériumi jogászt is elbocsátott, akiknek lehetőségük lett volna megkérdőjelezni ezeknek az akcióknak a jogszerűségét.
„ Aki aggódik amiatt, hogy ez a kormányzat törvénytelen dolgokat tesz, annak egyszerűen nem kellene velük együtt dolgoznia” – mondta Kendall.*
*Ez szó szerint igaz: vagy ha mégis velük és nekik dolgozik, ne csodálkozzon semmin.
A Pentagon már évek óta integrálja a mesterséges intelligenciát egyes fegyverrendszerekbe, de soha nem tette olyan sebességgel, mint most. Ezt részben a Kínával való verseny és az olyan fejlődő fenyegetések miatt van így, mint a hiperszonikus rakéták – ahol az emberi reakcióidő nem lehet megfelelő.
De hangsúlyt fektetnek arra is, hogy a mesterséges intelligencia kiszámíthatatlan tanulási képességét biztosítsák.
A kaliforniai Edwards légibázison próbálta ki 2024-ben a légierő az első mesterséges intelligenciával felszerelt vadászrepülőgépet szimulált légiharcokban – és a gép, egy F–16-os, amelyet egy fedélzeti számítógépen futó MI irányított, máris felülmúlta az elit tesztpilótákat azzal, hogy ezredmásodperceket faragott le a fordulókból és a manőverekből. Még ebben az esetben is volt egy ember a rendszerben, egy tesztpilóta a repülőgép fedélzetén, aki szükség esetén kikapcsolhatta a mesterséges intelligenciát – és magát a MI-t is egy olyan rendszerben tartották, amely nem kapcsolódott semmilyen hálózathoz. A légierő a mesterséges intelligenciával való kísérletek során azt mondta, hogy a biztonsági kockázatok elkerülése érdekében elsődleges szempont volt, hogy az MI által megtanult adatok tiszták legyenek.
2023-ban a Biden-kormányzat utasította a Pentagont, hogy a mesterséges intelligencia katonai rendszerekben történő bármilyen felhasználása felülvizsgálati szinteket, manipuláció elleni mechanizmusokat és biztosítékokat követeljen meg annak érdekében, hogy az embereknek továbbra is megmaradjon az erő alkalmazásával kapcsolatos döntéshozatali joga.
Ez az irányelv még mindig érvényben van, de szükség szerint felülvizsgálják – mondta a kormányzat egyik illetékes tisztviselője a The Washington Postnak.
Ezek után már emberi közreműködés vagy utasítás sem lesz szükséges a tökéletes zsarnokság létrehozásához. Az Anthropic még választhat: vagy segít ennek a megteremtésében, vagy felszámolják valamilyen módon és a kérdést megoldja Musk az ő kis Grokjával.
Mert azt azért nem hinném, hogy Musk etikai alapon elutasítana egy ilyen feladatot. Legfeljebb kicsit szórakozottan fogja megoldani, például nem Trumpot nevezi meg a Világ Császáraként a drónrajok számára, hanem mondjuk saját magát. Mindegy is: van olyan rossz, mint Trump.
Szele Tamás
