
Szele Tamás: Az MI köde és a sebesség csapdája
Szembe kell néznünk azzal a reális helyzettel, hogy rövidesen a katonai mesterséges intelligencia-alkalmazások és rendszerek leggyengébb pontja – az ember lesz. Az az ember, aki nem csak hivatott, de köteles is dönteni a bevetésekről, a célpontok meghatározásáról és végső soron, akié a felelősség a harc kimeneteléért. A Carnegie Alapítvány egyik friss tanulmánya disztópikus képet fest a közeljövő – sőt, már a jelen – háborúiról.
Minden harctér fölött ott lebeg az elháríthatatlan bizonytalanság: a háború köde. És már két évszázada ígéri a katonai innováció, hogy eloszlatja ezt a ködöt. Mostanában a mesterséges intelligenciát (MI) tarják annak a technológiának, amely végre képes lesz erre: az emberi találgatásokat a gépek pontosságával váltja fel, és olyan sebességgel dolgozza fel az adatok tengerét, hogy a bizonytalanság elavulttá válik.
Vannak valódi előnyei ennek a technológiának. Az MI megvédheti a katonákat azzal, hogy először gépeket vet be a veszélyes zónákban. Terabájtnyi szenzordatot tud feldolgozni, sokkal gyorsabban, mint bármelyik ember, és többrétegű légvédelmi rendszereket tud koordinálni a ballisztikus rakéták megállításához szükséges sebességgel. Bármely komoly európai politikai számvetés a katonai AI-vel kapcsolatban azzal kell kezdődjön, hogy elismeri: ezek a képességek életeket mentenek, és az ellenfelek bevetik őket, függetlenül attól, hogy a demokráciák hogyan döntenek.
De az előnyök elismerése nem egyenlő azzal, hogy figyelmen kívül hagyjuk, mi történik, amikor a sebesség, a kopás és a hatótávolság a hadviselés szervező elveivé válnak. Donald Trump amerikai elnök vitája az Anthropic céggel, amely ragaszkodott ahhoz, hogy modelljeit ne lehessen teljesen autonóm fegyverekhez vagy a tömeges belföldi megfigyelés elleni korlátok nélkül használni, azzal ért véget, hogy a Pentagon a vállalatot az ellátási lánc biztonsági kockázatának minősítette.
A világ legnagyobb katonai hatalmának üzenete tehát az, hogy a katonai mesterséges intelligenciára vonatkozó normatív korlátozás inkább az innováció akadálya, mint a törvényes használat előfeltétele.
Ez a vákuum felelősséget és lehetőséget is teremt Európa számára. Az EU megkezdte a védelmi technológiai bázis intézményi architektúrájának kiépítését a BraveTech EU, az EU védelmi iparának átalakítására vonatkozó ütemterv, valamint a drónok és a drónellenes biztonságra vonatkozó 2026-os cselekvési terv révén. Ezeknek a kezdeményezéseknek azonban többet kell tenniük, mint egyszerűen lemásolni a sebességmaximalizálás logikáját az MI-alapú védelmi innovációban. Európa komparatív előnye abban rejlik, hogy képes beépíteni a jogi elszámoltathatóságot, az érdemi emberi ítélőképességet és a mérlegelő folyamatokat a rendszerekbe még azok bevetése előtt – nem pedig azután, hogy a kár már bekövetkezett.
A gyakorlatban ez azt jelenti, hogy el kell fogadni, miszerint egyes célmegjelölési ciklusoknak lassúaknak kell maradniuk. Olyan doktrínára van szükség, amely a mérlegelő szünetet – azaz azt az időt, amelyre az embernek szüksége van ahhoz, hogy valóban értékelje és felülbírálja az algoritmus ajánlását – stratégiai erőforrásként kezeli, nem pedig operatív hátrányként. Emellett európai szinten érvényesíthető vörös vonalakra van szükség, amelyek beépülnek az MI teljes életciklusába, az innovációtól kezdve a fejlesztésen, a védelmi beszerzéseken és az exportellenőrzéseken át egészen az operatív doktrínáig. Az emberi ítélőképesség formális burka nem válhat az algoritmikus gyilkolás jogi alibijévé.
Az európai döntéshozóknak azonban arra is ügyelniük kell, hogy mindezt úgy tegyék, hogy közben ne fojtsák el azokat a kísérleteket, amelyek szükségesek az innováció folytatásához, ami pedig elengedhetetlen a harctéren elért létfontosságú marginális előny megszerzéséhez.
De lássuk a mér megismert tapasztalatokat.
Először is, a titkosított harctéri adatokra átképzett mesterséges intelligencia növelte az ukrán drónok bevetési hatékonyságát, így a kimerítő defenszív háborúból egy túlélhetőbb konfliktus lett. Másodszor, Izrael integrált parancsnoki rendszerei ma már valós időben koordinálják az elfogásokat az amerikai THAAD (Terminal High-Altitude Area Defense) ütegek, az Aegis hajók és az izraeli platformok között, meghatározva, melyik rendszer melyik beérkező rakétát képes elfogni, és megakadályozva az elfogórakéták pazarlását az iráni rakétatámadások során. Harmadszor, az amerikai Low-cost Uncrewed Combat Attack System (LUCAS) drón, amelyet először a 2026. februári Epic Fury hadművelet során vetettek be, statikus műholdas koordináták helyett képalapú objektumfelismerést használ. Ez javítja a pontosságot és csökkenti a civil áldozatok számát az iráni Shahed drónhoz képest, amelyből visszafejtették.
De ezeken a harctereken az MI valami veszélyesebbet is előidézett a klasszikus bizonytalanságnál: olyan ködöt, amelyet nem az információ hiánya, hanem éppen az információk bősége generál. Míg a klasszikus háborús köd a túl kevés ismerettel vakította el a parancsnokokat, az MI-háború köde a túl sok ismerettel vakítja el őket. Az algoritmikus pontszámok, a valószínűségi célpontlisták és az ajánlások gyorsabban érkeznek, mint ahogy bárki értékelni tudná őket. Az eredmény egy mesterségesen létrehozott átláthatóság, amely elrejti az MI fekete dobozának mélyebb homályát.
A 2026-os iráni konfliktus jó bizonyíték erre. Ez volt az első alkalom, hogy az Egyesült Államok harci bevetésre küldte a LUCAS támadó drónokat, valamint bevetette a nagy nyelvi modelleket, amelyeket állítólag műholdképek feldolgozására, jelek értékelésére és harci szimulációk futtatására használtak. A probléma nem csupán a drónokban rejlett. Hanem az érzékelés, az elemzés és a célmegjelölés MI-alapú összevonásában. Az embereknek kevesebb idejük maradt a gépi eredmények megkérdőjelezésére.
Minden hadszíntéren ugyanaz a dinamika ismétlődik: a mesterséges intelligencia olyan tempóra gyorsítja a célmegjelölési ciklust, amelyben az érdemi emberi felügyelet túl gyakran csak eljárásjogi értelemben létezik, de tartalmilag nincs jelentősége. Az érdemi ítélet azt jelentené, hogy felülvizsgálják a cél azonosítását, értékelik az arányosságot, és eldöntik, hogy támadjanak-e. Most az ember jelen van – de nincs ideje vitatkozni a géppel.
Ez olyan felelősségi problémát teremt, amelyet a klasszikus bizonytalanság soha nem vetett fel. A háború régi köde frusztrálta a parancsnokokat, de a felelősségi láncot érintetlenül hagyta. Az MI megosztja a felelősséget a fejlesztők, az adatelemzők, a beszerzési tisztviselők, az operátorok és a parancsnokok között, amíg a konkrét felelősség el nem tűnik. Az ember a folyamatban marad, de csak mint egy dokumentumon szereplő aláírás: jelen van és jogilag nyomon követhető, de a döntés tartalmára nézve funkcionálisan irreleváns.
A nemzetközi szabályozási erőfeszítések elmaradnak, vagy hatástalanok. Az MI-rendszerek máris radikálisan átalakítják a hadviselést, és ezek a változások nem mind károsak. De az MI-háború köde, az a mesterségesen létrehozott bizonyosság, amely az emberi ítélőképességet a gépi eredménnyel helyettesíti, nem fog magától eloszlani. Ezt szabályozni kell. Európa, tekintettel az amerikai vezetés jelenlegi visszalépésére a felelősségteljes katonai MI terén, egyedülálló helyzetben lehet ahhoz, hogy vezesse ezt a törekvést. A kérdés az, hogy cselekedni fog-e, mielőtt az algoritmikus célzás a fegyveres konfliktusok megkérdőjelezhetetlen normájává válik.
Ne értsük félre a dolgot, nem valamiféle vulgáris, puha fedelű, rikít borítójú sci-fibe illő „gépek lázadásával” van dolgunk, hanem egyszerűen azzal, hogy gyorsabb (és pontosabb) fegyvert teremtettünk annál, mint amit képesek vagyunk egyáltalán kezelni.
Baj akkor lesz, ha még autonómmá is tesszük, a nagyobb hatékonyság érdekében.
Egyelőre, paradox ugyan, de az lenne a megoldás, ha lelassítanánk a támadó, MI-vezérelt drónrendszerek célzási rendszereit.
Legalább lássuk, mit lövünk szét. Legyen időnk felismerni. És ne lőjünk szét mindent villámgyorsan, pusztán azért, mert a gépeink képesek rá.
Szele Tamás
