Ha Magyarországon hazudik egy sajtótermék, és le is lepleződik, akkor rendszerint hosszú csata kezdődik az ügyben: először megesküsznek, hogy sosem hazudtak, szemben ellenlábasaikkal, akik mindig, aztán cáfolni próbálnak, végül legeslegrosszabb esetben jön a sajtóper, és ha elmarasztaló az ítélet, a helyreigazítás. A legkorszerűbb orosz dezinformációs rendszerek pont fordítva működnek.
Hazudnak egy orbitálisat, majd ha esetleg nem vették észre a tényellenőrök és az érintettek ezt, azonnal felhívják magukra a figyelmet, e-mail útján, és kérik, mit kérik: követelik, hogy cáfolják meg őket! Persze: ugyanis az olvasottságukat az is növeli, ha a cáfolatban idézik a rágalmazó írást, és muszáj idézni – különben honnan tudná az olvasó, mit cáfolunk? A WIRED magazin az Overload nevű dezinformációs művelet legújabb híreit gyűjtötte egy csokorba egy most megjelent elemzés alapján.
Egy Oroszország-barát dezinformációs kampány a fogyasztói mesterséges intelligencia eszközeit használja fel a „tartalmi robbanás” előidézésére, amely többek között a világszerte zajló választások, Ukrajna és a migrációs kérdésekkel kapcsolatos meglévő feszültségek súlyosbítására összpontosít, a múlt héten közzétett új kutatás szerint.
A kampány, amely számos néven ismert, többek között Overload-műveletnek és Matrjoskának is hívják (más kutatók a Storm–1679 névvel illették), 2023 óta zajlik, és több csoport, köztük a Microsoft és az Institute for Strategic Dialogue is az orosz kormányhoz köti. Hamis narratívákat terjeszt a médiumok megszemélyesítésével, vagyis utánzása segítségével, azzal a nyilvánvaló céllal, hogy megosztottságot szítson a demokratikus országokban. Bár a kampány világszerte, többek között az Egyesült Államokban is megcélozza a közönséget, fő támadási területe Ukrajna volt. Több száz, mesterséges intelligenciával manipulált videó segítségével próbálja szítani az oroszbarát érzelmeket.
A jelentés felvázolja, hogy 2024 szeptembere és 2025 májusa között a kampányt működtetők által készített tartalmak mennyisége drámaian megnőtt, és világszerte több millióan tekintették meg őket.
Jelentésükben a kutatók 230 egyedi, a kampány által 2023 júliusa és 2024 júniusa között népszerűsített tartalmat azonosítottak, köztük képeket, videókat, QR-kódokat és hamis weboldalakat. Az elmúlt nyolc hónap során azonban az Overload-művelet összesen 587 egyedi tartalmat gyártott le, amelyek többségét mesterséges intelligencia-eszközök segítségével hozták létre.
A kutatók szerint a tartalmak megugrását a fogyasztói szintű mesterséges intelligencia-eszközök okozták, amelyek ingyenesen elérhetők az interneten. Ez a könnyű hozzáférés elősegítette a kampány „tartalom-összevonási” taktikáját, amelynek során a műveletet irányítók az MI-eszközöknek köszönhetően képesek voltak egyszerre több, ugyanazt a történetet népszerűsítő tartalmat előállítani.
„Ez a skálázhatóbb, többnyelvű és egyre kifinomultabb propagandataktikák felé való elmozdulást jelzi” – írják a jelentésben a Reset Tech, a dezinformációs kampányokat nyomon követő londoni székhelyű nonprofit szervezet és a Check First finn szoftvercég kutatói. „A kampány az elmúlt nyolc hónapban jelentősen felgyorsította az új tartalmak előállítását, ami a gyorsabb, hangolhatóbb tartalomkészítési módszerek felé való elmozdulást jelzi”.
A kutatókat megdöbbentette a kampány által követett eszközök és tartalomtípusok sokfélesége is. „Ami meglepett, az a tartalom sokszínűsége, a különböző típusú anyagok, amelyeket használni kezdtek” – mondta a WIRED-nek Alekszandra Atanaszova, a Reset Tech vezető nyílt forráskódú hírszerzési kutatója. „Olyan, mintha diverzifikálták volna a palettájukat, hogy minél több, mondhatni különböző szemszögből ragadják meg ezeket a történeteket. Egymásra rétegzik a különböző típusú információkat, egyiket a másik után.”
Atanasova hozzátette, hogy úgy tűnik, a kampány nem egyedi MI-eszközöket használt a céljaik eléréséhez, hanem mindenki számára elérhető MI-alapú hang- és képgenerátorokat alkalmaztak.
Bár nehéz volt azonosítani az összes eszközt, amelyet a kampány munkatársai használtak, a kutatóknak sikerült leszűkíteniük a kört egy konkrét eszközre: ez a Flux AI.
A Flux AI egy szöveg-kép generátor, amelyet a németországi székhelyű Black Forest Labs fejlesztett ki, amelyet a Stability AI korábbi alkalmazottai alapítottak. A SightEngine képelemző eszköz segítségével a kutatók 99 százalékos valószínűséggel megállapították, hogy az Overload kampány által megosztott hamis képek egy része – amelyek közül egyeseken állítólag Berlinben és Párizsban randalírozó és gyújtogató muszlim migránsok láthatóak – a Flux AI képgenerátor segítségével készült.
A kutatók ezután képesek voltak olyan képeket generálni, amelyek a közzétett képek esztétikáját nagymértékben lemásolják, diszkriminatív nyelvezetet – például a „dühös muszlim férfiak” kifejezést – tartalmazó utasításkészlet (prompt) segítségével.
Ez rávilágít arra, hogy „hogyan lehet visszaélni a mesterséges intelligenciát a szövegből képet létrehozó képi modellekkel a rasszizmus támogatása és a muszlimellenes sztereotípiák táplálása érdekében” – írták a kutatók, hozzátéve, hogy ez „etikai aggályokat vet fel azzal kapcsolatban, hogy a különböző mesterséges intelligencia-generálású modellekben hogyan működnek a promptok”.
„Többrétegű biztosítékokat építünk be a jogellenes visszaélések megelőzésére, beleértve a származási metaadatokat, amelyek lehetővé teszik a platformok számára az MI által generált tartalmak azonosítását, és támogatjuk a partnereinket további moderációs és származási szűrők bevezetésében” – írta a Black Forest Labs szóvivője a WIRED-nek küldött e-mailben. „A visszaélések megelőzése a kockázatcsökkentés rétegeitől, valamint a fejlesztők, a közösségi médiaplatformok és a hatóságok közötti együttműködéstől függ, és továbbra is elkötelezettek vagyunk ezen erőfeszítések támogatásában”.
Atanaszova a WIRED-nek elmondta, hogy az általa és kollégáival átvizsgált képek nem tartalmaztak metaadatokat.
Az Overload-művelet a mesterséges intelligencia hangklónozási technológiáit is használja a videók manipulálására, hogy úgy tűnjön, mintha prominens személyiségek olyan dolgokat mondanának, amelyeket soha ki sem ejtettek volna a szájukon. A kampány által készített videók száma a 2023 júniusa és 2024 júliusa közötti 150-ről 2024 szeptembere és 2025 májusa között 367-re ugrott. A kutatók szerint az elmúlt nyolc hónapban készült videók többsége mesterséges intelligencia-technológiát használt a nézők megtévesztésére.
Az egyik esetben például az Overloadfebruárban közzétett egy videót az X-en, amelyben Isabelle Bourdon, a franciaországi Montpellier-i Egyetem vezető oktatója és kutatója szerepelt, és látszólag arra buzdította a német állampolgárokat, hogy vegyenek részt tömeges zavargásokban, valamint szavazzanak a szélsőjobboldali Alternatíva Németországért (AfD) pártra a szövetségi választásokon. Ez hamisítvány volt . A felvétel az iskola hivatalos YouTube-csatornáján található videóból származik, amelyen Bourdon az általa nemrég elnyert társadalomtudományi díjról értekezik. A manipulált videóban azonban a mesterséges intelligencia-hangklónozási technológiája azt a látszatot keltette, mintha a német választásokról beszélne.
Az Operation Overload által létrehozott, MI-generált tartalmakat több mint 600 Telegram-csatornán, valamint olyan közösségi médiaplatformok botfiókjain osztják meg, mint az X és a Bluesky. Az elmúlt hetekben megezdték a terjesztésüket a TikTok-on is. Ezt először májusban észlelték, és bár a fiókok száma kicsi volt – mindössze 13 –, a közzétett videókat 3 millióan látták, mielőtt a platform leminősítette a fiókokat.
„Nagyon éberek vagyunk a platformunkat manipulálni próbáló szereplőkkel szemben, és már eltávolítottuk a jelentésben szereplő fiókokat” – mondta Anna Sopel, a TikTok szóvivője a WIRED-nek. „Folyamatosan észleljük és megakadályozzuk tevékenységüket – azon dolgozunk, hogy a titkos befolyásolási műveletek előtt járjunk pár lépéssel, és minden hónapban átláthatóan beszámolunk az elért eredményeinkről”.
A kutatók rámutattak, hogy míg a Bluesky a hamis fiókok 65 százalékát felfüggesztette, addig „az X minimális lépéseket tett a műveletről szóló számos jelentés és a koordinációra vonatkozó egyre több bizonyíték ellenére”.
Miután az Overload-művelet létrehozta a hamis és mesterséges intelligencia által generált tartalmakat, a kampány szokatlan dolgot tett: e-maileket küldött több száz médiumnak és tényellenőrző szervezetnek szerte a világon, amelyekben példákat mutattak a különböző platformokon megjelenő hamis tartalmakról, valamint arra kérték a tényellenőrzőket, hogy vizsgálják meg, azok valódiak-e vagy sem.
Bár egy dezinformációs kampány esetében ellentmondásosnak tűnhet, hogy figyelmeztetik azokat, akik a dezinformáció ellen próbálnak fellépni, az oroszbarát ügynökök számára az a végső cél, hogy a tartalmukat egy valódi hírportál tegye közzé az interneten – még akkor is, ha a „FAKE” („HAMIS”) címkével bélyegzi azokat fölül.
A kutatók szerint 2024 szeptembere óta akár 170 000 ilyen e-mailt is küldtek több mint 240 címzettnek. Az üzenetek jellemzően több linket is tartalmaztak a mesterséges intelligencia által generált tartalmakhoz, de az e-mail szövegét nem mesterséges intelligencia segítségével generálták.
Az oroszbarát dezinformációs csoportok már régóta kísérleteznek azzal, hogy mesterséges intelligencia-eszközöket használjanak a teljesítményük növelésére. Tavaly egy CopyCop nevű, valószínűleg az orosz kormányhoz kötődő csoportról derült ki, miszerint nagyméretű nyelvi modelleket (LLM-eket) használ hamisított weboldalak létrehozására, amelyeket úgy terveztek, hogy úgy nézzenek ki, mint a legális médiumok. Bár ezek a próbálkozások jellemzően nem járnak nagy forgalommal, a kísérő közösségi média-promóció figyelemfelkeltő lehet, és egyes esetekben a hamis információk a Google keresési találatainak élére kerülhetnek.
Az amerikai Sunlight Project egy nemrégiben készült jelentése szerint az orosz dezinformációs hálózatok évente legalább 3 millió mesterséges intelligenciával generált cikket állítanak elő, és ezek a tartalmak megmérgezik az olyan mesterséges intelligenciával működő chatrobotok kimenetét, mint az OpenAI ChatGPT-je és a Google Gemini.
A kutatók már többször kimutatták, hogy a dezinformációs ügynökök hogyan használják az MI-eszközöket, és mivel az emberek számára egyre nehezebbé válik a valódi és az MI által generált tartalmak megkülönböztetése, a szakértők előrejelzése szerint a dezinformációs kampányokat tápláló MI-tartalmak térhódítása folytatódni fog.
„Már megvan a receptjük. És működik” – mondta Atanaszova. „Tudják, mit csinálnak.”
Bizony működik, és kalapot kell emelnem a gazemberek előtt. Hazudnak valami hatalmasat az emberről, elhelyezik egy kevésbé látogatott vagy feltűnő felületen, oldalon, onnan osztogatják, és ha nem elég nagy a forgalom, szépen elküldik – az áldozatnak és a tényellenőröknek. Ugyanis a cáfolatban szerepelnie kell a rágalmazó eredetire mutató hivatkozásnak is – különben mit cáfolunk? Az álhírt ugyan agyonüti a tényellenőrzés, ezért is nevezem kamikazénak, de holtában is fertőz és terjed.
Így érik el, hogy végső soron a megrágalmazott áldozat terjessze tovább a rágalmakat saját magáról.
Zseniálisan aljas. Nehéz lesz még ennél is nagyobb disznóságot kitalálni, de biztos, hogy rövid időn belül sikerülni fog – az orosz dezinformátorok ebben a műfajban verhetetlenek.
Forrás:
https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/
A cikk az Európai Unió finanszírozásával készült. Az itt szereplő vélemények és állítások a szerző(k) álláspontját tükrözik, és nem feltétlenül egyeznek meg az Európai Unió vagy az Európai Oktatási és Kulturális Végrehajtó Ügynökség (EACEA) hivatalos álláspontjával. Sem az Európai Unió, sem az EACEA nem vonható felelősségre miattuk. A Zóna nem részesült a támogatásból, csak felületet biztosít a cikknek.
Szele Tamás