Tegnap a TikTok félelmetesen primitív és épp ezért roppant hatékony algoritmusáról volt szó ezeken a hasábokon, ma a különböző platformok algoritmusairól úgy általában – és a kapcsolatukról a politikával. Mert bizony van a közösségi oldalak algoritmusainak politikai kötődése, mint az a The Insider elemzéséből ki is derül és ez a kötődés akarva-akaratlanul, de bizony szélsőjobboldali.
Idén májusban a francia digitális fejlesztési miniszter azt javasolta, hogy az EU-ban tiltsák be a közösségi hálózatokat a 15 év alatti gyermekek számára, hogy megkíméljék őket az algoritmusok káros hatásaitól. A kutatások azt mutatják, hogy az elmúlt évtizedben az algoritmikus ajánlórendszerek szinte kizárólagos felelőssége lett annak eldöntése, hogy egy felhasználó milyen tartalmakat lát, és milyeneket nem. Azáltal, hogy kitalálják a felhasználók érzelmi beállítottságát, az algoritmusok akaratlanul is az érzelmekkel teli, ellentmondásos, szenzációs és radikális tartalmakat részesítik előnyben – általában azokat, amelyeket szélsőjobboldali közösségek, politikusok és mozgalmak tesznek közzé. Ez közvetlen hatással van a kortárs politikára. A radikális posztok több kattintást és reakciót kapnak, és az algoritmusok jobban figyelembe veszik őket. Ennek eredményeképpen azonban a felhasználók nagyon specifikus információs buborékokban találják magukat. És a kutatók szerint ez nem hiba, hanem a platformok strukturális jellemzője, amelyeket arra terveztek, hogy a felhasználók görgessék a posztokat, osszák meg őket, és ideológiai visszhangkamrákba bújjanak.
Justin Brown-Ramsey, a Brown Egyetem végzős történészhallgatója középiskolásként kezdett egyre több időt tölteni az interneten, szülei 2015-ös válása idején. Ekkor találkozott Jordan Petersonnal, a pszichológiából doktorált, jobboldali véleményvezérrel és bloggerrel. A számítógép képernyőjéről Peterson azt kínálta Justinnak, ami éppen hiányzott neki: empátiát, megértést és látszólag egyszerű tanácsokat, hogyan javíthatna az életén. És ezzel együtt érveket a „nyugati civilizáció nagyságáról”, az „eltörlés kultúrájának” ártalmairól és így tovább.
Hamarosan a YouTube algoritmusai elkezdték elárasztani Justint más jobboldali bloggerek és politikusok ajánlásaival. Egy idő után, írja Justin, minden tartalom, amit fogyasztott, jobboldali és szélsőjobboldali bloggerektől és szerzőktől származott. Ennek eredményeképpen elkezdett naponta vitába szállni a #MeToo mozgalomról szóló videók alatt, megpróbálta megcáfolni a „baloldaliakat”, és aktívan átvette Peterson vitatechnikáját.
Justin hamarosan összeveszett a barátaival a rasszizmusról, a transzneműek jogairól és más témákról szóló viták miatt, tovább izolálódva online ideológiájában. Az oktatás segített neki, hogy kilépjen ebből a buborékból, újjáépítse a társadalmi kapcsolatait és megállítsa a radikalizálódást – de nem mindenki ilyen szerencsés.
A közösségi média nyúlüregében
Justin esete csak egy példa arra, hogy valakit elkapott az úgynevezett „radikalizálódási gépszíj”. Erre a jelenségre a különböző tanulmányokban és kiadványokban számos elnevezést találunk: ilyen például az „alt-right csővezeték” vagy a „nyúlüreg”. Ezeknek a csővezetékeknek a lényege, hogy a bejáratnál egy még nem kialakult nézetekkel bíró személy bekerül az automatikusan kiválasztott tartalmak örvényébe, és ennek következtében jelentősen megváltozik a világnézete. Ez különösen élesen megmutatkozott a Covid-járvány kezdetén – az első hónapokban például 19%-kal nőtt az oltásellenes csoportok tagjainak száma, és ezek hamarosan teljes értékű szélsőjobboldali összeesküvés-elméleti csoportokká fejlődtek.
Miért viselkednek így az algoritmusok, és miért támogatják a szélsőjobboldali tartalmakat? Justin kaphatott volna videóajánlásokat pszichológusokhoz és tiniknek szóló coachokhoz – elvégre kezdetben ez vonzotta őt a Petersonhoz –, ehelyett azonban az algoritmusok fokozatosan egyre radikálisabb szélsőjobboldali politikai tartalmakat ajánlottak. Az ajánlórendszereket úgy tervezték, hogy lekössék a figyelmünket, és minél több időt töltsünk az interneten. Ezért a gyakorlatban az érzelmileg legprovokatívabb vagy legellentmondásosabb tartalmakat ajánlják – egyszerűen azért, mert ezek a leghatékonyabbak. Az ilyen tartalmak leggyakrabban átpolitizált és radikális tartalmak.
Természetesen a különböző online platformok eltérő mintákat mutatnak, de végső soron – szándékosan vagy sem – a jobboldali tartalmakat népszerűsítik.
A Twitter belső vizsgálata, amelyet még azelőtt végzett, hogy a platformot megvásárolta volna Elon Musk, azt találta, hogy a jobboldali politikusoktól és kiadványoktól származó tweeteket az algoritmikus home feedekben jobban felerősítették, mint a baloldali forrásokból származó tweeteket – a hét vizsgált országból hatban, köztük az Egyesült Államokban, az Egyesült Királyságban és Kanadában. Kanadában például négyszer nagyobb volt az elfogultság a jobboldali tartalmak javára.
A Global Witness 2025. februári tanulmánya megállapította, hogy Németországban a TikTok és a Twitter (X) home feedjei („Neked” / For you) a szövetségi választások előtt aránytalanul nagy arányban ajánlottak szélsőjobboldali tartalmakat. A TikTok-on például az összes politikai ajánlás 78 százaléka az AfD-vel kapcsolatos tartalmakra vonatkozott – miközben a párt tényleges támogatottsága nem haladta meg a 20 százalékot. A Twitteren az összes ajánlott politikai tartalom 63 százaléka az AfD-é volt. A platformszintű elfogultság nyilvánvaló. És bizonyosan befolyásolhatja a közvéleményt: a „radikális tartalmaknak” való rendszeres kitettség valóban a radikális eszmék támogatásához vezet.
Egy másik tanulmány azt mutatja: a TikTok home feed algoritmusai nem egyszerűen passzív eszközként működnek, elfogulatlanul tükrözve a felhasználók ízlését. Éppen ellenkezőleg, a szerzők azt állítják, hogy a „csővezeték” funkciót a tervezés szintjén építették be a rendszerbe. A radikális és szélsőjobboldali tartalmak gyors terjedése és viralitása a platformon szerintük nem véletlen, sőt, nem is a felhasználói preferenciák következménye, hanem az algoritmusok munkájának teljes mértékben elvárt eredménye.
Joe Burton, a Lancaster Egyetem Politika, Filozófia és Vallás Tanszékének (PPR ) nemzetközi biztonsággal foglalkozó professzora „Algoritmikus szélsőségesség?” című írásában amellett érvel, hogy a modern algoritmusok egyre nagyobb szerepet játszanak a politikában. Most már maguk is aktívan hozzájárulnak a polarizációhoz, a radikalizmushoz és a politikai erőszakhoz. Burton úgy véli, hogy a probléma nem csupán a közösségi médiával, hanem a mesterséges intelligencia és az algoritmusok használata mögötti elvi szemlélettel van összefüggésben.
Az algoritmusokat – teljesen tudatosan – úgy hozzák létre, hogy kihasználják az emberi psziché jól ismert gyengeségeit. A szociológusok és pszichológusok már régóta állítják: a közösségi média algoritmusai a kognitív torzulásokra – különösen a „megerősítési torzításra” – játszanak rá. Vagyis arra a természetes emberi hajlamra, hogy olyan információkat keressünk és értékeljünk, amelyek alátámasztják a már kialakult meggyőződéseiket.
Ezért az érdeklődés és az elkötelezettség fenntartása érdekében az algoritmusok folyamatosan az álláspontjukhoz kapcsolódó tartalmakat. A szélsőjobboldali politikusok iránt érdeklődő felhasználók ugyanilyen szélsőjobboldali tartalmakat kapnak ajánlásokban, az oltásellenzők oltásellenes tartalmakat kapnak, és így tovább. Ezt gyakran nevezik „szűrőbuboréknak” – egy mesterségesen létrehozott információs térnek, ahol mindenki egyetért a másikkal, és az ellentmondásos információkat figyelmen kívül hagyják.
A pszichológiában népszerű „csoportpolarizációs modell” szerint az ilyen, egymással mindenben egyetértő emberek közösségei végül nemcsak megerősítik és támogatják a meggyőződésüket, hanem meg is erősítik és még radikálisabbá teszik azt. A „radikalizálódási csővezetékekkel” együtt a hatás baljós: az algoritmusok egyre inkább és megbízhatóan megerősítik a felhasználókat a szélsőséges ideológiákban.
Láthatatlan algoritmusok és valódi erőszak
Az online szélsőségesség valósággá válhat. Erre példa a 2022-es buffalói tömeges lövöldözés az Egyesült Államokban. A New York-i főügyész vizsgálati jelentése szerint a platformok algoritmikus ajánlásai és a tartalmak eltávolításának késedelmei hozzájárultak a lövöldöző radikalizálódásához – és végül az erőszakhoz. Az Egyesült Királyságban a szélsőjobboldali befolyásoló hálózatokról szóló Bellingcat-tanulmány azt mutatta ki, hogy a YouTube és a Telegram „toborzási terepként” szolgál, szélsőséges fórumokhoz és elszigetelt radikális közösségekhez irányítva az újonnan érkezőket.
A Netflix népszerű „Serdülőkor” című minisorozata egy hasonló információs és kulturális buborékban rekedt tinédzser sorsát mutatja be. A tanulmányok részletesen bemutatják azokat a mechanizmusokat, amelyek a mainstream tartalomtól a nőgyűlöletig és a szélsőségességig vezetnek. Az olyan hírszerző ügynökségeknek pedig, mint az MI5, éberen kell figyelniük a tizenévesekre: az Egyesült Királyságban a terrorizmus által veszélyeztetett személyek 13 százaléka 18 év alatti.
Az internet egy hasonló jellegű szegmensét „manoszférának” nevezik. Ez olyan közösségek fiktív, laza hálózata, amely a férfiak jogainak védelmében érdekelt embereket, inceleket, „randigurukat”, „felszedőművészeket” – mint a Tate fivérek vagy Arsen Markarian – tömörít. Más közvetítőkhöz hasonlóan a „manoszféra” is teljesen ártalmatlan „belépési pontokat” használ – például játékstreamingeket.
A Portsmouthi Egyetem tanulmánya szerint a nemek (és általában az emberek) gyakran sztereotip és leegyszerűsítő ábrázolása a játékokban kényelmes terepet teremt egyes influencerek számára, amelyet arra próbálnak felhasználni, hogy megvédjék és népszerűsítsék a kifejezetten nőellenes és nőgyűlölő ideológiákat. Ugyanezek az algoritmusok, mint Peterson pszichológiája esetében, a rendszeres gamer tartalmak ajánlása helyett a felhasználó hobbi „manoszféra” anyagaihoz csak közvetve kapcsolódóan nyomhatnak.
Bár a „manoszféra” prominens alakjai azt állítják, hogy csak a férfiak jóléte és egészsége érdekli őket, ennek az ellenkezője igaz. A Child and Adolescent Mental Health című folyóiratban megjelent cikk arra figyelmeztet, hogy az ilyen tartalmaknak kitett fiatalokat fokozottan fenyegeti a depresszió, a szorongás és a társadalmi elszigeteltség kockázata, mivel az online nőgyűlölet által népszerűsített „férfi áldozat” narratíva elmélyíti bennük az elidegenedés és a sértődöttség érzését.
A The Guardian újságírói kísérletet végeztek: üres Facebook- és Instagram-fiókokat hoztak létre, csak a nemet és a kort (férfi, 24 éves) adták meg – és heteken belül mindkét platform feedjeit elárasztották a szexista mémek, a „hagyományosan vallásos értékrendű” posztok és a nőkről készült hiperszexualizált képek.
Az algoritmusok is hozzájárulhatnak a politikai erőszakhoz. A The Washington Post belső Facebook-dokumentációkon (az úgynevezett Facebook Papersen) alapuló vizsgálata feltárta, hogy a vállalat algoritmusai valójában hogyan gyorsították fel a 2021. január 6-i, Capitolium elleni támadás résztvevőinek felkészülését és mozgósítását. Még 2019-ben is azt találták a Facebook kutatói, hogy egy fiktív „észak-karolinai konzervatív anya” kísérleti fiókjában már az ötödik napon megjelentek a Qanon-konteós tartalmak a feedben, ami az ajánló algoritmusok által gyorsított radikalizálódást bizonyítja.
A Facebooknak is sokáig tartott, amíg a Stop the Steal csoportokat (a „Stop the Stealing of Votes” Trump támogatóinak szlogenje volt a 2020-as választások idején) összefogdosta, amelyek a tüntetések fő szervezőközpontjává váltak. Amikor a vállalat 2020 decemberében mégis letiltotta a fő csoportot, tucatnyi hasonló közösség esetében azonnal robbanásszerű növekedést tapasztalt – az egyenként 500 fős automatikus „szupermeghívások” miatt, amelyek ismét elárasztották a feedeket agresszív erőszakra való felhívásokkal.
Trump trükkjei
Közben az algoritmikus buborékok haszonélvezői sem örülnek nekik. Az „éber MI” szlogen segítségével a második Trump-kormányzat a káros algoritmikus buborékokkal kapcsolatos régóta fennálló aggodalmakat egy újabb kultúrháborús csatatérré változtatta. 2025 elején a kongresszus belső dokumentumokat követelt az Amazontól, a Google-tól, a Metától, a Microsofttól, az OpenAI-tól és más cégektől, hogy elemezzék az állítólag túlságosan a befogadásra és a baloldali programokra összpontosító algoritmusok elfogultságát.
J.D. Vance alelnök a párizsi AI-csúcson nyilvánosan megfogadta, hogy kormánya „biztosítani fogja, hogy az Amerikában kifejlesztett MI-rendszerek mentesek legyenek az ideológiai elfogultságtól, és soha ne korlátozzák polgáraink szólásszabadsághoz való jogát”. Valójában ez volt a válasza más országok és vállalatok azon próbálkozásaira, hogy az MI-t ugyanilyen elfogulatlanná tegyék – de ehhez meg kellene szabadulni a jobboldali elfogultságtól. Ami nyilvánvalóan ellentétes Vance érdekeivel. A felelős algoritmusok bevezetése és a biztonságos MI Trump és Vance számára olyan fenyegetés, amelyet az innovációt és a szabadságot fenyegető veszélyként próbálnak beállítani.
Ez egybecseng Elon Musk panaszaival, amelyeket a Twitter megvásárlása előtt fogalmazott meg: a közösségi hálózat állítólag üldözte a konzervatívokat – minden bizonyíték dacára, ami ennek az ellenkezőjére utalt. Persze miután megvásárolta a platformot, a jobboldali és szélsőjobboldali elfogultság csak fokozódott: ma már egyenesen neonáci tartalmakat támogat a platform, és ez tökéletesen működik.
2018-ban Trump azzal vádolta meg a Google keresőmotorját, hogy az „manipulált” ellene, és figyelmeztette a közösségi platformokat, hogy ez egy nagyon komoly helyzet, amellyel a kormányának majd foglalkoznia kell. Ez a stratégia egy olyan koncepción alapul, amelyet a Psychology Today magazin „Trump algoritmusának” nevezett el: minden pozitív, az ő sikerét megerősítő adatot igazságként fogad el, minden negatív információt pedig álhírnek minősít és figyelmen kívül hagy.
Miért nem változtatnak a platformok az algoritmusokon? Az elkötelezettség eladja a reklámot, a felháborodás és a radikalizálódás pedig növeli az elkötelezettséget. Az online tartózkodási időn és az átkattintási arányon alapuló algoritmusok a hergelő tartalmaknak kedveznek – minél uszítóbbak, annál jobb. Ráadásul ugyanannak az Elon Musknak politikai ösztönzői is vannak arra, hogy a platformokat az általa preferált ideológiák javára billentse. Ahogy a platformok pénzzé teszik a szélsőséges tartalmakat, a reformok ösztönzői eltűnnek: miért fektetnének be szigorúbb moderálásba, ha a szélsőséges tartalmak jövedelmezőek?
Mi a következő lépés?
A digitális szolgáltatásokról szóló uniós törvény előírja a platformok számára, hogy tegyék közzé, hogyan működnek az algoritmusaik, és végezzenek független ellenőrzéseket. A jogszabály 2024 februárjában lépett hatályba. A kritikusok szerint ez még mindig nem elég átlátható; a szigorúbb szabályozás hívei azt javasolják, hogy az algoritmusok „címkéket” használjanak, amelyek a végfelhasználók számára nyilvánosságra hozzák a legfontosabb paramétereiket. Egyesek ezzel szemben ragaszkodnak ahhoz, hogy a törvény korlátozza a platformok és a felhasználók szabadságát.
Amint azonban az amerikai főügyész jelentése hangsúlyozza, a jogi reformok nem tartanak lépést a gyorsan fejlődő mesterséges intelligencia-rendszerekkel.
Az irányváltáshoz kollektív akaratra van szükség. A platformoknak meg kell változtatniuk az ösztönzőket, a kutatóknak megbízható ellenőrzési rendszereket kell kifejleszteniük, a politikai döntéshozóknak pedig rugalmas szabályokat kell alkotniuk, amelyek elszámoltathatóvá teszik a technológiai vállalatokat. De ami a legfontosabb, a felhasználóknak javítaniuk kell műveltségükön, és fel kell fogniuk, hogyan alakítják az algoritmusok az információs étrendjüket. A digitális csatornák rejtett kódjának megértése a legfontosabb, legelső lépés.
Nincs mit szépíteni a dolgon: nem egyéb tette ilyenné az algoritmusokat, mint a közösségi oldalakat üzemeltető cégek kapzsisága, profitéhsége. A felhasználókat érzelmi alapon kötötték a felületekhez, méghozzá minél hosszabb időre, hogy minél több hirdetést lássanak. A képlet egyszerű:
Több indulat → több harag és gyűlölet → több aktivitás a platformon → több felületen eltöltött idő → több személyre szabott hirdetés megtekintése → nagyobb haszon a felület tulajdonosának
Ez ennyire egyszerű. Míg a TikTok ennél is atavisztikusabb módszere szinte az állati szintű ösztöneinkre hat, a többi közösségi oldal az ősemberi, törzsi érzelemvilágunkra. A véleménybuborékok, visszhangkamrák megfelelnek a törzseknek, a csoportok és maga a közösségi felület a vadászterületeknek – és tulajdonképpen ezért folyik a harc, amit a ravasz, azonban nem okos politikusok reális hatalommá konvertálnak.
A szavazók kapnak a voksukért egy telket a Holdon, vagy, ami még valószínűbb, a virtuális világban, Seholfalván.
Annak a terméséből éljenek meg, ha tudnak.
Ismétlem: az algoritmusok nem a gonosz politikai ármány miatt szélsőjobboldaliak, hanem a piac törvényei miatt. És a közönség miatt, amelynek nagyobb igénye van erős érzelmi impulzusokra – akár azért is, hogy felháborodjon miattuk! – mint megfontolt gondolatokra.
Fogalmam sincs, hogyan fogunk ebből kimászni.
Forrás:
https://theins.ru/obshestvo/281765
A cikk az Európai Unió finanszírozásával készült. Az itt szereplő vélemények és állítások a szerző(k) álláspontját tükrözik, és nem feltétlenül egyeznek meg az Európai Unió vagy az Európai Oktatási és Kulturális Végrehajtó Ügynökség (EACEA) hivatalos álláspontjával. Sem az Európai Unió, sem az EACEA nem vonható felelősségre miattuk. A Zóna nem részesült a támogatásból, csak felületet biztosít a cikknek.
Szele Tamás