Nem kevés problémát vet fel a mesterséges intelligencia betörése a mindennapi életbe, ha mind fel akarnám sorolni, kötet lenne belőle (jövőre esetleg egész könyvtár is). Most elég, ha a deepfake pornóval foglalkozunk, aminek több formája van, a leggyakoribb az, hogy egy ismert ember arcát MI segítségével pornográf képre simítják. És a dolgok természetéből következik, hogy ez többnyire hölgyekkel fordul elő.

Mondjuk magam sem volnék kíváncsi Donald Trumpra vagy Joe Bidenre aktus közben, érdeklődjön az ilyesmi iránt az SZVR, az orosz hírszerzés.

Ennek parancsolt most megálljt a Google a WIRED magazin szerint, bár nekem az a véleményem, hogy nem satufék ez, csak egy kis lassítás. De a semminél több. Lássuk tehát, mit lépett a kereső-óriás.

Néhány héttel ezelőtt a Google keresés a „deepfake meztelen képek jennifer anistonról” keresésre legalább hét olyan találatot hozott, amelyek állítólag explicit, mesterséges intelligencia által generált képeket tartalmaznak a színésznőről (az „explicit” ebben az esetben egyszerűen „pornót” jelent). Mostanra ezek eltűntek.

Emma Higham, a Google termékmenedzsere szerint a vállalat találati rangsorolásának idén bevezetett új módosításai már több mint 70 százalékkal csökkentették a hamis explicit képeknek való kitettséget az olyan kereséseknél, amelyek egy adott személyről keresnek ilyen tartalmakat. Ahol korábban problémás találatok jelenhettek meg, ott a Google algoritmusai a hírcikkek és más, nem explicit tartalmak népszerűsítésére törekednek. Az Aniston-keresés most olyan cikkeket ad ki, mint a „Miért jelent fenyegetést, ha Taylor Swiftről Deepfake MI pornó készül”, és más linkeket, mint például egy ohiói államügyészi figyelmeztetését a fogyasztókat célzó „hírességek deepfake rágalmazásával kapcsolatos csalásokról”.

„Ezekkel a változtatásokkal az emberek arról olvashatnak, hogy a deepfake milyen hatással vannak a társadalomra ahelyett, hogy tényleges, nem konszenzusos ,hamis képeket tartalmazó oldalakat látnának” – írta Higham a vállalat szerdai blogbejegyzésében.

A rangsorolás megváltoztatása a WIRED e havi vizsgálatát követte, amelyből kiderült, hogy a Google vezetősége az elmúlt években számos, a munkatársak és külső szakértők által javasolt ötletet utasított el az emberekről készült intim portrék engedélyük nélkül történő online terjedésének növekvő problémájával kapcsolatban. Persze, kellett a forgalom, a Google tulajdonképpen a hirdetésekből él.

Miközben a Google megkönnyítette a nem kívánt explicit tartalmak eltávolításának kérését, az áldozatok és képviselőik proaktívabb lépéseket sürgetnek. A vállalat azonban igyekezett elkerülni, hogy túlszabályozza az internetet, és ne sértse meg a törvényes pornóhoz való hozzáférést. Annak idején a Google szóvivője válaszul azt mondta, hogy több csapat is szorgalmasan dolgozik azon, hogy megerősítse a biztosítékokat az úgynevezett nem beleegyezésen alapuló explicit képek (NCEI) ellen.

Az áldozatok képviselői szerint a mesterséges intelligencia-képgenerátorok egyre szélesebb körű elérhetősége – köztük olyanoké is, amelyek használatára kevés korlátozás vonatkozik – az NCEI fellendüléséhez vezetett. Az eszközök segítségével szinte bárki könnyen készíthet hamisított, explicit képeket bármely személyről, legyen az akár egy középiskolás osztálytárs vagy egy megahíresség.

Márciusban a WIRED elemzése szerint a Google több mint 13 000 felszólítást kapott arra, hogy távolítsa el a hivatkozásokat egy tucatnyi, a legnépszerűbb, explicit deepfake-eket tároló weboldalra. A Google az esetek mintegy 82 százalékában el is távolította a hivatkozásokat.

A Google új szigorításának részeként Higham szerint a vállalat három olyan intézkedést kezd alkalmazni, amelyekkel a valódi, de nem kívánt explicit képek felfedezhetőségét csökkenti a szintetikus és nem kívánt képekkel szemben. Miután a Google teljesíti a szexualizált deepfake-ekre vonatkozó eltávolítási kérelmet, megpróbálja majd a duplikátumokat távol tartani a találatoktól. A visszavételi kérelemben hivatkozottakhoz hasonló lekérdezések esetén is kiszűri az explicit képeket a találatokból. Végül pedig a „nagyszámú” sikeres letiltási kérelem tárgyát képező webhelyek a keresési eredményekben leminősítéssel fognak szembesülni.

„Ezeknek az erőfeszítéseknek az a célja, hogy a felhasználók nyugodtabbak legyenek, különösen akkor, ha aggódnak amiatt, hogy a jövőben hasonló tartalmak bukkannak fel róluk” – írta Higham.

A Google elismerte, hogy az intézkedések nem működnek tökéletesen. A volt alkalmazottak és az áldozatok szószólói szerint sokkal messzebbre is mehetnének. A keresőmotor kiemelten figyelmezteti az Egyesült Államokban a gyermekeket ábrázoló meztelen képeket keresőket, hogy az ilyen tartalom jogellenes. A figyelmeztetés hatékonysága nem egyértelmű, de a jogvédők támogatják, mint potenciális elrettentő eszközt. Az NCEI megosztását tiltó törvények ellenére azonban hasonló figyelmeztetés nem jelenik meg a felnőttekről készült szexuális deepfake képeket kereső kereséseknél. A Google szóvivője megerősítette, hogy ez nem fog változni.

Hát ez bizony harmatos kis próbálkozás egy valóban veszélyes jelenség ellen, ami – ráadásul pont a Google által közvetített hirdetéseken keresztül – hatalmas üzlet. Inkább tízmillió dollárokban mérném a potenciális hasznot, mint milliókban. De láthatóan nem is akarják igazán megfékezni.

Pedig nagyon egyszerű lenne. Azt a módszert kéne alkalmazni, amit a Facebook is használ: ha valakinek egy frissen felkerült állományban előfordul a neve – és a fotók címében, képaláírásában elő kell forduljon, ha másként nem, olyan formában, hogy „X. Y. huncutkodik” – akkor kapjon róla értesítést, és egy menüt, amiben szexuális, de csakis szexuális visszaélés esetén jelentheti, hogy ez a kép deepfake. Legyen ez érvényes csakis a képi állományokra, és már helyben is vagyunk.

Hogy a politikusok megbolondulnának a rengeteg említéstől?

Az már legyen az ő bajuk. Eddig is megbolondulhattak, ha Facebook közelébe mentek, kerülik is a legtöbben a közösségi oldalt, inkább külön csapatot vesznek fel a profiljuk kezelésére.

Persze, ez csak egy probléma a sok közül, amit a mesterséges intelligencia és az emberi szexualitás találkozása okoz. Kívánom azoknak, akik az MI-t szexre használják, vagy így csinálnak belőle pénzt, hogy ennél komolyabb kapcsolatuk és élményük ne is legyen soha.

 

Szele Tamás

Oszd meg másokkal is!

Ajánlott olvasnivaló:

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük