Az elmúlt napokban kaotikus állapotok uralkodtak a Facebookon. Felhasználók ezrei számoltak be arról, hogy az általuk kezelt, teljesen ártalmatlan témájú csoportokat és oldalakat a Meta minden előzetes figyelmeztetés nélkül letiltotta. A jelenség macskás csoportoktól kezdve a mechanikus billentyűzetek rajongóin át egészen a Pokémon és videójáték közösségekig terjedt. A vállalat elismerte, hogy egy kiterjedt hiba történt, és dolgoznak a megoldáson. Az eset azonban ismételten rávilágít a nagy közösségi platformok MI-alapú moderációs rendszereinek sérülékenységére és veszélyeire.
A „nagy tiltási hullám”: Hogyan váltak egyik pillanatról a másikra veszélyessé a madaras mémek?
A mostani Facebook-csoportok letiltása egy olyan időszakot követ, amikor az elmúlt hónapokban az Instagramon és a Facebookon is jelentősen megnövekedett az egyéni felhasználók letiltásának száma. Most azonban a probléma szintet lépett, és egész közösségeket sodort veszélybe. Az interneten keringő beszámolók alapján több ezer, köztük tíz- és százezres taglétszámú csoport is érintett lehet. A legabszurdabb az egészben, hogy ezekben a csoportokban semmilyen illegális vagy szabályzatba ütköző tevékenység nem folyt.
A csoportok adminisztrátorai a letiltás okaként egészen bizarr és valótlan indoklásokat kaptak. A „Birds with threatening auras” (Fenyegető aurájú madarak) nevű, humoros madaras képeket megosztó csoportot például meztelenséget ábrázoló tartalmak miatt meszelték el. Másokat azért függesztettek fel, mert az automatizmus szerint „veszélyes szervezetekhez és egyénekhez” kapcsolódó tartalmakat találtak bennük. Vagy éppen arra hivatkoztak, hogy illetéktelenek próbáltak belépni a fiókokba, ezért „elővigyázatosságból” zárolták az oldalt. Számos népszerű mémoldal és videójátékos közösség, mint az „>implying we can discuss videogames” is erre a sorsra jutott.
A Meta reakciója és a háttérben meghúzódó, mélyebb problémák a rendszereikben
A probléma gyorsan eszkalálódott. Andy Stone, a Meta szóvivője a TechCrunch nevű szaklapnak elismerte, hogy tisztában vannak a csoportokat érintő hibával, és gőzerővel dolgoznak a megoldásán. Bár a cég egyelőre nem közölte, hogy pontosan mi áll a probléma mögött, sokan arra gyanakodnak, hogy egy elszabadult, hibásan működő mesterséges intelligencia alapú szűrőrendszer okozta a káoszt.
Ez a feltételezés nem alaptalan. Régóta ismert tény, hogy a Metához kapcsolódó platformok moderációja messze van a tökéletestől. Míg korábban a vállalat azt ígérte, hogy az MI majd felszabadítja az emberi moderátorokat a komplexebb, nüanszokat igénylő esetek kezelésére, a valóságban ennek pont az ellenkezője látszik történni. A Meta mára egyre inkább az automatizált rendszerekre támaszkodik. A hírek szerint idén tavasszal a tényellenőrzési folyamatokat is jelentősen leépítették. Sőt, még az új intézkedések kockázatfelmérését is robotokra bíznák a jövőben.
A fellebbezés reménytelensége és a helyreállítás bizonytalanságának folyamata
A helyzetet tovább súlyosbítja, hogy a tévesen letiltott adminisztrátorok számára a jogorvoslat szinte lehetetlen. Az r/facebook subredditen megjelent posztok és gyűjtések alapján a fellebbezési folyamat az esetek 99 százalékában szintén egy automatizmuson keresztül zajlik. Ez jellemzően gondolkodás nélkül, csuklóból elutasítja a panaszt. Ezzel pedig elveszi az utolsó jogorvoslati lehetőséget is. A közösség tanácsa jelenleg az, hogy a mostani hiba áldozatai ne is próbálkozzanak fellebbezéssel. Mivel a Meta hivatalosan is tud a problémáról, érdemesebb megvárni, amíg központilag oldják meg azt.
A helyreállítás azonban nem minden esetben garantált vagy zökkenőmentes. Bár néhány csoport és oldal már visszakerült, mások arról számoltak be, hogy extra lépésekre volt szükségük. Sok esetben pedig hiába állították helyre a csoportot, az eredeti név helyett egy semmitmondó, „Group title pending” (A csoport neve függőben van) felirat jelent meg.
Nem egyedi jelenség? A tartalommoderálás általános válsága a közösségi médiában
A TechCrunch cikke szerint más közösségi oldalakon, például a Pinteresten és a Tumblrön is megnőtt a tiltások száma az elmúlt időszakban. Előbbi egy belső hibára hivatkozott, utóbbi pedig egy új moderációs módszer bevezetésével magyarázta a jelenséget. Ez arra utal, hogy a mostani Facebook-incidens egy szélesebb körű iparági probléma része. Az automatizált tartalomkezelés rendszerei még nem elég kiforrottak ahhoz, hogy megbízhatóan ítélkezzenek a tartalmak felett.
Összegzés: A robotokra bízott „piszkos munka” és a felhasználói bizalom eróziója
A mostani tömeges tiltási hullám egy komoly figyelmeztetés. Rámutat azokra a veszélyekre, amelyek a túlzott automatizációból és az emberi felügyelet hiányából fakadnak. Miközben a Meta az algoritmusait a megosztó tartalmakra hegyezi ki a nagyobb elköteleződés és profit érdekében, a moderáció „piszkos munkáját” egyre inkább tökéletlen robotokra bízza. Ez a stratégia hosszú távon aláássa a felhasználói bizalmat. Hiszen ártatlan közösségek válhatnak egyik napról a másikra egy hibás algoritmus áldozatává, érdemi jogorvoslati lehetőség nélkül. Az ártatlan közösségek védelme és a platform stabilitása komoly kihívás elé állítja a céget.
Leave a Reply