imagazin arrow2-left arrow2-right arrow2-top arrow-up arrow-down arrow-left arrow-right cart close dossiers education fb instagram menu notification oander rss rss-footer search service shuffle speech-bubble star store stores tests twitter youtube

Ni veštačka inteligencija ne može da pomogne Facebook moderatorima


Kako se može zaključiti iz izveštaja, život facebook moderatora je izuzetno stresan. Iako bi bila od koristi, veštačka inteligencija ipak neće moći da im pomogne u bližoj budućnosti…

Verovatno je dosta vas naišlo na priču o Facebook moderatorima i njihovim uslovima rada koje je objavio The Verge pre par dana. Ukoliko niste, definitivno treba da pročitate izvorni izveštaj, ali ćemo vam za sada ovde dati kratak pregled:

Iako Facebook- imajući u vidu da govorimo o “kompaniji spektakla” – deluje kao mesto na kome se samo može poželeti da radite (sjajna primanja, pauze, frape sa ukusom vanile i pistaća za doručak, lazy bag i startup padobran), to ipak važi samo za neke zaposlene. Ostale obično poveravaju insajderskim kompanijama kod kojih je situacija mnogo gora i gde gotovo ništa nije napravljeno od sirovog vegan sira.


Detalji iz sedišta Facebook kompanije.

Moderatorstvo pripada prethodno pomenutoj kategoriji, koju, između ostalih, vodi kompanija Cognizant. Radnici su izloženi ogromnom stresu, raspored im je toliko striktan, tempo neizdrživ, imaju 9 minuta za “wellness vreme” tokom kojeg bi trebalo verovatno da se oslobode od stresa, ali umesto toga odlaze da čekaju u redu za toalet. Da, postoje svega 3 toaleta za hiljade zaposlenih.

Činjenica je da govorimo o stresnom poslu. Oni obrađuju hiljade video snimaka, fotografija i tekstova svakoga dana, od kojih bi i jedan predstavljao isuviše posla za jednu normalnu osobu. Pomenuti video snimci su praćeni odvratnim sadržajem za punoletna lica, i u najgorem slučaju sledi zlostavljanje ljudi ili životinja. U poređenju sa tim, čitanje par uvredljivih rečenica dolazi gotovo kao razonoda. Sve ovo moderatori obavljaju za 28.000 dolara godišnje ( u proseku Facebook-ov radnik zaradi oko 240.000 dolara).

Mogli smo da pretpostavimo da je posao moderatora težak, ali nismo znali toliko detalja. Nije slučajnost da je američki Kongres kontaktirao Zuckerberg-a po pitanju ovog problema pre otprilike godinu dana. Tada, kao i sada, odgovor je glasio da će proveriti stvar i obećali su da će pooštriti inspekciju, jer im je od ekstremne važnosti psihičko zdravlje zaposlenih. Još jedan odgovor koji je dobijen je bio da će im i veštačka inteligencija, koja je odmah iza ugla, pomoći u poslu. Ovo poslednje pomenuto zvuči savršeno u teoriji, ali postoji jedan problem.

To je jedna velika, notorna laž.

Većina stručnjaka se slaže da će veštačka inteligencija ići na ruku jedino Zuckerberg-u i njegovom timu još neko vreme kao paravan. Ali, kako je moguće da je sve to notorna laž ako su algoritmi toliko razvijeni da mogu da pomognu u generisanju portreta koji neverovatno liče sa ljudima. Kako bismo odgovorili na to pitanje, hajde da ispitamo kako to algoritmi zapravo funkcionišu.

Trenutno, “veštačka inteligencija” koja radi moderaciju, funkcioniše analizirajući dati sadržaj uz pomoć obrađivanja vizuelnog signala, ili tako što ih upoređuje sa bazom podataka koja je data unapred. Prvo se ustvari vezuje za veće kategorije. Na primer, golotinja, oružje, droga itd. Drugo, s obzirom na to da zahteva bazu podataka, je uglavnom pogodno za filtriranje piratskog sadržaja ili za filtriranje reči koje se nalaze na crnoj listi.

Dakle, algoritam pokušava da otkrije da li postoji neki škakljivi sadržaj na datoj fotografiji koji bi trebalo filtrirati. U slučaju da postoji, on ga prosleđuje moderatorima na dalji pregled. Ovaj sistem zaista funkcioniše veoma efikasno i mogao bi da se usavrši do nivoa na kome ljudska revizija uopšte neće biti potrebna- ili će biti potrebna u nekim slučajevima.

Problem nije u takvim sadržajima. Golotinja, oružje, simboli zabranjene autokratije su za kompjuter laki za prepoznavanje. Ali, šta je sa onim situacijama za koje je i ljudima teško da ih otkriju? Šta se dešava sa onim kategorijama koje se uvek iznova stvaraju u političke svrhe? Šta se dešava sa lažnim vestima, ironijom i sarkazmom? Njih je teško definisati i gotovo nemoguće prevesti u jezik mašine.

Problem je u tome što očekujemo da veštačka inteligencija razume ljudsku prirodu.

Kako će mašina moći da razlikuje nagost majke koja doji od bilo kog drugog vida golotinje? Kako će mašina znati da li se na datim fotografijama pojavljuju ženske ili muške bradavice? Kako će mašina znati da rečenica “ako komšija ne prestane sa burgijanjem, skočiću sa prozora” ne sadrži suicidne namere ili da poziv “Hajde da istrebimo ambroziju!” ne poziva na masakr?

via GIPHY

Ono što sam upravo dao kao primer zaista oslikava situacije u kojima bi veštačka inteligencija trebalo da poznaje ljudsku prirodu u potpunosti, što je- kao što svi znamo- promenljiva, neopipljiva i jedisntvena kategorija. Bilo bi dobro da mašine makar mogu da razumeju kontekst i, naravno, da mogu da se razvijaju kako bi bile što bliže cilju. Međutim, nije poenta u tome da se pojavljuju sve bolji algoritmi na tržištu, jer, kako navode stručnjaci, neće još dugo vremena moći da zamene ljude. Ako pretpostavimo da će ikada moći da ih zamene.

Do tada, radnici će morati da nastave da rade težak posao i da oslobađaju čovečanstvo od štetnog sadržaja na poslu koji zahteva puno radno vreme.

Izvor: The Verge 1, 2

Apple Inc. (AAPL)

Have you read this?

To je apsurdno. Neki ljudi jednostavno ne razumeju našu kompaniju. Čvrsto verujem da će sve pre ili kasnije doći na svoje mesto, dok god su korisnici zadovoljni. Nismo usmereni na zaradu, već na dugoročan razvoj.

To je apsurdno. Neki ljudi jednostavno ne razumeju našu kompaniju. Čvrsto verujem da će sve pre ili kasnije doći na svoje mesto, dok god su korisnici... - Click here!