Kako umjetna inteligencija može pomoći u boljoj zastupljenosti žena u vijestima

19.03.2022. / 10:46

U posljednjih nekoliko godina sve se više razgovara o negativnim posljedicama algoritamskih kapija u kojima su, kako piše Safiya Umoja Noble u svojoj knjizi, sa svojim ugrađenim predrasudama prema ženama postaju algoritmi opresije.  Zbog toga je jako važno obratiti pažnju i na pozitivne primjene algoritama i umjetne inteligencije kako bi se ove predrasude umanjile i s vremenom potpuno uklonile.

JournalismAI je globalna inicijativa novinarskog think-thanka Polis pri London School of Economics (LSE) kojeg podržava Google News Initiative. Ova inicijativa ima za cilj da „informira medije o potencijalu koje nude tehnologije podržane umjetnom inteligencijom (AI).“ Značajan dio ove inicijative je i zajednica novinara/ki i ostalih stručnjaka/kinja koje rade u medijima, a koji se bave upotrebom AI u novinarstvu i medijskom izvještavanju. U okviru svojih aktivnosti 7.3.2022. godine su organizovali prvu radionicu koja prikazuje pozitivne primjere primjene u ovoj zajednici. Prva tema radionice je bila zastupljenost žena u vijestima.

Tri odlične govornice Bárbara Libório, Sahiti Sarva i Delfina Arambillet su nas upoznale sa lekcijama koje su naučile kroz primjenu tehnika umjetne inteligencije da se prepozna rodna pristranost i govor mržnje usmjeren prema ženama kao i izazove koje treba uzeti u obzir pri upotrebi ovih tehnologija za novinarsko istraživanje.

Monitoring mizoginog diskursa u politici

Bárbara Libório, data novinarka i novinarska menadžerka u AzMina iz Brazila je u okviru ove radionice predstavila rezultate razvoja i upotrebe web aplikacije Monitoringa mizoginog diskursa u politici koju su zajednički razvili novinari/ke koji/e rade za La Nación, CLIP, i DataCrítica u regiji Južne Amerike. Razvili/e su ga da otkriju govor mržnje i napade usmjerene na političke kandidatkinje na Twitteru pred izbore. AzMina se upotrebom informacija, tehnologije i obrazovanja bori protiv rodno zasnovanog nasilja i iskoristili su ovaj projekat da promatraju napade na kandidatkinje pred lokalne izbore u Brazilu.

Kako bi utvrdili/e koji su tweetovi uvredljivi morali su primjeniti filter za uvredljive pojmove i izraze. Zbog nepostojanja cjelovitog automatiziranog procesa ovaj napor je prije zahtjevao veliki ljudski napor da se analizira svaki tweet i procijeni da li predstavlja mizigini napad. Zbog toga su udružili snage sa gore spomenutim organizacijama kako bi otkrili da li AI tehnologije mogu pomoći da se ova vrsta analize ubrza i učini efikasnijom.

Da bi mašina mogla uočiti mizogini diskurs model mašinskog učenja je prvo morao razumijeti šta je miziginija kroz primjere ovakvog govora. Zbog toga je prvi korak u ovom procesu bio da se kreira baza podataka sa ručno obilježenim tweetiovima koji pokazuju da li je neka objava mizogina ili ne. Model je treniran sa primejerima na španskom i portugalskom jeziku. Krajnji rezultati su bili bolji na španskom, a malo manje uspješni na portugalskom jeziku. Tek nakon ovog procesa se moglo pristupiti kreiranju web aplikacije koja će dozvoliti korisnicima/ama da analiziraju uzorke teksta ili čak cijele fajlove sa samo jednim klikom.

Ono što su uspjeli naučiti kroz ovaj projekat Libório je objasnila rekavši da „do sada smo naučili nekoliko ključnih stvari. Prva je da su riječi uvijek vezane za kontekst. Stoga je jako važno da svaki put kada želimo sastaviti rječnik kojim ćemo trenirati model, moramo se pobrinuti da ga prilagodimo kontekstu. Druga naučena lekcija je da se čak i ljudima koji obilježavaju tekst teško složiti oko toga da li je nešto mizogino ili nije. Stoga bismo definitivno trebali delegirati ove važne odluke samo algoritmima.“

Kad žene dospiju u naslove

Pitanje, kako izgleda kada žene dospiju u vijesti, koje je postavila analiza koju su zajedno sproveli Sahiti Sarva i Leonardo Nicoletti za The Pudding je pokušalo prikazati pogrešno i tačno predstavljanje žena u naslovima vijesti. Istraživali su naslove na engleskom jeziku u četiri zemlje (Ujedinjeno kraljevstvo, SAD, Indija i Južnoafrička republika) koje su objavile 186 publikacije u periodu između 2005. i 2021. godine. Metodom struganja (scraping) su preuzeli sve naslove obilježene sa setom od dvadeset ključnih riječi koje označavaju žene: žene, djevojke, djevojčice, ženski i td.

Prije same primjene modela mašinskog učenja (machine learning) morali su uložiti veliki napor u uklanjanje naizgled beskorisnih riječi iz naslova. U procesu procesiranju prirodnog jezika (Natural Language Processing) ove riječi su označene kao stop riječi. U ovom slučaju je riječ „First“ (prva) jako važna jer naslovi su često govorili o „first female president“ (prva predsjednica) ili „first woman to be defence minister“ (prva ministrica odbrane). Nakon uklanjanja stop riječi, autori/ce su morali/e ručno nanovo ubaciti riječ „first“ kada se koristi u kontekstu značajnom za istraživanje.

Kako postojeći riječnici nisu bili dovoljni za svrhu ovog istraživanja autor i autorica su odlučili da kreiraju svoj rječnik kako bi mogli identificirati rodnu pristranost u naslovima. U tu svrhu su se poslužili taksonomijom koju su predložili/e Hitti i ostali koja kombinira pojmove rodno osjetljivog jezika kao što su „actress“ (glumica), „daughter“ (kćerka), „wife“ (supruga) sa riječima koje reflektiraju bihevijoralne i društvene stereotipe kao što su „beautiful“ (prelijepa), „emotional“ (emocijonalna), „supportive“ (podržavajuća), „dramatic“ (dramatična). Dodijelili su indeks pristranosti svakom naslovu u setu podataka kako bi kategorilizirali sve publikacije. Ovo im je omogućilo da otkriju i opišu kako neke publikacije imaju veći nivo pristranosti od drugih u svojim naslovima.

Dodatno su Sarva i Nicoletti izvršili analizu sentimenata na naslove i otkrili da kada žene dospiju u naslove priča je mnogo senzacionalnija u odnosu na prosječan naslov. Razlog za ovo bi se mogao pronaći u činjenici da su priče koje se fokusiraju na žene dvostruko više vezane za nasilje nego ojačavanje.

Sarva je u svom izlaganju objasnila da „na kraju projekta smo shvatili da ima još mnogo pitanja na koje treba odgovoriti. Koliko su često počinioci spomenuti u novim naslovima o kriminalu i nasilju nad ženama? Koliko često govorimo o ženama na vodećim pozicijama kao „podpredsjenica“ ili „gradonačelnica“ umjesto da navodimo njihova imena? I koji su obrasci koje ne vidimo?“

Zbog toga autor i autorica planiraju da nastave istraživanje ove teme i istraže bi mašinsko učenje bez nadzora moglo dalje unaprijediti njihovo istraživanje.

AIJO projekat i Gender Gap Tracker

AIJO projekat je proizašao iz JournalismAI Collab u 2020. godini kao saradnja osam različitih medijskih organizacija koje su zajedno radile na razumijevanju, identifikaciji i uklanjanju pristranosti u redakcijama.  

Delfina Arambillet, podatkovna i inovacijska novinarka u La Nación iz Argentine je bila dio tima koji je radio na ovom AIJO projektu, a koja ga je ujedno i predstavila na ovoj radionici.

Tim se fokusirao na upotrebu kompjuterskog vida (computer vision) koji je jedan od mnogo polja koji se nalaze pod pojmom umjetne inteligencije (AI). Koristili su ovu tehnologiju da bi utvrdili rodnu pristranost u medijima analiziranjem ko je predstavljen na fotografijama koje mediji koriste da bi ilustrirali svoje priče na naslovnoj stranici.
Cijeli proces je proveden u dva koraka. Tim je prvo aktivirao model za detekciju lica koji je predstavio Imperial College of London u 2020-oj godini kako bi procesirali fotografije u potrazi za ljudskim licima na njima. Drugi korak je bio rodna klasifikacija koji je korišten da bi se identificirao rod osoba koje su se pojavile na fotografijama odabranim tokom prve faze.

Arambillet je tokom prezentacije predstavila rezultate koji su pokazali da je 77% fotografija na naslovnoj strani medijskih organizacija koje su učestvovale u projektu prikazivalo muškarce dok je 23% prikazivalo žene. Iako uzorak nema značajan statistički značaj rezultati su dali vrijedan uvid u manjak zastupljenosti žena u medijima.

Osim ove analize, u partnerstvu sa Gender Gap Tracker, otišli su korak dalje i uradili analizu zastupljenosti muškaraca i žena koji su citirani u člancima na engleskom jeziku. Rezultati su bili slični gdje su 73% izjava dali muškarci, a samo 22% žene. Za preostalih 5% je bilo nemoguće utvrditi spol izvora.

Naredni koraci

Dok je proliferacija jezičkih modela koji su urađeni za engleski, španski i portugalski dovela do rasta medijskih analiza potpomognutih umjetnom inteligencijom u regionu Zapadnog Balkana ovakve analize još uvijek nedostaju. Razlog za ovo je djelomično što nemamo razvijene modele, posebno u domenu jezika, koji bi nam omogućili detaljnije analize. Međutim, iskustva ovih projekata, pogotovo AIJO projekta bi mogli biti prvi koraci u upotrebi AI pri analizi rodne zastupljenosti u medijima na Balkanu što bi zauzvrat ponudilo rješenja za neke od problema koji su prisutni i kod nas. Za ovakva rješenja su potrebna partnerstva akademske zajednice, IT industrije i novinara/ki a što će na kraju imati povoljne rezultate za sve.

 

Ocijenite kvalitet članka