Deepfake u izbornim kampanjama: Izazovi, prijetnje i odgovornost medija

26.03.2024. / 07:54
Autor/ica
Share
deep fake and ellcetions
deep fake and ellcetions

Manipulacija glasačkim tijelom u cilju postizanja boljih izbornih rezultata nije ništa novo. Politički suparnici oduvijek su pokušavali diskreditovati svoje protivnike i na njihovom okaljanom ugledu graditi svoj put do simpatija građana/ki u nadi da će zaokružiti njihovo, ili ime stranke kojoj pripadaju, u trenutku kada ostanu sami u glasačkoj kabini. Ranije su morali biti mnogo kreativniji i uvjerljiviji u iznošenju optužbi na račun protivnika i diskreditovanju njihove reputacije. Glasačko tijelo nekada prepozna taj virus laži koji se širi njihovim sistemom i vrlo brzo aktivira svoj odbrambeni mehanizam. Nekada to tijelo, ipak, poklekne pod najezdom ovog nametnika koji se vrlo brzo proširi svim njegovim dijelovima, dok ne preuzme potpunu kontrolu i moć nad ljušturom oglodanog tijela.

Mogućnost da svom protivniku/ici „stavite riječi u usta“, da ga/je natjerate da kaže ono što znate da će naštetiti njegovom/njenom ugledu i poljuljati povjerenje građana/ki u njegov/njen kredibilitet, da ga/je postavite u situacije i mjesta na koja vi želite, predstavlja novu mutaciju ovog virusa koji je predizbornu borbu učinilo mnogo opasnijom i rizičnijom. Naravno, govorimo o deepfake sadržajima, opasnostima i posljedicama (zlo)upotrebe umjetne inteligencije u izbornim kampanjama.

Izborna godina, godina izbora ili godina deepfake-a

Globalno, više birača nego ikada u istoriji će se uputiti na birališta, jer se u najmanje 64 zemlje (plus Evropska unija) - što predstavlja zajedničku populaciju od oko 49% svjetskog stanovništva – trebaju održati nacionalni izbori, čiji će rezultati, za mnoge, biti od značaja u godinama koje dolaze.

Ranija metoda sakupljanja glasova hodanjem „od vrata do vrata“ već odavno je zamijenjena metodom „od televizora do televizora“, ili „od telefona do telefona“. Mediji su ti koji daju platforumu za širenje izbornih poruka, obećanja, planova. Kroz njihove kanale struje informacije na osnovu kojih će glasači donositi odluku kada se nađu oči u oči sa izbornom listom. Upravo zbog toga, uloga i odgovornost medija u izbornoj godini, kakva je 2024., od ključnog je značaja za sprječavanje štetnih posljedica njene zloupotrebe.

Uvođenje umjetne inteligencije (AI) u stvaranje deepfake video i audio materijala otvara nove dimenzije manipulacije informacija. Deepfake je tehnika koja koristi AI algoritme, kako bi manipulisala postojećim video ili audio materijalima i stvorila lažne sadržaje. Ova tehnologija može zamijeniti lica, glasove i izraze lica ljudi u video snimcima tako da izgledaju kao da izgovaraju ili rade nešto što nikada nisu. Deepfake tehnologija također može generisati potpuno nove audio ili video zapise koji izgledaju i zvuče kao da su autentični. Proizvodnja deepfakea postaje jednostavnija i jeftinija nego ikad ranije, i vjerovatno ćemo ih sve više viđati tokom godine.

U odnosu na druge vrste lažnih vijesti, deepfake se čini opasnijim zbog činjenice da su ljudi skloniji povjerovati u nešto ako to imaju priliku vidjeti, naročito ako ono što vide potvrđuje njihovo već ranije ukorijenjeno mišljenje. S druge strane, postojanje mogućnosti da ono što vidimo možda nije istinito dovodi do sumnji u sve, jer ljudi ne mogu jasno razlikovati deepfake od stvarnog audio, video ili fotografskog sadržaja.

Deepfake u predizbornim kampanjama

Deepfake tehnologija može imati ozbiljne posljedice po izborne procese. Kroz manipulaciju javnim mnjenjem, diskreditaciju kandidata i širenje dezinformacija, deepfake može značajno utjecati na demokratske izbore, izazivajući konfuziju kod birača i potkopavajući povjerenje u izborni sistem. Osim toga, korištenje deepfake-a za promociju ekstremnih stavova može dodatno polarizirati društvo i destabilizirati izborne procese.

Već sada možemo vidjeti rezultate i posljedice njegove upotrebe u cilju utjecanja na rezultate izbora iz primjera koji su se dogodili prije nekoliko mjeseci. Naime, u januaru ove godine, glasači na predsjedničkim predizborima u New Hampshireu primili poziv u kojem se činilo da ih predsjednik Joe Biden odvraća od sudjelovanja na izborima. “Glasovanje ovog utorka samo omogućuje republikancima u njihovom nastojanju da ponovno izaberu [bivšeg predsjednika] Donalda Trumpa”, glasio je snimak.  Poziv zapravo nije snimio Biden - bio je to deepfake, oblik generativne umjetne inteligencije u kojem algoritmi prikupljaju isječke lica ili glasa osobe, uče iz njih i imitiraju subjekt kako govori stvari koje nikada nije rekao. Stručnjaci su uznemireni koliko je uvjerljivo izgledalo. "To je puno opasnih stvari kombinirano u jednoj: dezinformacije, AI-generirani glasovi, imitiranje predsjednika i u osnovi obeshrabrivanje glasanja, što je ilegalna aktivnost", kaže znanstvenik za podatke Matt Groh sa Sveučilišta Northwestern.

U oktobru 2023. godine, AI-sintetizovana imitacija glasa lidera opozicije pomogla je da se izbori u Slovačkoj preokrenu u korist kandidata bliskog Rusiji. Samo dva dana prije izbora u Slovačkoj, na Facebook-u je objavljen audio snimak, na kojem su navodno razgovaraju Michal Šimečka, vođa liberalne stranke Progresivna Slovačka, i Monika Tódová iz dnevnog lista Denník N. Činilo se da razgovaraju o tome kako manipulisati izborima, djelomice kupovinom glasova od marginalizirane romske manjine u zemlji. Audio snimak je objavljen za vrijeme izborne šutnje, 48 sati prije otvaranja biračkih mjesta. Iako su Šimečka i Dennik N odmah denuncirali video kao lažan, što je kasnije potvrdio i odjel za provjeru činjenica novinske agencije AFP, rupa u Metinoj politici  (koja propisuje da samo lažni video zapisi krše njena pravila) bila je dovoljna da štetni utjecaj iscuri do glasača.

Nažalost, izbori u Bangladešu, Turskoj, ali i brojnim drugim zemljama upozoravaju na činjenicu da postoji velika mogućnost da će deepfake biti sredstvo borbe i u predizbornim kampanjama za koje se pripremaju domaće političke stranke.

Također, treba naglasiti da deepfake sadržaj nije uvijek kreiran sa namjerom da diskredituje kandidate/kinje ili politički subjekt. U ovom kontekstu, njegov cilj je da utječe na mišljenje izbornog tijela. Nekada to može imati namjeru narušavanja ugleda, a u nekim slučajevima se on nastoji popraviti, kao što je bio slučaj sa fotografijama bivšeg predsjednika Donalda Trumpa okruženog grupom Crnaca koji se smiju i veselo razgovaraju. Ove deepfake fotografije su se pojavile u trenutku dok Trump pokušava osvojiti glasove te grupe koja, prema anketama, ostaje lojalna predsjedniku Joeu Bidenu.

Zato je važno znati kako se pripremiti za izvještavanje i izbjeći situacije u kojima možemo dodatno proširiti štetne posljedice korištenja ovog sredstva manipulacije glasačima u predstojećim izborima.

Prepoznavanje deepfake sadržaja – prvi korak pripreme

Ranije je bilo mnogo jednostavnije prepoznati deepfake. Dovoljno je bilo tražiti neke nedoslijednosti, nepravilnosti na tijelu, ili u okruženju. Međutim, otklanjanjem ovih nesavršenosti, deepfake postaje mnogo teže prepoznati.

O umjetnoj inteligenciji u novinarstvu, sintetičkim medijima, načinima i platformama za provjeru autentičnosti fotografija i video zapisa, kao i o tome kako pripremiti novinare/ke da mogu prepoznati deepfake, već smo ranije govorili. Sada, više nego ikad prije, javlja se potreba za unaprjeđenjem znanja i vještina prepoznavanja deepfake sadržaja. 

Neki subjekti, poput Content Authenticity Initiative (CAI - Inicijativa za autentičnost sadržaja), Adobe otvoreni standardni verifikacijski sistem, uključujući i druge velike tehnološke kompanije poput Microsofta i Canona, predlažu korištenje metapodataka za identifikaciju odakle je slika potekla i kako je uređena. Međutim, s obzirom na to da se metapodaci mogu ukloniti s fotografija i videozapisa, potrebni su sofisticiraniji alati za otkrivanje AI-generiranih deepfake-ova. Neke od njih možete pronaći ovdje.

Rowan Philp, za Global Investigative Journalism Network, detaljno opisuje korake potrebne za prepoznavanje deepfake sadržaja, zajedno s alatima koji su na raspolaganju. Među tim koracima su rano prepoznavanje sumnjivih klipova putem usluga automatskog obavještavanja o deepfake sadržaju, poput Reality Defender-a, praćenje pojavljivanja audio snimaka na društvenim medijima te analiza stope dijeljenja pomoću alata kao što je BuzzSumo. Nadalje, ističe se korištenje tradicionalnih metoda i alata provjere dostupnih u Priručniku za provjeru Craiga Silvermana.

Na Minhenskoj konferenciji o sigurnosti (MSC), održanoj u februaru 2024. godine, vodeće tehnološke kompanije su se obavezale da će pomoći u sprječavanju obmanjujućeg AI sadržaja koji bi mogao utjecati na ovogodišnje globalne izbore. Digitalni sadržaj obuhvaćen ovim paketom sastoji se od AI-generiranih audio, video i slika koji obmanjujuće falsificiraju ili mijenjaju izgled, glas ili postupke političkih kandidata/kinja, izbornih dužnosnika/ca i drugih ključnih aktera u demokratskim izborima, ili pružaju lažne informacije biračima o tome kada, gdje i kako mogu glasati. Do danas, potpisnici su: Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap Inc., Stability AI, TikTok, Trend Micro, Truepic i X.

Iako je ovo jedan od velikih koraka u borbi protiv zloupotrebe deepfake sadržaja, mediji i novinari/ke su ti koji i dalje imaju veliku odgovornost u prepoznavanju sadržaja koji uspije da se provuče kroz rupe filtera koje ove kompanije kreiraju, i pravovremenom sprječavanju njegovog daljnjeg širenja.

Deepfake tehnologija predstavlja ozbiljnu prijetnju integritetu demokratskih izbornih procesa. Stoga je podizanje svijesti o opsegu posljedica, prepoznavanje deepfake materijala, provjera autentičnosti informacija neophodna u današnjem digitalnom okruženju.

Ocijenite kvalitet članka