Nekoliko alata za provjeru deepfake sadržaja

04.04.2024. / 09:10

Sumnjati u ono što sto ste pročitali i nije neki problem. Ali sumnjati u ono što danas pogledate kroz video sadržaj može biti od krucijalne važnosti. Naročito ako ste novinar/ka.

Upravo ta konstantna sumnja vam može osigurati da informacije koje ćete podijeliti preko vašeg medija budu zaista istinite i tačne.

Sve veće prisustvo sadržaja koji je generisala umjetna inteligencija, pogotovo video sadržaja, otežava dolazak do istine i kreira lavinu dezinformacija.

Kako razlikovati činjenice od fikcije?

Danas novinari/ke i mediji moraju uložiti dodatne napore kako bi bili što više edukovani da se uhvate u koštac sa ovakvim pojavama.

Broj fact-checkera/ki širom svijeta se udvostručio u periodu od 2016. do 2022. godine, sa gotovo 400 timova novinara/ki i istraživača/ica koji se bave političkim lažima, prevarama i drugim oblicima dezinformacija u 105 zemalja. Ovaj broj je znatno povećan u prethodne dvije godine, naročito sa pojavom Chat-GPTa i drugih alata generativne vještačke inteligencije (GenAI) koji proizvode različite sadržaje, pogotovo video i audio manipulacije.

Kreatori deepfake videozapisa nastoje negativno utjecati na javno mnijenje koristeći značajne događaje, poput izbora kao i različitih kriza, kako bi zavarali i izmanipulisali ljude.

Jedan takav primjer je slika eksplozije u Pentagonu u SAD-u koja je postala viralna u maju prošle godine.

Tokom prošlogodišnjih opštih izbora u Nigeriji, manipulisani audio snimci koji tvrde da predsjednički kandidat Atiku Abubakar, njegov potpredsjednički kandidat dr. Ifeanyi Okowa i guverner Sokota Aminu Tambuwal planiraju manipulirati glasanjem su se proširili online.

Deepfake sadržaj zasigurno predstavlja veliku zabrinutost i stavlja niz izazova pred medije, jer što više kreatori deepfake sadržaja uspiju plasirati sadržaj viralno, mediji su u većim problemima i vrlo lako mogu izgubiti na kredibilitetu ukoliko ne budu pronašli način kako da se bore protiv ovakvog sadržaja, odnosno da nauče kako da ga provjere.

Koliko god je umjetna intelignecija dovela do rasprostranjenosti deepfake sadržaja, isto tako ona kao takva može biti i rješenje u borbi protiv deepfakea.

U nastavku navodimo neke od AI alata koji vam mogu biti korisni u provjeri sadržaja.

TensorFlow i PyTorch

Ova dva alata koriste duboke neuronske mreže za otkrivanje deepfake videozapisa. TensorFlow i PyTorch se mogu koristiti za analizu slika, videozapisa i audio signala radi otkrivanja znakova manipulacije. Korisnicima jednostavno treba da učitaju primjere stvarnih i lažnih medija kako bi obučili model za otkrivanje da razlikuje između ova dva.

TensorFlow i Pytorch imaju svoje tutorijale koji vam objašnjavaju kako da od nule postane heroj u borbi protiv deepfake sadržaja.

Iako se na prvu mogu oba alata činiti kao komplikovana, uz praćenje jasnih uputa i izdvajanje vremena da savladate njihovo korištenje, možete dobiti ogromnu korist u tome da se ne desi da prenesete video ili audio sadržaj koji je kreiran deepfake tehnologijom.

I ono što je dobro, oba su besplatna za korištenje.

Deepware

Deepware je tehnologija otvorenog koda posvećena prvenstveno otkrivanju AI generisanih videozapisa. Na web stranici postoji skener na koji se mogu učitati videozapisi kako bi se saznalo da li su sintetički manipulisani.

Kao i većina detektora deepfake videozapisa, deepware modeli softvera traže znakove manipulacije na ljudskom licu. Glavno ograničenje alata je nemogućnost prepoznavanja tehnika zamjene glasova, što je mnogo veća opasnost od zamjene lica. Kako navodi urednik TheCablea Mayowa Tijani, „Rezultat nije uvijek 100% tačan. Ponekad je to pogodak ili promašaj, zavisno o tome koliko je dobro napravljena laž, na kojem jeziku je i još nekoliko faktora". Ipak, može biti koristan i nije na odmet i njega koristiti za provjeru.

Sensity

Sensity je prvobitno kreiran za detekciju AI generisanih slika, ali se vremenom razvio u jedan od vodećih alata za detekciju deepfake videozapisa i prepoznavanje AI generisanih slika. Njegovi napredni modeli mašinskog učenja mogu se koristiti za analizu vizualnih i kontekstualnih znakova kako bi se identificirale AI-generisane slike.

Ovaj alat nije besplatan, a cijene su prilagođene na temelju mjesečne upotrebe i individualnih područja interesa.

Nudi besplatno 5 deepfakes analiza i neograničenu pretragu i upozorenja, a za 29 dolara mjesečno nudi 50 Deepfakes analiza, potpuni pristup inteligenciji, neograničeno pretraživanje i upozorenja, te 20 zahtjeva za uklanjanje sadržaja.

Prilagođena plaćena verzija, koja uključuje, neograničene Deepfakes analize, API-ji za detekciju, potpuni pristup inteligenciji, neograničeno pretraživanje i upozorenja, te istrage i uklanjanje, će koštati ovisno o vašim potrebama.

Hive

Pomoću Hive nezavisni factcheckeri/ke i internet korisnici/ce mogu brzo skenirati digitalne tekstove i slike kako bi provjerili njihovu autentičnost. Za provjeru slike, korisnici/e učitavaju datoteku na stranicu za otkrivanje sadržaja generisanog umjetnom inteligencijom kako bi bila brzo obrađena.

Postoji i ekstenzija (addon) za Chrome i Microsoft Edge Hive AI detektor koji se može instalirati i koji  omogućava korisnicima/ama da besplatno otkriju AI-generisani tekst i slike iz pretraživača bez napuštanja stranice na kojoj se upitan sadržaj nalazi. Možete je skinuti preko Google play.

Illuminarty

Illuminarty također nudi mogućnost otkrivanja AI generisanih slika i tekstova. Besplatna verzija uključuje osnovne usluge, dok premium planovi alata nude više funkcija, a cijena se kreće od 10 dolara pa nadalje, ovisno o kojem paketu govorimo.

Pomoću ovog alata korisnici/e mogu identifikovati gdje se nalazi manipulacija u lažnoj slici i iz kojih AI modela je generisana. Također može procijeniti vjerovatnost da je slika stvorena pomoću AI-a.

Vještine i znanje kako koristiti alate

Svi ovi alati mogu pomoći medijima i novinarima/kama da identifikuju lažni sadržaj i  da se bore protiv deepfake slika, audio i videozapisa, ali nisu uvijek 100% tačni. Uvijek postoji rizik od lažnih pozitivnih ili negativnih rezultata, gdje se legitimni sadržaj može pogrešno označiti kao deepfake videozapis ili obrnuto.

Ono što je neophodno jeste da novinari/ke, ali i mediji, pronađu prostor kako bi unaprijedili svoje vještine korištenja ovih alata, kako bi uopšte mogli pokrivati teme od javnog značaja, poput izbora, ratova i slično, a da ne upadnu u zamku dijeljenja sadržaja koji nije istinit. Dodatno bi ovi alati trebali poslužiti kao osnova za razvoj internih procedura provjere sadržaja i donošenja odluka unutar redakcije da li je sadržaj dovoljno pouzdan za objaviljivanje ili ga uopšte ne treba objaviti.

Iako se provjera činjenica može činiti kao da usporava proces objave vijesti, ona postaje nepohodan čimbenik današnjeg novinarstva, koji nije rezervisan samo za istraživačke novinare/ke ili specijalizirane medije koji se bave provjerom činjenica, već sastavni dio posla svakog novinara/ke. Zato u tom procesu ovakvi alati mogu mnogo pomoći i olakšati provjeravanje činjenica, što svakako može dovesti do povećanja povjerenja u medij koji to čini. 

Ocijenite kvalitet članka