Izazovi dezinformacija koje donosi umjetna inteligencija

07.02.2024. / 07:56
Autor/ica
Share
AI Generated content and disinformation, fake news, journalism
AI Generated content and disinformation, fake news, journalism

Razvoj i rasprostranjenost generativne umjetne inteligencije u 2023. godini, dovela je do porasta dezinformacija omogućavajući velikom broju ljudi dostupnost kreiranja foto, video i audio sadržaja uz pomoć umjetne inteligencije, a koji zapravo nije istinit.

Prisjetimo se samo primjera poput slike Pape u Balenciaga jakni ili bijega Donalda Trumpa pred policijom, kao i mnogih drugih. Ovakve i slične kreacije postale su veoma brzo viralne ostavljajući prostor za različite interpretacije, ali i uzimanje informacija kao istinitih, bez ikakvih provjera.

S druge strane, zadaci koje date generativnoj umjetnoj inteligenciji, želeći recimo dobiti sliku nekog grada, kako ne biste koristili tuđu, mogu dovesti do iznenađujućih rezultata koji iskrivljuju realnu sliku ili oduzimaju (čak i dodaju) elemente.

Ovih dana je veliku polemiku izazvao upravo jedan takav slučaj kreiranja slike Starog mosta u Mostaru kao jednog od najprepoznatljivijih simbola grada, gdje je AI generisana slika izbrisala u pozadini sve džamije koje postoje upravo tu oko Starog mosta. Nećemo ulaziti u političke i nacionalne polemike, već samo u činjenice, a to je da jedna ovakva AI generisana slika jeste zaista neistinita i pruža iskrivljenu sliku realnosti. Upravo ona može biti jako dobar primjer kako se sadržaj generisan umjetnom inteligencijom mora činjenično provjeriti.

Photo comparation
Prva fotografija je prva koja je bila ponuđena u alatu Canva pod Old Bridge Mostar, a druga je AI generisana slika koju je Fakultet koristio. Upoređivanjem ove dvije fotografije možemo jasno vidjeti nedosljednosti i iskrivljene činjenice.

Zbog ovog i drugih slučajeva medijsko izvještavanje o umjetnoj inteligenciji, načinima upotrebe i njenim izazovima bi trebalo biti primarno kako bi se javnost upoznala sa načinom funkcionisanja generativne umjetne inteligencije, prije nego što se uopšte krene ona kao takva koristiti, upravo kako se ne bi sami mediji doveli u situaciju da generišu sadržaj i objave isti, prije nego ga činjenično provjere.

Ovakvo neznanje o korištenju generativne umjetne inteligencije se naizgled može čitini „benigno“ ali u konačnici može produbiti neistinite informacije o nekoj temi i proširiti dezinformacije.

S obzirom na činjenicu da će se u 2024. godini dogoditi najveći broj izbora i historiji njegovih održavanja, a uzimajući u obzir dosadašnju tendenciju da se dezinformacije koriste tokom izbora, ostavlja se prostor za zabrinutost zbog toga kako će se koristiti generativna umjetna inteligencija.

S tim u vezi, pretpostavlja se da će trendovi dezinformacija koji su bili prisutni u 2023. godini biti nastavljeni i kroz ovu godinu, sa mogućnošću još veće rasporstranjenosti u njenom korištenju.

„Do kraja ove godine, ljudi možda neće vjerovati ničemu što vide - ili čuju. Audio duboke laži bit će glavni izvor generativnih dezinformacija pomoću AI-a, jer je najlakši tip za stvaranje i već je pokazao značajan utjecaj u nekim zemljama. Međutim, ne vidim generativnu AI kao zamjenu za jeftine laži, glupe memeove ili političke izjave kao glavne vektore dezinformacija. Potpuno se slažem s kolegama sa Trusted Media Summit da bi provjeritelji činjenica i redakcije trebali suspendirati strah od generativne AI i eksperimentisati sa alatima poput ChatGPT, Bard, Bing ili Claude.“ navodi Alex Mahadevan direktor Media Wisea.

Eksperimentisanje i inovativnost u medijskim pristupima je dobrodošlo, ali činjenično izvještavanje, odnosno provjera činjenica treba i mora ostati u fokusu medijskog izvještavanja.

U NiemanLab predviđanjima za 2024. godinu, Matt Skibinski, generalni direktor NewsGuarda smatra da će umjetna inteligencija u 2024. godini demokratizirati dezinformacije, odnosno da će osnažiti svakoga ko ima tastaturu da stvara lažne vijesti jeftino i u velikim razmjerima.

„Ovo nije ograničeno na audio i video alate. Alati za generisanje teksta kao što su ChatGPT i Googleov Bard imaju nevjerojatno slabu odbranu od proizvodnje dezinformacija. Naš tim u NewsGuardu proveo je vježbe "Red Teaming" za ove alate i otkrio da, kada su im postavljena pitanja o poznatim, čak i naširoko opovrgnutim pričama o dezinformacijama, AI chatbotovi ponavljaju dezinformacije 80-98% vremena, ovisno o alatu - unatoč široko rasprostranjenom obećanju industrije da će ulagati u odgovoran razvoj umjetne inteligencije.“ – navodi on.

Provjera činjenica AI generisanog sadržaja

Provjera činjenica sadržaja generisanog umjetnom inteligencijom ključna je za održavanje vjerodostojnosti i objavljivanja visokokvalitetnog sadržaja.

Kako biste postigli upravo takve rezultate, važno bi bilo obratiti pažnju na sljedeće korake:

  • Identifikujte ključne informacije: Pronađite ključne informacije koje trebate provjeriti.
  • Unakrsna referenca: Provjerite tvrdnje unakrsnim referencama podataka sa više pouzdanih izvora. Oslonite se na provjerene baze podataka, akademska istraživanja i vjerodostojne web stranice kako biste potvrdili informacije predstavljene u sadržaju.
  • Provjerite pristrasnost i greške: Uvijek provjerite statistiku, podatke, brojke, imena ljude, mjesta i slično.
  • Koristite alate za provjeru činjenica: Koristite alate i platforme za provjeru činjenica da biste procijenili vjerodostojnost sadržaja.

Krajem 2022. godine smo pisali o alatu za provjeru činjenica za balkansko govorno područje – Disinforamtion Toolkit, koju možete i vi koristiti kako biste osigurali da je sadržaj koji plasirate činjenično provjeren. EU DisinfoLab nudi niz resursa i alata za borbu protiv dezinformacija, koje vam također mogu biti korisne.

Ocijenite kvalitet članka