Što su sintetički mediji? Uz pomoć umjetne inteligencije do uvjerljivijih laži

29.07.2022. / 09:19

Kada pomislite na sintetički materijal, prva misao je: lijepi su, ali nisu ugodni.

Sintetički mediji nisu mnogo drukčiji.

Sve bolji, sve bliži savršenstvu, ponekad nerealno realistični, a ipak s ogromnim potencijalom za uzrokovanje štete.

Dobro došli u svijet umjetne inteligencije u novinarstvu. Jeste napredno, ali nam nitko nije rekao da može biti tako opasno.

Što su sintetički mediji?

Sintetički mediji također poznati kao mediji generirani umjetnom inteligencijom, generativni mediji i personalizirani mediji, kolokvijalno nazivani i kao deepfakes, odnose se na sve medije stvorene upotrebom umjetne inteligencije.

Sintetički medij je izraz za umjetnu proizvodnju, manipulaciju, i modificiranje podataka i medija automatiziranim sredstvima, posebno upotrebom algoritama umjetne inteligencije.

Iako stručnjaci koriste izraz "sintetički mediji", sami mediji pojedinačne metode ne nazivaju deepfakes i sinteza teksta, već često koriste "deepfakes" kao eufemizam:

  • "deepfakes za tekst" " za generiranje prirodnog jezika

  • "deepfakes za glasove" za neuralno kloniranje glasa...

Značajniju pažnju sintetički su mediji privukli 2017. kada su se pojavile snimke umjetnom inteligencijom izmijenjenih pornografskih videa s umetnutim licima poznatih glumica.

Primjena sintetičkih medija

Primjena sintetičkih medija gotovo da nema granice. Umjetnost, obrazovanje, marketing i komunikacija samo su neke od oblasti primjene. Iako postoje primjeri korištenja deepfake medija u pozitivne svrhe, čini se da novinarstvo (zbog velike opasnosti od propagande i utjecaja na publiku) nije među oblastima u kojima je primjena sintetičkih medija prihvatljiv način.

U nastavku teksta donosimo nekoliko primjera upotrebe sintetičkih medija u pozotivne, negativne i eksperimentalne svrhe.

Sinteza slike

Još 2020. godine The Verge je donio priču o mreži fiktivnih autora/ica koji su objavljivali autorske tekstove u medijima kao što su Washington Examiner i American Thinker. Ova je mreža izmišljenih likova korištena za plasiranje članaka u medijima, a koji su povoljni za određene zaljevske države, otkrila je istraga koju je proveo The Daily Beast.

a

Najmanje 19 profila lažnih osoba korišteni su kao autori/ice tekstova objavljenih u desecima medija, sa slikama glava potencijalnih autora koje je generirala umjetna inteligencija kako bi se publika prevarila i povjerovala da su autori/ice stvarni ljudi.

Kako je moguće da se autentičnost fotografija autora/ica nisu mogle utvrditi uz pomoć alata i tehnika za provjeru istinitosti?

Profilne slike generirane umjetnom inteligencijom koje su izradile stranice poput ThisPersonDoesNotExist.com imaju jedinstvene prednosti u stvaranju lažnih online likova. Najvažnija karakteristika je da je svaka slika jedinstveno generirana, što znači da se ne može pratiti natrag do izvorne slike (i brzo pokazati da je lažna) korištenjem obrnutog pretraživanja slika.

Međutim, trenutna generacija slika glave koje je stvorila umjetna inteligencija ipak nije besprijekorna. Ovakve slike imaju brojne slične osobine:

1.     zube čudnog izgleda

2.     asimetrične crte lica

3.     kosu koja ne izgleda realistično

4.     ušne resice koje su čudno stopljene

5.     nejasne pozadinske slike.

Sinteza zvuka i govora

Sintezu zvuka ili kako se još naziva deepfake zvuka u svom alatu poudila je tvrtka Descript. Trenutno se testira nova “Overdub” značajku koja korisnicima omogućuje dodavanje i mijenjanje riječi i cijelih rečenica u audio fajlu datoteke pomoću računalno generiranog glasa koji zvuči poput govornika iz konkretne snimke. U slučaju da je gost podcasta ili domaćin rekao nešto netočno, na primjer, producent bi mogao popraviti zvuk umjesto da ga ponovno snimi.

U elektronskim medijima imamo primjer sinteze zvuka s BBC-ja, gdje se voditelj vijesti na engleskom jeziku pojavio na španjolskom, hindskom i mandarinskom 2018.

To je postalo moguće jer je softver uhvatio pokret lica osobe koja govori na drugom jeziku i zatim ga zalijepio na lice voditelja. Iako je BBC ovo upotrijebio kao primjer kako bi sintetički mediji mogli širiti dezinformacije, to također sugerira kako bi se sintetički mediji mogli koristiti u budućnosti za stvaranje lokalno prilagođenog programa na automatiziran način.

Generiranje prirodnog jezika

Korištenje sintetičkih medija ne mora biti obilježeno izuzetno lošim namjerama.

Dobrotvorna organizacija “Malaria Must Die” koristila je sintetičke medije kako bi omogućila Davidu Beckhamu da govori na devet različitih jezika u svojim video spotovima kampanje. Upotrijebili su tehnologiju videosinteze za sinkronizaciju Beckhama i učinili da izgleda kao da govori tim jezicima.

Globalno poznat nogometaš David Beckham iz budućnosti šalje poruku nade na različitim jezicima. U toj budućnosti ne postoji jedna od najstarijih i najsmrtonosnijih bolesti na svijetu – malarija. Je li ovakvo korištenje deepfakea zvuka opravdano? Naravno da je opravdano i poželjno jer za cilj nema propagandu ni dijeljenje informacija sumnjive istinitosti i vrijednosti.

Jesu li novinari/ke i redakcije spremni na izazove koje sintetički mediji donose?

Kad pomislite da su edukacije i treninzi za prepoznavanje lažnih medija, lažnih vijesti, lažnih naloga na društvenim mrežama, konačno urodili plodom i da to znanje možete primijeniti u svakodnevnim poslovima redakcije, dolazi update.

Ovog puta to ažuriranje nije usmjereno na lažne izjave stvarnih postojećih političara i javnih osoba. Sada dolaze lažni novinari/ke.

Potencijalne opasnosti sintetičkih medija uključuju:

  • mogućnost širenja dezinformacija

  • izazivanja nepovjerenja gledatelja u stvarnost

  • masovnu automatizaciju kreativnih i novinarskih poslova

  • potencijalno stvaranje potpunog povlačenja u svjetove fantazije koji su generirani umjetnom inteligencijom.

Da bi se novinari/ke lakše nosili sa svim ovim izazovima, morat će biti u stanju prepoznati njihove različite oblike i educirati svoju publiku o tome, smatra Sam Gregory, direktor programa za WITNESS, organizaciju koja koristi video i tehnologiju za obranu ljudskih prava.

Deepfakeovi su među istaknutijim primjerima manipuliranih medija danas, rekao je Gregory tijekom webinara ICFJ Global Crisis Reporting Foruma.

Stalna borba između vjerodostojnog izvještavanja i medija koji imaju namjeru obmanjivati znači da novinari/ke moraju biti opremljeni najučinkovitijim alatima i tehnikama za borbu protiv sve inovativnijih načina dezinformiranja.

Ocijenite kvalitet članka