Europski Akt o umjetnoj inteligenciji: Koje su obveze medija kada koriste umjetnu inteligenciju

07.06.2024. / 07:47
Autor/ica
Share
AI Act in media
AI Act in media

„Konačno imamo prvi svjetski obvezujući zakon o umjetnoj inteligenciji, za smanjenje rizika, stvaranje prilika, borbu protiv diskriminacije i uvođenje transparentnosti. Zahvaljujući Parlamentu, neprihvatljive prakse umjetne inteligencije bit će zabranjene u Europi, a prava radnika/ca i građana/ki bit će zaštićena.”, rekao je Brando Benifei (S&D, Italija) tijekom plenarne rasprave, suizvjestitelj Odbora za unutarnje tržište.

Iako se mnogi mediji nisu snašli s korištenjem umjetne inteligencije i njenim uvođenjem u redakcije, sada dolaze propisi koji će medije zakonski obvezati na reguliranje korištenja umjetne inteligencije i dokumentirano objašnjenje kako i koliko koriste umjetnu inteligenciju.

Mediji i umjetna inteligencija

Akt o umjetnoj inteligenciji (Artificial Inteligence Act) uključuje suzbijanje dezinformacija i osiguravanje da ljudi u konačnici imaju kontrolu, promicanje digitalnih inovacija, osiguravanje ljudskog nadzora, osiguranje transparentnosti, korištenje AI i digitalnih alata za poboljšanje pristupa građana informacijama, uključujući osobe s invaliditetom.

Transparentnost i autorska prava u medijima

Sustavi umjetne inteligencije opće namjene (GPAI) i modeli GPAI na kojima se temelje moraju ispunjavati određene zahtjeve transparentnosti, uključujući usklađenost sa zakonom EU o autorskim pravima i objavljivanje detaljnih sažetaka sadržaja koji se koristi za obuku. Snažniji modeli GPAI koji bi mogli predstavljati sistemske rizike suočit će se s dodatnim zahtjevima, uključujući provođenje evaluacije modela, procjenu i ublažavanje sistemskih rizika i izvještavanje o incidentima.

Umjetne ili manipulirane slike, audio ili video sadržaj ("deepfakes") moraju biti jasno označeni kao takvi.

Što konkretno zahtjevi transparentnosti znače u medijskoj praksi?

Primjer koji će odlično poslužiti za ilustraciju nije iz europskih medija, ali je dobar prikaz zahtjeva koji ovaj Zakon želi riješiti.

Neel Dhanesha u članku za NiemanLab je pisao o malom istraživanju o hiperlokalnim medijima, koje je proveo. Dhanesha u članku kaže da neke od priča koje je proizveo Hoodline (hiperlokalni medij) jako nalikuju onima iz drugih medija. Ali u svom istraživanju za ovu priču, Dhanesha je pronašao samo dva aktivna imena autora - Cheryl L. Guerrero i Steven Bracco – “koji izgledaju kao da pripadaju stvarnim ljudima, barem na temelju postojanja stranica društvenih medija i osobnih web stranica. Deseci drugih su AI.”

Ako sada pogledate ovaj portal, na prvi pogled nema tu ništa neobično jer u sažetcima vijesti a početnoj stranici nema nikakve oznake za AI generirani sadržaj. Tek kada kliknete na članak, mala ikona pored imena autora daje do znanja da autor David Martinez nije živ čovjek.

Foto: Screen Shot Hoodline.com
Foto: Screen Shot Hoodline.com

Hoodline nije jedini medij koji koristi AI za proizvodnju sadržaja; CNET, Sports Illustrated i mnogi drugi koristili su se lažnim piscima da popune svoje stranice. Hoodline je u međuvremenu počeo dodavati oznake umjetne inteligencije tek nakon što je drugo izdanje iz San Francisca, Gazetteer SF, postavilo pitanje o tome kako tvrtka koristi umjetnu inteligenciju.

Ono što se kod Hoodlinea ističe su imena.

Naslovnica Hoodline San Francisco ispunjena je člancima Leticije Ruiz, Nine Singh-Hudson, Eileen Vargas, Eric Tanaka, Tony Ng. Grupa koja zvuči raznoliko, poput stanovništva San Francisca!

Bloomberg ja primijetio da je sve do nedavno, svaki od tih autorskih redaka bio popraćen slikom glave i biografijom. (U biografiji Singh-Hudson je pisalo da je ona "dugogodišnja spisateljica i domorodac iz područja zaljeva.")

Zakon o umjetnoj inteligenciji u EU nastoji regulirati upravo ovakve slučajeve i to na prijedlog građana/nki (konkretno prijedlog 8 i prijedlog 3).

U EU transparentnost medija vezana za proizvodnju sadržaja više nije samo pitanje etike, nego podliježe pod zakonsku regulativu.

Autorska prava i umjetna inteligencija

Već duže vrijeme vodi se rasprava o autorskim pravima i umjetnoj inteligenciji.

Generativni AI sustavi jesu nevjerojatni alati, ali dobro je poznato da su trenirani sadržajem sakupljenim s cijelog interneta, posebno kvalitetnim sadržajem i vijestima koje proizvode javne i privatne medijske organizacije. Dakle, pojedine medijske kuće su platile novinare/ke, ulagale u istraživanje priča, dok su pojedini mediji umjetnu inteligenciju trenirali uz pomoć ovih sadržaja i to bez ikakve naknade.

Francois Lavoir, viši savjetnik za politiku EU, smatra da “medijske organizacije se suočavaju s dilemom. S jedne strane, dopuštanje upotrebe njihovog sadržaja za treniranje generativnih sustava umjetne inteligencije može poboljšati kvalitetu informacija koje se pružaju građanima, istovremeno nudeći način da ostanu dostupni (ako se sadržaj/URL navodi kao izvor). Međutim, postoji veliki rizik od kanibalizacije, jer analiza i ponovna obrada sadržaja medijskih organizacija hrani poslovne modele tvrtki generativne umjetne inteligencije. S vremenom bi generativni AI modeli/pomoćnici mogli postati zadana točka pristupa informacijama, čime bi medijske usluge bile uskraćene za njihovu publiku i prihode. To je navelo brojne javne i privatne medijske organizacije da se isključe iz ChatGPT alata za indeksiranje kako bi spriječili prikupljanje svojih podataka za obuku AI-ja.”

Rezultati Google pretrage uz pomoć umjetne inteligencije
Foto: Rezultati Google pretrage uz pomoć umjetne inteligencije; izvor How Google is improving Search with Generative AI (blog.google)​​​​​

Rezultat obuke AI-a znači da umjetna inteligencija uzima informacije od vas, plasira ih u pretragama kao rezultat, a vaš link će navesti ispod sadržaja. Vi jeste generirali sadržaj, ali promet i klik od tog sadržaja možda nećete ostvariti. Što je ozbiljan udar na budžete svih kreatora sadržaja koji ulažu u kreiranje sadržaja za koji neće ostvariti povrat.

Ono što je ključno, postoji nedostatak transparentnosti o generativnim podacima o obuci umjetne inteligencije. Od pokretanja ChatGPT 4, OpenAI više ne pruža informacije o tome koji se skupovi podataka koriste za obuku njegovih modela, navodeći kao razlog konkurentske i sigurnosne razloge. Za medijske organizacije to znači da nemaju načina/mogućnosti procijeniti je li njihov sadržaj obrađen ili ne.

Obveze medije prema Zakonu o umjetnoj inteligenciji

Akt o umjetnoj inteligenciji ne odnosi se samo na europske organizacije nego i na organizacije izvan Europe. Američke tvrtke, kao i sve druge tvrtke izvan EU-a, mogu podlijegati Zakonu o umjetnoj inteligenciji ako pružaju umjetnu inteligenciju u proizvodima i/ili uslugama koje su namijenjene potrošačima u EU-u. I pružatelji i korisnici (bilo da se radi o razvoju, uvođenju, prodaji, distribuciji ili korištenju) koji se nalaze izvan EU-a moraju se pridržavati Zakona o umjetnoj inteligenciji ako se rezultati njihovih sustava umjetne inteligencije koriste unutar EU-a.

Ovaj je Zakon prije svega zaštita privatnosti i prava građana. Kako će mediji podlijegati ovom zakonu ovisi o tome kako u svom radu koriste umjetnu inteligenciju. Prva obveza je transparentnost u korištenju umjetne inteligencije. Ako se radi o suzbijanju govora mržnje u komentarima i kreiranju oznaka (tagova) na člancima, to su procesi u kojima se ne koriste osobni podaci posjetitelja.

Ako na portalu imamo hiperpersonalizirane oglase, moramo objasniti kako smo došli do podataka za tako preciznu personalizaciju i što s podacima radimo.

Do sredine 2026. kompletan set propisa, uključujući zahtjeve za visokorizične sustave, bit će na snazi.

Ocijenite kvalitet članka