Dogovoren Akt o AI-ju: AI se neće smjeti koristiti za društveno vrednovanje

Odbori Europskog parlamenta podržali su u utorak Akt o umjetnoj inteligenciji koji će omogućiti razvoj tog polja, ali i zaštititi korisnike od uporabe AI-ja "neprihvatljivog rizika" poput društvenog vrednovanja.

14.02.2024. - 08:53
14.02.2024. - 09:02
Dogovoren Akt o AI-ju: AI se neće smjeti koristiti za društveno vrednovanje
Foto: Hina

Na sjednici Odbora za unutarnje tržište zaštitu potrošača (IMCO) i Odbora za građanske slobode, pravosuđe i unutarnje poslove (LIBE) podržan je dogovor s državama članicama EU-a o Aktu o umjetnoj inteligenciji. Dogovor još moraju formalno potvrditi Europski parlament i Vijeće EU-a.

OpenAI zaintrigirao je cijeli svijet kad je u studenome 2022. lansirao ChatGPT. Google mu je u prosincu 2023. uzvratio lansiranjem Geminija, svog najnaprednijeg AI modela. No uz razvoj umjetne inteligencije, dolaze i nove prijetnje pa će se ovim Aktom o umjetnoj inteligenciji nastojati uspostaviti balans između minimiziranja prijetnji i poticanja razvoja AI-ja. 

"Nakon trijaloga, danas smo korak bliže ka donošenju novih i jedinstvenih pravila za sustave umjetne inteligencije. Uspostavom jasnog okvira želimo iskoristiti sve mogućnosti, ali i minimizirati rizike. Europi su potrebni okvir povjerenja i pravna sigurnost, jasno uz inovacije i konkurentnost – koje Aktom o umjetnoj inteligenciji želimo potaknuti", ocijenio je eurozastupnik Karlo Ressler (HDZ/EPP), potpredsjednik posebnog Odbora EP-a za umjetnu inteligenciju u digitalnom dobu (AIDA), priopćio je njegov ured u utorak. 

Prema istraživanju Hrvatske pošte, Veleučilišta Effectus i tvrtke Alca Zagreb iz rujna, 60 posto Hrvata navelo je da im je prva asocijacija na AI "neizvjesnost i zabrinutost", dok je za njih 30 posto to "korisnost i ushićenje". Uz to, općeniti stav Hrvata prema umjetnoj inteligenciji je nešto više negativan nego pozitivan, ali još uvijek ima dosta neopredijeljenih. 

"Neprihvatljivi rizici" umjetne inteligencije

Postignutim dogovorom zabranit će se umjetna inteligencija koja pojedince društveno vrednuje i razvrstava u određene kategorije - po rodu, rodnom identitetu, rasi, etničkom podrijetlu, migracijskom statusu, državljanstvu, političkom uvjerenju, seksualnoj orijentaciji, vjeroispovijesti i slično. 

Pod umjetnom inteligencijom neprihvatljivog rizika smatraju se pohranjivanje fotografija prikaza lica s interneta ili snimaka CCTV-a snimaka, prepoznavanje emocija na radnom mjestu i u školama, društveno bodovanje, prediktivno policijsko djelovanje isključivo na profiliranju osobe. Građani će moći podnositi pritužbe na sustave AI-ja koji ugrožavaju njihova prava. 

"Danas smo izglasali prvi europski zakon o umjetnoj inteligenciji kojim su sustavi umjetne inteligencije podijeljeni po kategorijama rizika koji predstavljaju za građane. Zakon tako razlikuje sustave neprihvatljivog rizika, koji su zabranjeni, zatim visokog rizika, ograničenog rizika i minimalnog rizika kod kojih nema nikakvih posebnih zakonskih ograničenja. S tim u vezi kao visokorizičan sustav zabranili smo koncept društvenog vrednovanja kojim se pomoću algoritama može prikupljati širok spektar podataka o građanima i njihovom ponašanju", istaknuo je u priopćenju hrvatski eurozastupnik Tomislav Sokol (HDZ/EPP), potpredsjednik IMCO-a. 

No postojat će izuzeci od pravila. Uporaba biometrijskih podataka bit će dozvoljena u nekim situacijama pod određenim uvjetima. RBI (Remote biometric identification) bit će moguć uz vremensko i geografsko ograničenje te prethodno sudsko odobrenje. Koristit će se u potrazi za nestalima i za sprječavanje terorističkih napada. A visokorizični sustavi, s ogromnim utjecajem na zdravstvo, obrazovanje, promet, migracije i upravljanje demokratskim procesima, morat će prolaziti sustav procjene i ublažavanja rizika, omogućiti nadležnim tijelima detaljnu dokumentaciju o značajkama i svrsi sustava, između ostaloga.  

"Umjetna inteligencija ima ogroman potencijal u zdravstvu ili prometu jer se njome može preciznije dijagnosticirati rak ili bolje upravljati gužvama u prometu. Zato smo propisali da takvi sustavi koji su visokorizični uvijek moraju biti pod ljudskom kontrolom. Umjetne inteligencije ne treba se bojati, već njezino korištenje treba kvalitetno urediti što smo danas i učinili", dodao je Sokol.

Temeljni modeli kao što su ChatGPT i sustavi umjetne inteligencije opće namjene (GPAI) morat će biti u skladu s obvezama transparentnosti prije nego što se stave na tržište. To uključuje izradu tehničke dokumentacije, usklađivanje sa zakonom EU-a o autorskim pravima i širenje detaljnih sažetaka o sadržaju koji se koristi za obuku.

Osim toga, umjetne ili manipulirane fotografije, audio ili video sadržaji ("deepfakes") morat će biti jasno naznačeni kao takvi. (Hina)

   0
   0