Možemo li zavarati umjetnu inteligenciju?

Umjetna inteligencija (AI) tema je brojnih razgovora, postavlja puno pitanja, a samo na neke od njih zaista i daje odgovor. Dok je jedni prihvaćaju širom raširenih ruku, drugi smišljaju načine kako joj se oduprijeti. Danas ona čini sastavni dio naših života i koristi se u brojnim profesijama, od IT-a preko medicine do auto industrije.

AI uči svoje obrasce ponašanja na velikim bazama podataka koje obrađuje i na temelju toga donosi odluke. Široko popularan postao je pojavom alata za tzv. generativni AI. Radi se o alatima koji omogućavaju izradu tekstualnog ili audiovizualnog sadržaja, na način da ih korisnik primjerice tekstualno opiše, a AI na temelju tog opisa generira tražene vizuale.

Upravo je generativni AI jedan od najvećih razloga želje da ga se zavara. Brojni autori diljem svijeta žale se kako se njihova djela uzimaju bez pitanja u baze podataka za učenje AI-a, a on na temelju toga generira rezultate koji su vrlo slični njihovim originalnim djelima. Mnoge od najpoznatijih platformi koje se bave generativnim AI-em suočavaju se s tužbama autora o kršenju autorskih prava, pa čak i uzimanju osobnih informacija bez pristanka.

Data poisoning nije novi pojam, ali je jedan od glavnih alata borbe protiv AI-a. Radi se o nizu tehničkih radnji, korisnicima nevidljivih, koje onemogućuju AI modele u treningu, odnosno učenju podataka. Na taj način njihov finalni rezultat ispada neupotrebljiv. Upravo je to način kako AI možemo zavarati jer podaci koji se koriste postaju iskrivljeni, a rezultati u nekim situacijama čak i jako daleki od onoga što bi korisnici očekivali. U fotografije se ubacuju neznatno promijenjeni pikseli koji onda kroz nebrojene tisuće fotografija koje AI obrađuje, s vremenom u cijelosti mijenjaju kontekst. Ako ste npr. poželjeli da vam AI generira mačku na livadi kao rezultat bi mogli dobiti psa u moru ili želite pletenu zimsku kapu, a kao rezultat dobijete ručnu torbu.

Neki od  najpoznatijih slučajeva data poisoninga bili su organizirani napadi na poznati mail servis, slanjem velikog broja mailova kako bi se zbunio njegov algoritam i kako bi propustio sve spam poruke prema korisnicima. Poznat je i slučaj gdje je grupa hakera zavarala autopilot električnog automobila kako bi tijekom vožnje prelazio u drugu traku iako to ne bi smio. To su učinili jednostavnim dodavanjem naljepnica žarkih boja u bazu podataka kako bi zbunili AI.

Ovdje se radi o namjernim napadima na AI kako bi ga se onemogućilo u radu ili kako bi se proizvele zlonamjerne posljedice. Ubacuju se namjerno zavaravajući podaci u baze podataka za učenje, mijenja se samo dio podataka kako bi oni bili nepotpuni i organiziraju se prikriveni napadi koji se teško otkrivaju u fazi učenja i razvoja AI-a.

Najbolji način borbe protiv ove vrste napada je koristiti sigurne baze podataka, redovito ih provjeravati, prevenirati napade koliko je god moguće, i paziti tko ima pristup bazama podataka za učenje AI-a.

Dva su smjera data poisoninga, prvi dolazi iz želje autora kako bi se zaštitili da se njihova djela ne koriste neovlašteno, bez njihove privole. Razvojem platformi koje koriste “tekst promptove” kako bi generirali sadržaj, razvile su se i platforme koje omogućuju autorima da se zaštite od AI-a. Već prilikom uploada fotografija, algoritmi odrađuju data poisoning dio i na taj način štite autore; sprječavaju da njihova djela u budućnosti posluže AI-u za učenje i razvoj.

Kako se data poisoning podaci jako teško uklanjaju jer treba pronaći svaki onečišćeni primjerak i ukloniti ga, ovo je način da autori sabotiraju AI i platforme koje se bave generiranjem fotografija.

Što je veći broj poisoned fotografija, to je veća disrupcija finalnih rezultata. Kako AI radi i uči, šteta iz poisoned fotografija mogla bi utjecati i na prompt ključne riječi, te na taj način samo dodatno onemogućiti AI.

Izvorište problema, a i sam sukob oko generativnog AI-a, dolazi iz vjerovanja da sve što se nalazi online je dostupno za korištenje svima.

I na kraju, možemo li zavarati AI? Da, zasada još uvijek možemo, ali pitanje je do kada. Iz dana u dan obrađuje ogromne količine podataka, stvara foto i video sadržaj koji je nemoguće razlikovati od rada čovjeka i može u potpunosti utjecati na našu percepciju okoline.

Duško Tubić, Head of Creative Production & Entertainment u dentsu Croatia podijelio je s nama ovo uz završno mišljenje: Nove tehnologije svakako predstavljaju korak naprijed u poslovanju, ali moramo im pristupiti oprezno i odgovorno. U slučaju AI-a, to ćemo učiniti poštujući prava trećih strana i vodeći računa o autentičnosti sadržaja.

Ako želite razgovarati o upotrebi AI tehnologija u kreativi, javite se na [email protected]