...za sve one ljude koje ne shvaćaju koliko AI generirane deepfake slike zapravo mogu biti opasne!
Nastavno na prethodni tekst...
Mala šala - veliki problem
Deepfake AI slike mogu staviti nečiji lik u neprimjerene, kriminalne ili kompromitirajuće situacije te izgledati dovoljno uvjerljivo da ljudi povjeruju kako su zaista stvarne. Problem je tim veći što takve slike i video-klipovi često nisu označeni kao sadržaj generiran pomoću AI-ja, a vrlo često se dijele bez ikakvog konteksta. Zbog toga ljudi na temelju same AI slike ili videa olako donose zaključke. Dodatni problem je to što AI tehnologija stalno napreduje te danas stvara iznimno uvjerljive slike i video-klipove koje ni obični ljudi, a nerijetko ni institucije (bez detaljnih, gotovo forenzičkih provjera), ne mogu odmah prepoznati kao lažne.
Takve slike ili video-klipovi generirani pomoću AI tehnologije, čak i ako su nastali "iz šale", kao "zabava" ili "zafrkancija", u stanju su ljudima stvoriti velike probleme - ponekad i toliko ozbiljne da ta „šala“ više nije šala.
Na primjer...:
Ako se neku osobu u realističnoj AI deepfake slici ili videu prikaže kako radi nešto potencijalno nezakonito, to može izazvati vrlo ozbiljne probleme, čak i ako je sadržaj lažan i napravljen iz šale. Ako takva AI fotomontaža ili video prikazuje osobu kako, npr. provaljuje, uništava imovinu, krade, zlostavlja ili ubija nekoga, sudjeluje u nasilju ili koristi nedozvoljene supstance, mogu reagirati policija ili druge institucije gonjenja (socijalne službe i sl.). Za osobu koja je iskorištena kao predmet takve AI foto ili video šale to može rezultirati privođenjima, ispitivanjima, pretresima i provjerama, a u nekim slučajevima i upisom u sustav kao "sumnjive osobe".
Ako se neku osobu u realističnoj AI deepfake slici ili videu prikaže kako sudjeluje na nekom prosvjedu, političkom skupu ili sličnom okupljanju, iako tamo nikada nije bila niti je politički angažirana, to također može izazvati vrlo ozbiljne probleme. Posebno je to osjetljivo u situacijama kada je prosvjed, u čiju je sliku ili video osoba umetnuta, ekstremistički, nasilan i/ili povezan s govorom mržnje ili drugim ilegalnim aktivnostima. U takvim slučajevima može se dogoditi da osoba, zbog nečije "šale", ima posla s policijom i drugim državnim institucijama, kao i probleme prilikom putovanja u druge države.
Ako se neku osobu u realističnoj AI deepfake slici ili videu, koja je u ljubavnoj vezi ili braku, prikaže kako s nekom drugom osobom (a ne sa svojim intimnim ili bračnim partnerom) razmjenjuje nježnosti ili čak i nešto više od toga, iako ta osoba to nikada nije učinila, takav sadržaj može rezultirati raspadom veze ili razvodom braka.
Općenito, sve takve "šale" mogu dovesti do toga da osoba koja je njihov predmet, ni kriva ni dužna, bude uvučena u ozbiljne i neugodne probleme. "Dokaz" u obliku AI generirane slike ili videa može se vrlo brzo, putem interneta i društvenih mreža, proširiti viralno, a čak i ako se naknadno utvrdi da je riječ o "samo šali“ ili "zabavi“, odnosno da su slika ili video lažni i stvoreni pomoću AI-ja, to neće poništiti već nastalu štetu.
Ta šteta može biti raznolika: narušavanje ugleda, stigmatizacija u društvu, disciplinski postupci, gubitak posla, razvod braka, javni linč na društvenim mrežama, cyberbullying, pa sve do primanja prijetnji nasiljem ili čak stvarnog nasilja.
Osoba koja stvori takvu "šalu“ zbog koje netko nedužan nastrada, može za to itekako odgovarati - npr. za klevetu, narušavanje ugleda, povredu privatnosti ili nedozvoljenu upotrebu osobnih podataka, s obzirom da u Hrvatskoj postojeći kazneni zakon i civilni propisi omogućavaju sankcioniranje zloupotrebe deepfakeova, i činjenici da legislativa postupno prepoznaje i regulira AI-generirane sadržaje te uvodi sankcije za njihovu zloupotrebu. Štoviše, u nekim drugim europskim zemljama, poput Francuske, Danske i Španjolske, već postoje ili se uvode posebne mjere protiv neovlaštenog dijeljenja AIgeneriranih sadržaja.
Jer kako je već rečeno, male šale mogu izazvati velike probleme!
Post je objavljen 14.12.2025. u 19:58 sati.