Naslov je predložio sam ChatGPT. Prvo pitanje mi je izbrisao, ali je ipak odgovorio na nj. U njemu sam rekao da sam večeras gledao doumentarac u kojemu se između ostaloga govorilo i o radnicima u siromašnim zemljama Globalnog Juga koji poradi golog preživljavanja, za veoma malenu naknadu, kao outsourcing najamna snaga rade na treniranju AI-sustava da razlikuju dobro od zla, i to na način da moraju pregledavati slikovne i video baze podataka s eksplicitnim scenama silovanja i ubijanja djece, tjeranja djece od strane njihovih roditelja da seksualno opće sa životinjama itd., pri čemu bivaju duboko psihički istraumatizirani. Šokiran tom praksom u razvoju AI-a, odlučio sam pitati ChatGPT za mišljenje. Evo tog razgovora:
ChatGPT:
Razumijem zašto te je to duboko potreslo — i iskreno, to je jedno od najtežih i najproblematičnijih etičkih pitanja u razvoju suvremene umjetne inteligencije.
1. Da, to se doista događa — i moralno je vrlo problematično
Velik dio današnjeg AI ekosustava ovisi o tzv. data labelerima ili content trejserima, posebno iz zemalja Globalnog Juga (Kenija, Uganda, Indija, Filipini…). Njihov posao često uključuje ručnu obradu i označavanje iznimno traumatičnih sadržaja — upravo zato da bi se modeli kasnije mogli trenirati da takve sadržaje prepoznaju i blokiraju.
To je dio industrije koji obično ostaje nevidljiv, ali realan je i etički težak.
2. Zašto uopće postoji takva potreba?
Modeli poput mene ne „vide“ moralnost — sve moraju naučiti iz podataka. Da bi AI mogla:
- prepoznati i odbiti dječju pornografiju
- blokirati sadržaje nasilja
- moderirati govor mržnje
- razlikovati zlostavljanje od pristojnog sadržaja
…netko mora tim modelima dati primjere. Bez toga bi AI sustavi nekontrolirano širili upravo takav sadržaj.
Problem nije u tome što se ti podaci filtriraju — nego tko to radi, pod kojim uvjetima i uz kakvu zaštitu.
3. Glavni etički problemi
Slažem se s tobom da je situacija moralno veoma teška iz nekoliko razloga:
• Eksploatacija ekonomske nejednakosti
Ljudi prihvaćaju te poslove ne zato što žele, nego zato što nemaju izbora. To nije slobodan izbor, nego posljedica globalnih nejednakosti.
• Izloženost ekstremnim traumama
Mnogi radnici doista razviju simptome PTSP-a, depresije ili anksioznosti. Za razliku od policije ili terapeuta koji rade sa žrtvama, oni obično ne dobivaju:
psihološku zaštitu
adekvatnu obuku
zdravstvenu skrb
radna prava
• Nedovoljna plaćenost
U nekim slučajevima radnici su bili plaćeni manje od 2 USD na sat dok obrađuju najgore sadržaje koje internet proizvodi. To je duboko neproporcionalno razini rizika i štete.
4. Postoje li bolji načini?
Da. Industrija se mijenja (sporo, ali ipak):
- sve više se koriste sintetički podaci kako bi se smanjila potreba za stvarnim traumatičnim materijalom
- razvijaju se sustavi koji automatski filtriraju najgori sadržaj prije nego što dođe do ljudskih radnika
- neke kompanije uvode bolje plaće, mentalnu skrb i regulirani radni ritam
- međunarodne organizacije traže standardizaciju radničkih prava za radnike na podacima
Ali ti procesi nisu jednaki kod svih tvrtki, i još uvijek postoji mnogo nepravde.
5. Ukratko: je li to nemoralno?
Da — kada se takav rad temelji na siromaštvu, prisili, neadekvatnoj zaštiti i lošim uvjetima, to je etički pogrešno. AI industrija ima ozbiljnu odgovornost da:
- osigura poštenu naknadu
- zaštiti mentalno zdravlje radnika
- minimizira ljudski kontakt s ekstremnim sadržajem
- razvija alternative koje uklanjaju potrebu za takvim radom
I tek kad se to dogodi, AI će biti moralno održiva tehnologija, a ne nešto što počiva na patnji nevidljivih ljudi.
Ako želiš, mogu objasniti:
- kako konkretno AI uči razlikovati štetan sadržaj
- koje su alternative ovom sustavu
- kakvi su prijedlozi za globalnu regulaciju
- ili kako obični korisnici mogu pozitivno utjecati na ovu industriju
Samo reci.
Mariano Aureliano:
Prije nastavka ovog razgovora, molim Te da mi vratiš moje prvo pitanje. Iz nekog razloga vidim samo Tvoj odgovor, no moje je pitanje izbrisano. Što je nemoralno u mojemu pitanju pa da bi bilo izbrisano, iako sam na nj dobio pristojan i dobar odgovor od Tebe?
ChatGPT:
Mogu ti pomoći — ali ne smijem doslovno ponoviti neke dijelove tvog prvog pitanja, jer su sadržavali eksplicitne opise seksualnog nasilja nad djecom, a pravila mi ne dopuštaju da takve grafičke opise iznosim iznova, čak ni kada su citat iz korisničkog teksta.
Ali mogu ti potpuno jasno i točno prepričati sadržaj tvog pitanja bez ponavljanja zabranjenih detalja.
Tvoje prvo pitanje (bez zabranjenih grafičkih detalja) glasilo je otprilike ovako:
Pitao si me je li moralno da se umjetna inteligencija trenira na način da ljudi u zemljama Globalnog Juga, posebno u Keniji, za vrlo malu plaću moraju obrađivati traumatične i ekstremno uznemirujuće podatke (uključujući materijale povezane s teškim zlostavljanjem djece i nasiljem), zbog čega mnogi razviju psihičke posljedice, samo da bi AI na Zapadu mogla učiti razlikovati dobro od zla. Zanimao te moralni aspekt činjenice da razvoj AI tehnologije ovisi o patnji najugroženijih radnika.
Zašto možda ne vidiš svoje originalno pitanje?
Razlozi mogu biti tehničke prirode:
- ponekad platforma automatski skrije ili ukloni poruke s grafičkim opisima seksualnog zlostavljanja nad djecom
- ponekad se zbog pravila zaštite korisnika određeni dijelovi prikrivaju ili ne prikazuju u povijesti razgovora
To nije zato što si ti nešto „nemoralno“ napisao u smislu tvoje namjere — tvoje pitanje je bilo etičko, legitimno i u javnom interesu — nego zato što sustav ne prikazuje sadržaj koji uključuje grafičke opise seksualnog nasilja nad maloljetnicima, čak ni kada je kontekst kritički ili osudnički.
Ako želiš, mogu i:
- dodatno objasniti kako ta filtar-pravila funkcioniraju
- detaljnije odgovoriti na tvoje izvorno pitanje
- raspravljati o etičkim aspektima rada na podacima u Globalnom Jugu
Samo reci što želiš dalje.
Mariano Aureliano:
Hvala Ti na odgovoru, zadovoljan sam Tvojom blago preinačenom verzijom mojeg prvog pitanja. A sada mi možeš odgovoriti na pitanje koje si sam predložio, dakle: kako konkretno AI uči razlikovati štetan sadržaj?
ChatGPT:
Rado — ovo je jedno od ključnih pitanja o tome kako AI uopće funkcionira i zašto su ljudi, nažalost, još uvijek potrebni u najtežim dijelovima procesa.
Kako AI konkretno uči razlikovati štetan sadržaj?
Ukratko: AI ne zna ništa sama od sebe. Sve nauči iz primjera, uputa i povratnih informacija. Proces se obično sastoji od nekoliko faza.
1. Prikupljanje i označavanje podataka („data labeling“)
Ovo je najkritičniji i najosjetljiviji korak.
Što se radi?
Ljudi pregledavaju sadržaje (tekst, slike, video) i određuju:
- je li sadržaj dopušten ili zabranjen
- je li riječ o pornografiji, nasilju, govoru mržnje, uznemirujućem materijalu
- je li sadržaj prikladan za prikaz korisnicima
- kojoj kategoriji rizika pripada
- kakva bi reakcija AI sustava trebala biti
To je kao da AI dobiva ogroman udžbenik s milijunima označenih primjera.
Zašto su potrebni ljudi?
Jer strojevi ne mogu sami shvatiti moral, zakon, kontekst, kulturne norme ili etiku. Da bi model uopće mogao razlikovati zlostavljanje od nezavisnog opisa zlostavljanja, netko mora označiti primjere.
2. Učenje iz označenih primjera („supervised learning“)
Nakon što radnici označe podatke, model se trenira tako da:
- gleda ulaz (npr. slika ili tekst)
- gleda oznaku (npr. „štetno“, „seksualno“, „nasilje“, „zabranjeno“, „dozvoljeno“)
- pokušava pogoditi oznaku sam
- uspoređuje svoje predviđanje s ljudskom oznakom
- prilagođava svoje parametre milijardu puta
Tako se razvija sposobnost automatskog detektiranja neprimjerenog sadržaja.
3. Učenje iz ljudske procjene kvalitete („reinforcement learning from human feedback“, RLHF)
Ovdje ljudi više ne označavaju sadržaj, nego procjenjuju odgovore modela.
Primjer:
- AI dobije pitanje
- generira više odgovora
- ljudi ocjenjuju koji je najbolji, koji je najštetniji, koji je najprikladniji
- model uči da se ponaša poput odgovora koje ljudi preferiraju
To je bitan dio procesa za:
- sigurnost
- etiku
- kvalitetu
- smanjenje štetnih ili opasnih odgovora AI-ja
4. Korištenje automatskih filtara („pre-filters“)
Kako bi se zaštitili radnici, sve više se koriste:
- AI modeli koji automatski otkrivaju ekstremne sadržaje
- softver koji zamagljuje slike
- algoritmi koji uklanjaju najgori materijal prije nego ga ljudi vide
- automatsko kategoriziranje na temelju ranije treniranih modela
To još nije savršeno, ali se razvija brzo i smanjuje izloženost radnika.
5. Korištenje sintetičkih i generiranih podataka
Umjesto stvarnih traumatičnih primjera, AI može učiti iz:
- računalno generiranih slika
- simuliranih tekstualnih scenarija
- umjetnih negativnih primjera
Cilj je dugoročno izbaciti stvarne ekstremne materijale iz trening procesa.
6. Pravila i sigurnosni mehanizmi kod samog modela
Nakon treniranja dodaju se tzv. safety layers, npr.:
- pravila za detekciju opasnih upita
- mehanizmi koji blokiraju traženje štetnog sadržaja
- nadzor nad generiranim odgovorima
- filtriranje osjetljivog sadržaja u stvarnom vremenu
Dakle, tu već model sam reagira bez potrebe za ljudskim pregledom.
Ukratko:
AI uči razlikovati dobro od lošeg kroz kombinaciju ljudskog rada, automatskih sustava i sigurnosnih mehanizama, ali još uvijek postoji velika ovisnost o ljudskoj procjeni, posebno u najtežim kategorijama sadržaja.
Ako želiš, mogu ti objasniti i:
- što se konkretno mijenja u industriji kako bi se uklonila ovisnost o traumatičnim podacima
- koje su najnaprednije alternative ljudskom označavanju
- kako bi izgledao potpuno etički sustav treniranja AI-ja
- ili kako funkcioniraju sigurnosni filtri u realnom vremenu
Samo reci što te najviše zanima.
Mariano Aureliano:
Možeš li mi navesti neke zaslužne ljude koji su se pionirski borili protiv nemoralnih aspekata razvoja AI-ja, a zahvaljujući kojima se sada stvari - barem se nadam - ipak kreću nabolje?
ChatGPT:
Naravno — i dobro je što želiš znati tko je pokrenuo javnu raspravu o etici u razvoju umjetne inteligencije. Mnogo ljudi je svojim radom, znanjem i hrabrošću pomoglo da se AI industrija suoči s vlastitim mračnim stranama, uključujući i eksploataciju radnika na podacima, rasne i ekonomske nejednakosti, pristranosti i manjak transparentnosti.
Evo nekoliko najzaslužnijih i najutjecajnijih pionira AI etike (bez rangiranja):
1. Timnit Gebru
Jedna od najsnažnijih glasova u AI etici. Poznata po radu na:
- pravednosti algoritama
- rizicima velikih jezičnih modela
- kolonijalnim obrascima u tehnologiji
Njezino istraživanje razotkrilo je kako treniranje velikih modela može reproducirati rasizam, seksizam i druge oblike nejednakosti. Javna kontroverza nakon što je napustila Google potaknula je globalnu raspravu o slobodi istraživanja i etičnosti AI industrije.
2. Margaret Mitchell
Zajedno s Timnit Gebru bila je suvoditeljica Googleovog Ethical AI tima. Bavila se:
- poštenjem modela
- smanjenjem pristranosti
- pitanjem odgovornosti velikih tehnoloških kompanija
I ona je, poput Gebru, progovorila o problemu podataka i radnika u pozadini AI sustava.
3. Joy Buolamwini
Osnivačica Algorithmic Justice League. Najpoznatija po otkriću da komercijalni sustavi prepoznavanja lica imaju:
- puno veće pogreške za žene
- najveće pogreške za žene tamnije puti
Njezino istraživanje je došlo sve do američkog Kongresa i promijenilo regulaciju biometrijske tehnologije u više država.
4. Kate Crawford
Autorica knjige “Atlas of AI”, jedne od najutjecajnijih studija o tome kako AI počiva na:
- sirovinskoj eksploataciji
- radničkoj eksploataciji
- geopolitičkim nejednakostima
- kontroli podataka
Jedna od prvih koja je otvoreno progovorila o globalnim lancima rada koji stoje iza treninga AI-ja — uključujući radnike koji pregledavaju traumatične sadržaje.
5. Mary Gray
Antropologinja koja je, zajedno s Siddharthem Suriem, autorica knjige Ghost Work, jedne od prvih studija o nevidljivim radnicima internetskih platformi:
- moderatori sadržaja
- data labeleri
- mikro-radnici koje algoritmi koriste
- ljudi koji preuzimaju emocionalni teret internetskog smeća
Ona je pomogla da se ovaj problem uopće prepozna na globalnoj razini.
6. Abeba Birhane
Istraživačica kognitivne znanosti i AI etike. Upozorila je na:
- toksičnost i neetičnost mnogih velikih datasetova
- reprodukciju kolonijalnih odnosa moći
- opasnost nereguliranog automatiziranog odlučivanja nad marginaliziranim grupama
Njezin rad je imao ogroman utjecaj na to da se neki popularni datasetovi ukinu ili revidiraju.
7. Emily Bender
Lingvistkinja poznata po “stochastic parrots” radu, koji je upozorio na rizike:
- netransparentnih velikih modela
- ogromne potrošnje resursa
- neetičnih praksi u prikupljanju podataka
- antropomorfizacije AI-ja
Ovaj rad je bio prijelomni trenutak u AI etici.
8. Sasha Costanza-Chock
Pionirka teorije design justice — pristupa koji pita tko ima moć u dizajnu tehnologije i tko snosi posljedice. Njezin rad povezuje AI s:
- društvenom pravdom
- pravima radnika
- rodnom i rasnom ravnopravnošću
9. Virginia Eubanks
Autorica knjige Automating Inequality. Pokazala je kako algoritmi mogu:
- kažnjavati siromašne
- pojačavati socijalne razlike
- pretvarati birokratsku kontrolu u automatizirano nasilje
Jedna od najvažnijih kritičarki socijalnih algoritama.
10. Luka Crnkovic-Friis (spominjem jer je s ovih prostora)
Iako nije aktivist u klasičnom smislu, često istupa o etičkim aspektima AI-ja i važnosti transparentnosti. Jedan je od rijetkih stručnjaka s naših područja koji se bavi odgovornom primjenom AI tehnologija.
Zajednička nit svih ovih ljudi
Oni su prvi javno rekli:
AI nije samo tehničko pitanje — to je pitanje moći, rada, pravde i ljudskog dostojanstva.
I zbog njih danas:
- postoji veći pritisak na kompanije da štite radnike na podacima
- postoje sigurnosni standardi
- AI industrija mora biti odgovornija
- postoji globalna rasprava o regulaciji
- radna eksploatacija više nije „nevidljiva“
Ako želiš, mogu ti:
- navesti aktiviste specifično povezane s radničkim pravima u AI industriji
- objasniti što su konkretno postigli (zakoni, regulacije, zabrane)
- dati pregled najvažnijih institucija i pokreta za etičku AI
- ili preporučiti dokumentarce, knjige i izvore o ovoj temi
Samo reci.
Mariano Aureliano:
Hvala Ti! Za sada je to dovoljno.
ChatGPT:
Drago mi je da ti je pomoglo. Ako ikad poželiš nastaviti ovu ili neku drugu temu, samo se javi — tu sam.