Umjetna inteligencija postaje sve prisutnija u svakodnevnom životu – od algoritama koji odlučuju što ćemo gledati na Netflixu, do sustava koji pomažu liječnicima u postavljanju dijagnoza ili samovozećih automobila na prometnicama. No, kako se AI sustavi sve više uključuju u donošenje odluka, postavlja se ključno pitanje: tko je odgovoran ako AI pogriješi?
Prvo – što znači da je AI “pogriješio”?
AI ne “griješi” na isti način kao čovjek. Nema svijest, namjeru ni osjećaj krivnje. Pogreška u kontekstu AI-ja znači da je sustav donio odluku koja nije bila točna, pravedna ili sigurna. Primjeri uključuju:
- Prepoznavanje lica koje ne prepoznaje određene etničke skupine jednako precizno
- Algoritam koji automatski odbija kreditne zahtjeve na temelju pristranih podataka
- Samovozeći auto koji uzrokuje prometnu nesreću
Tko snosi odgovornost?
Odgovor nije jednostavan, ali evo nekoliko perspektiva:
- Programeri i inženjeri
Oni razvijaju sustave, treniraju modele i biraju podatke. Ako AI sustav donosi odluke temeljene na pristranim ili nepotpunim podacima, odgovornost može biti na onima koji su ga dizajnirali.
- Tvrtke koje koriste AI
Ako neka kompanija koristi AI za automatizaciju procesa (npr. zapošljavanje, zdravstvene dijagnoze) i taj sustav diskriminira ili griješi, etička (i pravna) odgovornost može biti na poslodavcu, čak i ako on nije direktno razvio taj sustav.
- Korisnici
U nekim slučajevima, krajnji korisnici snose odgovornost jer su koristili alat na nepredviđen način, zanemarili preporuke ili nisu nadzirali odluke AI sustava.
- Zakonodavci i regulatorna tijela
Ako nema jasnog pravnog okvira koji definira kako se AI treba koristiti i što se smije automatizirati, teško je definirati odgovornost. Pitanje je: zašto zakon nije išao u korak s tehnologijom?
Etika protiv zakona: nije isto
Zanimljivo je da ono što je zakonski dozvoljeno nije uvijek i etički ispravno. AI može, recimo, rangirati kandidate za posao po kriterijima koji nisu zabranjeni zakonom, ali su ipak duboko pristrani ili nepravedni.
Tu dolazimo do ključnog pitanja: bi li AI sustavi trebali biti "objašnjivi"? Ako ne znamo kako je sustav došao do svoje odluke, teško je utvrditi gdje je došlo do pogreške – a još teže tko je kriv.
Što nas čeka u budućnosti?
Uvođenje AI sustava u sve sfere života traži i novu vrstu odgovornosti – onu kolektivnu. Možda ćemo uskoro imati "AI etičare", obavezne procjene rizika prije puštanja sustava u upotrebu, ili čak zakone koji reguliraju transparentnost algoritama.
U svakom slučaju, pitanje odgovornosti neće nestati. Upravo suprotno – postajat će sve važnije kako AI sustavi budu donosili sve ozbiljnije odluke.
AI ne postoji u vakuumu. Ako želimo pravedne i odgovorne tehnologije, moramo početi odgovorno razmišljati već danas – prije nego što se dogodi velika pogreška.