Predrasuda AI mijenja američke živote. Što mi u vezi s tim možemo učiniti?

Predrasuda AI mijenja američke živote. Što mi u vezi s tim možemo učiniti?
Predrasuda AI mijenja američke živote. Što mi u vezi s tim možemo učiniti?

Video: The future we're building -- and boring | Elon Musk 2024, Srpanj

Video: The future we're building -- and boring | Elon Musk 2024, Srpanj
Anonim

Zamislite svijet u kojem umjetno inteligentni algoritmi donose odluke koje utječu na vašu svakodnevicu. Zamislite da su predrasude.

Ovo je svijet u kojem već živimo, kaže znanstvenik s podataka, doktor Harvard i autorica Cathy O'Neil. (Ovdje pročitajte prvi dio naše rasprave s dr. O'Neilom). Sjeli smo s nominiranom za Nacionalnu nagradu za knjigu kako bismo otkrili što možemo učiniti s predrasudama u eri velikih podataka. CT: Ima li predrasuda AI?

CO: Treba uzeti u obzir da bi se za svaki algoritam koji nije izričito učinio fer trebao pretpostaviti. Jer mi kao ljudi imamo predrasude. Ako to priznajemo i stvaramo ove algoritme s našim vrijednostima i našim podacima, ne bismo trebali pretpostaviti da se nešto magično dogodilo da stvari budu poštene. Tamo nema magije.

CT: Gdje algoritmi dobivaju svoje podatke?

CO: To ovisi o algoritmu. Ponekad na društvenim medijima, za stvari poput ciljanja političkog tržišta ili oglašavanja ili učilišta i grabežljivog pozajmljivanja - ali puno se podataka ne prikuplja na društvenim mrežama, pa čak ni na mreži.

Prikupljanje podataka sve se više vezuje za stvarni život, poput pronalaska posla, rada na poslu, odlaska na fakultet ili zatvora. Te stvari nisu stvari koje možemo zaobići zakonima o privatnosti. To su pitanja moći, gdje ljudi koji su ciljani algoritmima nemaju snage, a ljudi koji prikupljaju informacije, grade i implementiraju algoritme imaju svu snagu. Nemate nikakva prava na privatnost ako ste okrivljenik, nemate prava na privatnost na svom poslu i nemate puno načina na zaštitu privatnosti ako se prijavljujete za posao jer ako ne odgovorite na pitanja koja vam je postavio vaš budući poslodavac, vjerojatno nećete dobiti posao.

Trebali bismo manje razmišljati o privatnosti, a više o moći kada su u pitanju algoritmi i šteta [koju oni mogu uzrokovati].

CT: Što mi možemo učiniti da to poboljšamo?

CO: Možemo priznati da ti algoritmi nisu sami po sebi savršeni, i testirati ih na njihove nedostatke. Trebali bismo imati stalne revizije i nadzornike - posebno za važne odluke poput zapošljavanja, kaznene presude ili ocjenjivanja ljudi na njihovom poslu - kako bismo bili sigurni da algoritmi djeluju onako kako mi želimo, a ne na neki diskriminirajući ili nepošteni način.

Image

Ailsa Johnson / © Kulturno putovanje

CT: Koji su najbolji i najgori scenariji za budućnost zasnovanu na podacima?

CO: Najgori slučaj je ono što imamo sada - da svi slijepo očekujemo da su algoritmi savršeni, iako bismo do sada trebali znati bolje. A mi propagiramo prošle nepravde i nepravednosti. I nastavljamo ignorirati nedostatke ovih algoritama.

Najbolji scenarij slučaja je što potvrđujemo da ovi algoritmi nisu svojstveno bolji od ljudi. Mi kao ljudi odlučujemo ono čemu težimo. Kako želimo izgledati u društvu, i tim vrijednostima podučavamo. Ako to učinimo uspješno, ovi bi algoritmi mogli biti bolji od ljudi.

CT: Kakvu ulogu mogu igrati svakodnevni ljudi?

CO: Najvažnija uloga koju pojedinac može igrati je da implicitno ne vjeruje nijednom algoritmu. Da imamo ogromnu sumnju. Ako se ocjenjuje algoritam pitajte "Kako da znam da je to fer, kako znam da je korisno, kako znam da je točan? Kolika je stopa pogreške? Za koga ovaj algoritam ne uspijeva? Propada li žena ili manjina? ' Postavite takvo pitanje.

Druga stvar, osim skepticizma, jest da ako mislite da je neki algoritam nepravedan prema vama ili drugim ljudima, to je organiziranje s tim drugim ljudima. Nedavni primjer su učitelji. Statistički modeli o nastavnicima s dodanom vrijednosti su grozni, gotovo slučajni generatori broja. Ali pomoću njih su se odlučivali koji će nastavnici dobiti vrijeme i koji bi nastavnici dobili otkaz, širom SAD-a.

Moj prijedlog je za njih da se udruže i odgurnu. I to se na nekim mjestima dogodilo. No iznenađujuće je kako mali otpor bio zbog matematičke prirode sustava bodovanja.

CT: Kako ste ušli u 'velike podatke'?

CO: Radio sam na Wall Streetu i bio svjedok financijske krize iznutra. Bio sam zgrožen načinom na koji se matematika koristila ili iskoristiti ljude ili prevariti ljude. Vidio sam vrstu štete koja bi mogla proizaći iz matematičkih laži, što nazivam „oružavanjem matematike“.

Odlučio sam se odmaknuti od toga pa sam se pridružio Occupy Wall Streetu i počeo raditi kao podatkovni znanstvenik. Polako sam shvatio da primjećujemo pogrešnu i zabludu zbog hirovitosti oko algoritama koji zavode podatke, koji se događaju i izvan Wall Streeta, i da će to dovesti do velike štete. Razlika je bila u tome što dok su ljudi širom svijeta primjećivali financijsku krizu, nisam mislio da će ljudi primijetiti nedostatke ovih algoritama velikih podataka, jer se obično događaju na pojedinačnoj razini.

Ovdje pročitajte prvi dio naše rasprave s dr. O'Neilom. Knjiga dr. Cathy O'Neil, "Oružje uništenja matematike: Kako veliki podaci povećavaju nejednakost i prijeti demokratiji", dostupna je od danas.

Popularno za 24 sata