Aleksandrija Okasio-Kortezs saka, ka algoritmi var būt rasisti. Lūk, kāpēc viņai ir taisnība.

Pin
Send
Share
Send

Pagājušajā nedēļā jaunievēlētā ASV republika Aleksandrija Okasio-Korteza veidoja virsrakstus, kad ceturtā ikgadējā MLK Now pasākuma ietvaros viņa teica, ka sejas atpazīšanas tehnoloģijām un algoritmiem "vienmēr ir šīs rasu nevienlīdzības, kuras tiek tulkotas, jo algoritmi joprojām tiek veidoti cilvēki, un šie algoritmi joprojām ir piesaistīti cilvēka pamata pieņēmumiem. Tie ir vienkārši automatizēti. Un automatizēti pieņēmumi - ja jūs neizlabojat aizspriedumus, jūs vienkārši automatizējat aizspriedumus. "

Vai tas nozīmē, ka algoritmi, kas teorētiski balstās uz matemātikas objektīvajām patiesībām, var būt "rasistiski"? Un ja tā, ko var darīt, lai novērstu šo aizspriedumu?

Izrādās, ka algoritmu izvade patiešām var radīt neobjektīvus rezultātus. Datu zinātnieki saka, ka datorprogrammas, neironu tīkli, mašīnmācīšanās algoritmi un mākslīgais intelekts (AI) darbojas tāpēc, ka viņi iemācās izturēties no tiem sniegtajiem datiem. Programmatūru raksta cilvēki, kuriem ir aizspriedumi, un apmācības datus rada arī cilvēki, kuriem ir aizspriedumi.

Divi mašīnmācības posmi parāda, kā šī neobjektivitāte var ielīst šķietami automatizētā procesā. Pirmajā posmā, apmācības posmā, algoritms mācās, pamatojoties uz datu kopu vai uz noteiktiem noteikumiem vai ierobežojumiem. Otrais posms ir secinājumu posms, kurā algoritms piemēro to, ko tas ir iemācījies praksē. Šis otrais posms atklāj algoritma novirzes. Piemēram, ja algoritms tiek apmācīts tikai ar tādu sieviešu attēliem, kurām ir gari mati, tad domā, ka ikviens ar īsiem matiem ir vīrietis.

Google drausmīgi nokļuva ugunsgrēkā 2015. gadā, kad pakalpojumā Google fotoattēli melnādainie cilvēki tika apzīmēti kā gorillas, iespējams, tāpēc, ka šīs bija vienīgās tumšādainās būtnes mācību komplektā.

Un aizspriedumi var ielīst daudzos veidos. "Bieži sastopama kļūda ir algoritma apmācīšana, lai veiktu prognozes, pamatojoties uz neobjektīvu cilvēku pagātnes lēmumiem," Sophie Searcy, vecākā datu zinātniece no datu zinātnes apmācības bootcamp Metis, pastāstīja Live Science. "Ja es izstrādātu algoritmu, lai automatizētu lēmumus, ko iepriekš pieņēmusi aizdevumu virsnieku grupa, es varētu ķerties pie viegla ceļa un apmācīt algoritmu par šo aizdevumu virsnieku pagātnes lēmumiem. Bet tad, protams, ja šie aizdevumu virsnieki bija neobjektīvi, tad mans izveidotais algoritms turpinās šos aizspriedumus. "

Searcy minēja COMPAS, prognozēšanas rīka, ko visā ASV krimināltiesību sistēmā izmanto soda izciešanai, piemēru, kurš mēģina paredzēt, kur notiks noziegums. ProPublica veica COMPAS analīzi un konstatēja, ka pēc citu statistisko skaidrojumu pārbaudes rīks ir pārvērtējis recidīvisma risku melnajiem apsūdzētajiem un pastāvīgi par zemu novērtējis balto atbildētāju risku.

Lai palīdzētu novērst algoritmiskos aizspriedumus, Searcy stāstīja Live Science, inženieriem un datu zinātniekiem būtu jāveido daudzveidīgākas datu kopas jaunām problēmām, kā arī jāmēģina izprast un mazināt novirzes, kas iebūvētas esošajās datu kopās.

Pirmkārt un galvenokārt, sacīja Ira Cohen, prognozējošās analītiskās kompānijas Anodot datu zinātnieks, inženieriem vajadzētu būt apmācības komplektam ar samērā vienveidīgu visu iedzīvotāju tipu attēlojumu, ja viņi apmācīs algoritmu etnisko vai dzimuma pazīmju identificēšanai. "Ir svarīgi pārstāvēt pietiekami daudz piemēru no katras iedzīvotāju grupas, pat ja tie ir mazākums no kopējā pētāmo iedzīvotāju skaita," Koens stāstīja Live Science. Visbeidzot, Koens iesaka pārbaudīt novirzes no testa komplekta, kurā iekļauti cilvēki no visām šīm grupām. "Ja noteiktām sacīkstēm precizitāte ir statistiski nozīmīgi zemāka nekā citām kategorijām, algoritmam var būt novirze, un es novērtētu apmācības datus, kas tam tika izmantoti," Koens stāstīja LiveScience. Piemēram, ja algoritms var pareizi identificēt 900 no 1000 baltajām sejām, bet pareizi nosaka tikai 600 no 1000 āzijas sejām, tad algoritmam var būt aizspriedumi "pret" aziātiem, piebilda Koens.

Neobjektivitātes noņemšana AI var būt neticami izaicinoša.

Pat Google, kuru uzskata par priekšteci komerciālā AI, acīmredzot no 2015. gada nevarēja piedāvāt visaptverošu risinājumu savai gorillu problēmai. Wired atklāja, ka Google tā vietā, lai atrastu algoritmiem iespēju atšķirt krāsu cilvēkus no gorillām, vienkārši bloķēja to. tā attēlu atpazīšanas algoritmi, lai vispār identificētu gorillas.

Google piemērs ir labs atgādinājums, ka AI programmatūras apmācība var būt sarežģīts uzdevums, jo īpaši, ja programmatūru nepārbauda vai neapmāca reprezentatīva un daudzveidīga cilvēku grupa.

Pin
Send
Share
Send