Praėjusią savaitę naujai išrinkta JAV atstovė Alexandria Ocasio-Cortez padarė antraštes, kai ji, kaip ketvirtojo metinio renginio „MLK Now“ renginį, sakė, kad veido atpažinimo technologijos ir algoritmai „visada turi šias rasines nelygybes, kurios yra išverstos, nes algoritmai vis dar sudaromi žmonių, ir tie algoritmai vis dar yra susieti su pagrindinėmis žmogaus prielaidomis. Jie tiesiog automatizuoti. Ir automatinės prielaidos - jei neištaisysite šališkumo, tuomet automatizuojate šališkumą. "
Ar tai reiškia, kad algoritmai, kurie teoriškai pagrįsti objektyviomis matematikos tiesomis, gali būti „rasistiniai“? Ir jei taip, ką galima padaryti siekiant pašalinti tą šališkumą?
Pasirodo, kad algoritmų išvestys iš tiesų gali duoti šališkų rezultatų. Duomenų mokslininkai teigia, kad kompiuterinės programos, neuroniniai tinklai, mašininio mokymosi algoritmai ir dirbtinis intelektas (AI) veikia todėl, kad jie mokosi elgtis iš jiems duotų duomenų. Programinę įrangą kuria žmonės, turintys šališkumo, ir treniruočių duomenis taip pat generuoja šališkumą turintys žmonės.
Du mašininio mokymosi etapai parodo, kaip šis šališkumas gali įsijausti į iš pažiūros automatizuotą procesą. Pirmame mokymo etape algoritmas mokomasi remiantis duomenų rinkiniu arba tam tikromis taisyklėmis ar apribojimais. Antrasis etapas yra išvadų stadija, kurioje algoritmas taiko tai, ko jis išmoko praktikoje. Šis antrasis etapas atskleidžia algoritmo paklaidus. Pvz., Jei algoritmas treniruojamas tik su ilgais plaukais turinčių moterų nuotraukomis, tada pagalvos, kas turi trumpus plaukus, yra vyras.
„Google“ liūdnai pagarsėjo 2015 m., Kai „Google“ nuotraukos juodaodžius pavadino gorilomis, greičiausiai todėl, kad šios buvo vienintelės tamsiaodės būtybės mokymo komplekte.
Neobjektyvumas gali įsiskverbti per daugelį būdų. „Dažna klaida yra algoritmo mokymas daryti prognozes, remiantis praeities sprendimais iš šališkų žmonių“, - „Live Science“ pasakojo Sophie Searcy, vyresnioji duomenų mokslo darbuotoja iš duomenų mokslo mokomosios „bootcamp Metis“. "Jei aš sudarysiu algoritmą automatizuoti sprendimus, kuriuos anksčiau priėmė paskolos pareigūnų grupė, aš galėčiau žengti lengvu keliu ir išmokyti algoritmo dėl ankstesnių tų paskolų pareigūnų sprendimų. Bet tada, žinoma, jei tie paskolų pareigūnai buvo šališki, tada mano kuriamas algoritmas tęs tuos šališkumus “.
„Searcy“ paminėjo COMPAS, prognozavimo įrankio, naudojamo visoje JAV baudžiamojo teisingumo sistemoje, pavyzdį, skirtą bausmėms, kuriuo bandoma numatyti, kur įvyks nusikaltimas. „ProPublica“ atliko COMPAS analizę ir nustatė, kad, patikrinusi kitus statistinius paaiškinimus, priemonė pervertino juodaodžių atsakovų recidyvo riziką ir nuosekliai neįvertino baltųjų atsakovų rizikos.
„Searcy“, siekdama padėti kovoti su algoritmų šališkumu, „Live Science“ pasakojo, kad inžinieriai ir duomenų mokslininkai turėtų kurti įvairesnių duomenų rinkinius naujoms problemoms spręsti, taip pat bandyti suprasti ir sušvelninti esamų duomenų rinkinių šališkumą.
Pirmiausia, pasak prognozuojančios analitinės įmonės „Anodot“ duomenų mokslininkės Ira Cohen, inžinieriai turėtų turėti mokymo rinkinį, kuriame būtų palyginti vienodi visų tipų gyventojai, jei jie rengia algoritmą etninėms ar lyties savybėms nustatyti. „Svarbu pateikti pakankamai kiekvienos gyventojų grupės pavyzdžių, net jei jie yra mažuma visos tiriamos populiacijos“, - „Cohen“ pasakojo „Live Science“. Galiausiai, Cohenas rekomenduoja patikrinti, ar bandymo rinkinyje, kuriame yra visų šių grupių žmonės, nėra paklaidų. „Jei tam tikrų lenktynių tikslumas yra statistiškai reikšmingai mažesnis nei kitų kategorijų, algoritmas gali turėti šališkumo, ir aš įvertinčiau tam naudotus treniruočių duomenis“, - „CoShen“ pasakojo „LiveScience“. Pavyzdžiui, jei algoritmas gali teisingai identifikuoti 900 iš 1000 baltų veidų, bet teisingai nustato tik 600 iš 1000 azijiečių veidų, tada algoritmas gali turėti paklaidą „prieš“ azijiečius, pridūrė Cohenas.
Pašalinti šališkumą AI gali būti be galo sudėtinga.
Net „Google“, laikoma komercinių AI pirmtaku, matyt, negalėjo sugalvoti nuodugnaus gorilų problemos sprendimo nuo 2015 m. Wired nustatė, kad užuot atradusi būdą savo algoritmams atskirti spalvotus žmones nuo gorilų, „Google“ tiesiog blokavo jos vaizdų atpažinimo algoritmai iš viso identifikuoja gorilą.
„Google“ pavyzdys yra geras priminimas, kad PG programinės įrangos mokymas gali būti sudėtingas pratimas, ypač kai programinės įrangos nepatikrina ar neapmoko reprezentatyvi ir įvairi žmonių grupė.