Keinotekoinen älykkyys Osoittautui Rasistiseksi - Vaihtoehtoinen Näkymä

Keinotekoinen älykkyys Osoittautui Rasistiseksi - Vaihtoehtoinen Näkymä
Keinotekoinen älykkyys Osoittautui Rasistiseksi - Vaihtoehtoinen Näkymä

Video: Keinotekoinen älykkyys Osoittautui Rasistiseksi - Vaihtoehtoinen Näkymä

Video: Keinotekoinen älykkyys Osoittautui Rasistiseksi - Vaihtoehtoinen Näkymä
Video: 7 MERKKIÄ ETTÄ OLET ÄLYKÄS! 2024, Huhtikuu
Anonim

Massachusettsin teknillisen instituutin tutkijoiden tutkimus on paljastanut keinotekoisen älykkyyden tietojen analysointiprosessin yksityiskohdat, jota päätöksenteossa ohjaavat usein seksistiset ja rasistiset stereotyypit. Useat kokeeseen osallistuneet järjestelmät osoittivat alttiuden ihmisten ennakkoluuloille.

Brittiläinen The Daily Mail -lehti kirjoittaa, että saatuaan tutkimuksen tulokset tutkijaryhmä sitoutui ohjelmoimaan tekoälyn uudelleen, poistaen aiemmat ongelmat. Massachusettsin teknillisessä instituutissa työskentelevän Irene Chenin mukaan tietotekniikan tutkijat pyrkivät kiirehtimään johtopäätökseen, että ainoa tapa poistaa rasismin ja seksismin elementit tekoälyn algoritmeissa on parantaa ohjelmistokoodia. Algoritmien laatu on suoraan verrannollinen tietoon, jolla he käyttävät. Chenin tekemä tutkimus David Sontagin ja Fredrik D. Johannsonin kanssa osoittaa, että käytettävissä olevat tiedot voivat muuttaa asioita radikaalisti parempaan suuntaan.

Yhdessä kokeessa ryhmä tarkasteli järjestelmää, joka ennusti henkilön tuloja käytettävissä olevan tiedon perusteella. Analyysi on osoittanut, että 50%: n tapauksista algoritmi on taipuvainen ennustamaan, että naisen tulot ovat keskimäärin pienemmät kuin miehen. Lisäämällä käytettävissä olevan tiedon määrää 10 kertaa, tutkijat havaitsivat, että tällaisen virheen tekijä laski 40%.

Lisäksi sairaaloissa käytetyn järjestelmän tutkimuksessa, joka ennustaa vaikeaa leikkausta tekevien potilaiden eloonjäämisen, ennusteiden tarkkuus oli paljon alhaisempi Mongoloid-rodun kuin valkoihoisten ja negroidien kohdalla. Tutkijat kuitenkin väittävät, että edistyneen analyysitekniikan käyttö voi merkittävästi vähentää ennustetarkkuutta potilaille, jotka eivät kuulu Mongoloid-rotuun. Tämä osoittaa, että käytettävissä oleva enemmän tietoja ei välttämättä aina korjaa algoritmivirheitä. Sen sijaan tutkijoiden tulisi saada enemmän tietoa syrjittyistä ryhmistä.

Uusi menetelmä herättää koneoppimisen tutkijoille toisen kysymyksen siitä, kuinka tietoja voidaan analysoida tehokkaasti ilman olemassa olevaa syrjintää.

Kuinka koneoppiminen toimii AI-käyttöisissä järjestelmissä?

Keinotekoiset älykkyysjärjestelmät perustuvat keinotekoisiin hermoverkkoihin (ANNs), jotka ekstrapoloivat ihmisen aivojen käyttämät tiedon tallennus- ja oppimistekniikat mekaanisiin järjestelmiin. ANNs kouluttaa etsimään malleja käytettävissä olevista tietolähteistä, mukaan lukien puhetta, tekstiä ja kuvia. Tietoanalyysin tarkkuuden parantaminen on yksi perusedellytyksistä, jotka edeltävät tekoälyn viimeisintä kehitystä.

"Normaali" tekoäly käyttää sisääntulotietoja kertomaan algoritmin analysoitavasta aiheesta toimittaen samalla valtavan määrän tietoa.

Mainosvideo:

Koneoppimisen käytännön sovelluksiin sisältyy Google-käännöspalvelut, kasvojentunnistus Facebook-valokuvista ja Snapchat-suodattimet, jotka skannaavat kasvot ennen visuaalisten tehosteiden käyttämistä verkossa.

Tietojen syöttöprosessi on usein aikaa vievää ja sitä yleensä rajoittaa tiedonkulku tutkittavan kohteen yhdestä näkökohdasta. Uuden tyyppinen ANN - generatiivisesti kilpaileva hermoverkko - vastustaa kahden keinotekoisella älykkyydellä varustetun robotin kykyjä kerralla, mikä provosoi vähemmän älykästä järjestelmää oppimaan toisen kustannuksella ilman ihmisen osallistumista. Tämä tekniikka parantaa dramaattisesti koneoppimisen tehokkuutta ja nopeutta parantaen samalla tietojen analysoinnin laatua.

Oliy Kurilov