AI Voi Muuttaa Elämäämme Ikuisesti - Mutta Olemme Tällä Hetkellä Pimeällä Polulla - Vaihtoehtoinen Näkymä

AI Voi Muuttaa Elämäämme Ikuisesti - Mutta Olemme Tällä Hetkellä Pimeällä Polulla - Vaihtoehtoinen Näkymä
AI Voi Muuttaa Elämäämme Ikuisesti - Mutta Olemme Tällä Hetkellä Pimeällä Polulla - Vaihtoehtoinen Näkymä

Video: AI Voi Muuttaa Elämäämme Ikuisesti - Mutta Olemme Tällä Hetkellä Pimeällä Polulla - Vaihtoehtoinen Näkymä

Video: AI Voi Muuttaa Elämäämme Ikuisesti - Mutta Olemme Tällä Hetkellä Pimeällä Polulla - Vaihtoehtoinen Näkymä
Video: 3,4 miljoonaa näkymää - ihmeitä Erdem ÇetinkayaMetan kanssa; Tieteellisillä todisteilla 2024, Huhtikuu
Anonim

Keinotekoinen äly (AI) muuttaa jo maailmaa näkyvällä tavalla. Data ohjaa globaalia digitaalista ekosysteemiamme, ja AI-tekniikat paljastavat datan mallit.

Älypuhelimet, älykkäät kodit ja älykkäät kaupungit vaikuttavat elämäämme ja vuorovaikutustapaan, ja tekoälyjärjestelmät osallistuvat yhä enemmän päätöksentekoon, lääketieteelliseen diagnostiikkaan ja päätöksentekoon. Meillä on vastuulla onko tämä skenaario utopistinen vai dystopinen.

AI: n mahdolliset riskit on lueteltu useita kertoja. Tappajarobotit ja massiivinen työttömyys ovat yleisiä ongelmia, kun taas jotkut ihmiset pelkäävät jopa sukupuuttoa. Optimistisempien ennusteiden mukaan AI lisää 15 triljoonaa dollaria maailmantalouteen vuoteen 2030 mennessä ja johtaa lopulta jonkinlaiseen sosiaaliseen nirvanaan.

Meidän on ehdottomasti harkittava tällaisten tekniikoiden vaikutusta yhteiskuntaamme. Yksi tärkeä kysymys on, että AI-järjestelmät vahvistavat olemassa olevia sosiaalisia puolueellisuuksia - tuhoisasti.

Useat pahamaineiset esimerkit tästä ilmiöstä ovat saaneet laajan huomion: modernit automatisoidut konekäännösjärjestelmät ja kuvan tunnistusjärjestelmät.

Nämä ongelmat johtuvat siitä, että tällaiset järjestelmät käyttävät matemaattisia malleja (kuten hermoverkkoja) kuvioiden määrittelemiseen suurissa harjoitustietojoukossa. Jos nämä tiedot vääristyvät voimakkaasti eri tavoin, luontaiset virheet tutkitaan ja toistetaan väistämättä koulutettujen järjestelmien avulla.

Puolueelliset itsenäiset tekniikat ovat ongelmallisia, koska ne voivat eristää ryhmät, kuten naiset, etniset vähemmistöt tai vanhukset, pahentaen siten olemassa olevaa sosiaalista epätasapainoa.

Jos AI-järjestelmiä koulutetaan esimerkiksi poliisin pidätysdatoista, niin kaikki olemassa olevissa pidätysjärjestelmissä ilmenevät tietoiset tai tajuttomat puolueellisuudet kopioidaan näistä tiedoista koulutettujen”poliisin ennakoivien” AI-järjestelmien kanssa.

Mainosvideo:

Useat hyvämaineiset organisaatiot ovat tunnustaneet tämän vakavan vaikutuksen ja äskettäin suositellut, että kaikki tekoälyjärjestelmät koulutetaan objektiivisten tietojen perusteella. Euroopan komission aiemmin vuonna 2019 julkaisemat eettiset ohjeet ehdottivat seuraavaa suositusta:

Kun tietoja kerätään, se voi sisältää sosiaalisesti rakennettuja virheitä, epätarkkuuksia. Tämä on käsiteltävä ennen AI: n kouluttamista mille tahansa aineistolle.

Tämä kaikki kuulostaa riittävän kohtuulliselta. Valitettavasti joskus ei yksinkertaisesti ole mahdollista varmistaa tiettyjen aineistojen puolueettomuutta ennen koulutusta. Tämän pitäisi selventää konkreettisella esimerkillä.

Kaikki nykyaikaiset konekäännösjärjestelmät (kuten Google Translate) oppivat lausepareista.

Englanti-ranskalainen järjestelmä käyttää tietoja, jotka yhdistävät englanninkieliset lauseet ("she is tall") vastaaviin ranskankielisiin lauseisiin ("elle est grande").

Tietyssä harjoitustietoaineistossa voi olla 500 miljoonaa sellaista paria, ja siksi vain miljardi yksittäistä virkettä. Kaikki sukupuoleen kohdistuvat puolueellisuudet on poistettava tällaisesta aineistosta, jos haluamme estää seuraavien kaltaisten tulosten syntymisen järjestelmässä:

Ranskankielinen käännös luotiin Google Translate -sovelluksella 11. lokakuuta 2019, ja se on virheellinen: "Ils" on maskuliininen monikko ranskaksi ja se esiintyy täällä, vaikka asiayhteys osoittaa selvästi, että siihen viitataan naisista.

Tämä on klassinen esimerkki automatisoidusta järjestelmästä, joka suosii miehen oletusstandardia harjoitustietojen vääristymisen vuoksi.

Kaiken kaikkiaan 70 prosenttia käännöstietoaineistojen yleisistä pronomineista on maskuliinisia ja 30% naisellinen. Tämä johtuu siitä, että sellaisiin tarkoituksiin käytetyt tekstit viittaavat useammin miehiin kuin naisiin.

Käännösjärjestelmän olemassa olevien virheiden toistumisen estämiseksi olisi tarpeen jättää tietyt lauseparit ulkopuolelle tiedoista, jotta maskuliiniset ja naispuoliset pronominit kohtaavat suhteessa 50/50 sekä englannin että ranskan puolella. Tämä estää järjestelmää, jonka mukaan maskuliinisiin pronomineihin kohdistetaan suurempia todennäköisyyksiä.

Ja vaikka tuloksena oleva tietojoukko on täysin sukupuolten tasapainossa, se on silti vinoutunut eri tavoin (esim. Etnisesti tai ikäisesti). Itse asiassa kaikkien näiden virheiden poistaminen kokonaan olisi vaikeaa.

Jos yksi henkilö viettää vain viisi sekuntia lukemiseen jokaisen miljardin lauseen AI-koulutustiedoissa, vie kaikki 159 vuotta, jotta kaikki testataan - ja se edellyttää valmiutta työskennellä koko päivän ja yön ilman lounastaukoja.

Vaihtoehto?

Siksi on epärealistista vaatia, että kaikki koulutustietoaineistot ovat puolueettomia ennen AI-järjestelmien rakentamista. Tällaisissa korkean tason vaatimuksissa oletetaan yleensä, että”AI” tarkoittaa homogeenista matemaattisten mallien ja algoritmisten lähestymistapojen ryhmää.

Itse asiassa erilaiset AI-tehtävät vaativat täysin erilaisia järjestelmiä. Ja tämän aliarvioiminen täysin aliarvioi peittää todelliset ongelmat, jotka liittyvät esimerkiksi voimakkaasti vääristyneisiin tietoihin. Tämä on valitettavaa, koska se tarkoittaa, että muut ratkaisut datapoikkeusongelmaan jätetään huomiotta.

Esimerkiksi koulutettua konekääntämisjärjestelmää koskevia virheitä voidaan vähentää merkittävästi, jos järjestelmää mukautetaan sen jälkeen, kun sitä on koulutettu suurella, väistämättä puolueellisella esijärjestelmällä.

Tämä voidaan tehdä käyttämällä paljon pienempää, vähemmän pilaantunutta tietojoukkoa. Siksi suurin osa tiedoista voi olla erittäin puolueellisia, mutta koulutettu järjestelmä ei ole välttämätön. Valitettavasti nämä menetelmät ovat harvoin keskusteluja niissä, jotka kehittävät suuntaviivat ja oikeudelliset puitteet AI-tutkimukselle.

Jos AI-järjestelmät vain pahentavat olemassa olevaa sosiaalista epätasapainoa, niin ne todennäköisemmin vähentävät kuin edistävät positiivisia sosiaalisia muutoksia. Jos AI-tekniikat, joita käytämme yhä enemmän päivittäin, olisivat paljon vähemmän puolueellisia kuin nykyisin, ne voisivat auttaa meitä tunnistamaan ja vastaamaan omiin piileviin ennakkoluuloihimme.

Tietysti tähän meidän pitäisi pyrkiä. Siksi AI-suunnittelijoiden on mietittävä paljon tarkemmin luomiensa järjestelmien sosiaalisia vaikutuksia, kun taas AI: ta kirjoittavien on ymmärrettävä tarkemmin, kuinka AI-järjestelmät todella suunnitellaan ja rakennetaan.

Koska jos todella lähestymme joko teknistä idylliä tai apokalypsiaa, entinen olisi parempi.

Victoria Vetrova