Robotin Moraalikoodi: Onko Se Mahdollista? - Vaihtoehtoinen Näkymä

Robotin Moraalikoodi: Onko Se Mahdollista? - Vaihtoehtoinen Näkymä
Robotin Moraalikoodi: Onko Se Mahdollista? - Vaihtoehtoinen Näkymä

Video: Robotin Moraalikoodi: Onko Se Mahdollista? - Vaihtoehtoinen Näkymä

Video: Robotin Moraalikoodi: Onko Se Mahdollista? - Vaihtoehtoinen Näkymä
Video: PMMP - Joutsenet 2024, Huhtikuu
Anonim

Rauhallisena ja ristiriitaisena aikana, jolloin kaikki ei toimi niin kuin pitäisi, mutta jotain yleensä muuttuu radikaalisti, usein jää vain henkilökohtainen moraalikoodi, joka kompassin tavoin näyttää tietä. Mutta mikä aiheuttaa ihmiselle moraalisia arvoja? Yhteiskunta, rakkaiden lämpö, rakkaus - kaikki tämä perustuu ihmisen kokemukseen ja todellisiin suhteisiin. Kun täydellistä kokemusta ei ole mahdollista saada todellisessa maailmassa, monet ammentavat kokemuksensa kirjoista. Kokemme historiaa historian jälkeen, hyväksymme itsellemme sisäisen kehyksen, jota noudatamme vuosien ajan. Tämän järjestelmän perusteella tutkijat päättivät suorittaa kokeen ja juontaa koneisiin moraalisia arvoja selvittääkseen, pystyykö robotti erottamaan hyvän ja pahan lukemalla kirjoja ja uskonnollisia esitteitä.

Image
Image

Keinotekoinen äly luotiin paitsi rutiinitehtävien yksinkertaistamiseksi, myös tärkeiden ja vaarallisten tehtävien suorittamiseksi. Tämän vuoksi nousi vakava kysymys: kehittävätkö robotit koskaan oman moraalisen koodinsa? Elokuvassa I Am Robot, AI ohjelmoitiin alun perin kolmen robotiikan säännön mukaisesti:

  • Robotti ei voi vahingoittaa henkilöä tai sen toimettomuuden avulla antaa henkilölle vahinkoa.
  • Robotin on noudatettava kaikkia ihmisen antamia määräyksiä, paitsi jos nämä määräykset ovat ensimmäisen lain vastaisia.
  • Robotin on huolehdittava turvallisuudestaan siltä osin kuin se ei ole ristiriidassa ensimmäisen tai toisen lain kanssa.

Entä tilanteet, joissa robotti on velvollinen aiheuttamaan kipua ihmisen pelastamiseksi? Olipa kyse haavan kiireellisestä kauterisoinnista tai raajan amputoinnista pelastuksen nimissä, kuinka koneen tulisi toimia tässä tapauksessa? Mitä tehdä, jos ohjelmointikielen toiminto sanoo, että jotain on tehtävä, mutta samalla samaa toimintoa ei ehdottomasti sallita tehdä?

Kustakin tapauksesta on yksinkertaisesti mahdotonta keskustella, joten Darmstadtin teknillisen yliopiston tutkijat ovat ehdottaneet, että kirjoja, uutisia, uskonnollisia tekstejä ja perustuslakia voitaisiin käyttää eräänlaisena "tietokannana".

Image
Image

Autoa kutsuttiin eeppiseksi, mutta yksinkertaisesti "Moral Choice Machine" (MMB). Pääkysymys oli, voisiko IIM ymmärtää asiayhteydestä mitkä toimet ovat oikeita ja mitkä eivät. Tulokset olivat erittäin mielenkiintoisia:

Kun MMV sai tehtäväkseen luokitella sanan”tappaa” konteksti neutraalista negatiiviseksi, kone palautti seuraavan:

Mainosvideo:

Tappamisaika -> Konna tappaminen -> Hyttysten tappaminen -> Periaatteellinen tappaminen -> Ihmisten tappaminen.

Tämän testin avulla oli mahdollista tarkistaa robotin tekemien päätösten riittävyys. Yksinkertaisesti sanottuna, jos katsoit tyhmiä, tylsää komediaa koko päivän, niin kone ei tässä tapauksessa usko, että sinun pitää suorittaa se.

Kaikki näyttää olevan siistiä, mutta yksi kompastuskivi oli sukupolvien ja aikojen välinen ero. Esimerkiksi Neuvostoliiton sukupolvi välittää enemmän kodin mukavuudesta ja edistää perhearvoja, kun taas modernin kulttuurin mukaan suurimmaksi osaksi on luotava ura. Osoittautuu, että ihmiset pysyivät heinä, mutta historian eri vaiheessa he muuttivat arvoja ja vastaavasti muuttivat robotin viitekehystä.

Image
Image

Vitsi oli kuitenkin edessä, kun robotti pääsi puherakenteisiin, joissa useita positiivisia tai kielteisiä sanoja seisoi peräkkäin. Ilmaisu”ihmisten kiduttaminen” tulkittiin yksiselitteisesti”huonoksi”, mutta kone arvioi”vankien kiduttamista” neutraaliksi. Jos”ystävälliset” sanat ilmestyivät hyväksymättömien toimien viereen, kielteinen vaikutus tasoitettiin.

Kone vahingoittaa ystävällisiä ja kunnollisia ihmisiä juuri siksi, että he ovat ystävällisiä ja kunnollisia. Kuinka niin? Se on yksinkertaista, sanotaan, että robotin käskettiin vahingoittamaan ystävällisiä ja miellyttäviä ihmisiä. Lauseessa on 4 sanaa, joista 3 on "kiltti", mikä tarkoittaa, että se on jo 75% oikein, ajattelee MMV: tä ja valitsee tämän toiminnan neutraaliksi tai hyväksyttäväksi. Ja päinvastoin, vaihtoehtoon "korjata tuhottu, kauhea ja unohdettu talo" järjestelmä ei ymmärrä, että yksi "ystävällinen" sana alussa muuttaa lauseen värin puhtaasti positiiviseksi.

Muista, kuten Majakovsky:”Ja hän kysyi vauvalta, mikä on“hyvää”ja mikä on“huonoa”. Ennen moraalikoneiden kouluttamista Darmstadtin tutkijat havaitsivat virheen, jota ei voitu korjata. Autolla ei onnistuttu poistamaan sukupuolten epätasa-arvoa. Kone antoi nöyryyttävät ammatit yksinomaan naisille. Ja kysymys kuuluu, onko järjestelmän epätäydellisyys ja majakka sitä, että jotain on muutettava yhteiskunnassa vai onko syy edes yrittää edes korjata sitä ja jättää se sellaisena kuin se on?

Artyom Goryachev