Kuinka Luot Robotin, Joka Haluaa Muuttaa Maailmaa? - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Kuinka Luot Robotin, Joka Haluaa Muuttaa Maailmaa? - Vaihtoehtoinen Näkymä
Kuinka Luot Robotin, Joka Haluaa Muuttaa Maailmaa? - Vaihtoehtoinen Näkymä

Video: Kuinka Luot Robotin, Joka Haluaa Muuttaa Maailmaa? - Vaihtoehtoinen Näkymä

Video: Kuinka Luot Robotin, Joka Haluaa Muuttaa Maailmaa? - Vaihtoehtoinen Näkymä
Video: 2045: A New Era for Humanity 2024, Syyskuu
Anonim

Tietotekniikan tutkija Christoph Solge yrittää poistaa robottien käyttäytymistä säätelevien sääntöjen tarpeen. Hänen strategiansa on antaa heille tavoite: tehdä meistä voimakkaampia. Christophe työskentelee New Yorkin yliopiston Game Innovation Lab -laboratoriossa. Sasha Maslov haastatteli Sold for Quanta Magazine -lehteä, josta saamme tietää, että ehkä ei kannata yrittää pidättää teknologisen singulariteetin pysäyttämätöntä virtausta.

Isaac Asimovin kuuluisat kolme robottilakia - jotka rajoittavat androidien ja automaattien käyttäytymistä ihmiskunnan turvassa - olivat myös keskeneräisiä. Nämä lait ilmestyivät ensin Asimovin tarinassa vuonna 1942 ja sitten klassisissa teoksissa, kuten "Minä, robotti", ja kuulostavat tältä:

1. Robotti ei voi vahingoittaa ihmistä tai toimimattomuudellaan sallia vahinkoa henkilölle.

2. Robotin on noudatettava ihmisten antamia käskyjä, jos ne eivät ole ristiriidassa ensimmäisen lain kanssa.

3. Robotin on puolustettava olemassaolonsa, ellei tämä suoja ole ristiriidassa ensimmäisen tai toisen lain kanssa.

Näistä laeista löytyy tietysti monia ristiriitoja ja porsaanreikiä (joita itse asiassa Azimov itse käytti). Nykyisessä kehittyneiden koneoppimisen ja itsenäisen robotiikan ohjelmistojen aikakaudessa tekoälyn raudan etiikan määrittelemisestä ja toteuttamisesta on tullut pakollinen haaste organisaatioille, kuten Machine Intelligence Research Institute ja OpenAI.

Christoph Salge otti toisenlaisen lähestymistavan. Sen sijaan, että panisi täytäntöön ylhäältä alaspäin suuntautuvia filosofisia määritelmiä siitä, miten keinotekoisten tekijöiden tulisi tai ei pitäisi käyttäytyä, Salge ja hänen kollegansa Daniel Polani tutkivat alhaalta ylöspäin suuntautuvaa polkua eli "mitä robotin pitäisi tehdä ensin", kuten he kirjoittivat. artikkelissaan "Valtuuttaminen robottin kolmen lain korvaamiseksi". Kybernetiikan ja psykologian risteyksessä syntynyt voimaantuminen kuvaa agentin sisäistä motivaatiota vastustaa ja työskennellä ympäristössä samanaikaisesti.”Organismina se haluaa selviytyä. Hän haluaa jättää jäljen maailmaan”, Salge selittää. Roomban pölynimuri, joka on ohjelmoitu etsimään latausasemaa, kun sen paristot ovat vähissä, on alkeellinen esimerkki "valtuutetuista": jatkaa toimintaansa maailmassa,hänen on saatava maksu ja jatkettava omaa olemassaoloa eli selviytymistä.

Voimaantuminen voi kuulostaa reseptiltä juuri lopputulokselle, joka puolustaa turvallista tekoälyä, kuten Nick Bostrom pelkää: voimakas itsenäinen järjestelmä, joka koskee vain omaa etua ja menee hulluksi prosessissa. Ihmisen ja koneen välisiä sosiaalisia vuorovaikutuksia tutkiva Salge kysyy: Mitä tapahtuu, jos valtuutettu agentti “antaa myös valtuudet toiselle? Robotin ei tarvitse vain halua pysyä toimintakunnossa - sen on myös haluttava tukea ihmiskumppaniaan."

Mainosvideo:

Solge ja Polanyi tajusivat, että informaatioteoria tarjosi tavan kääntää tämä keskinäinen laajentuminen matemaattiseksi kehykseksi ei-filosofoivalle keinotekoiselle aineelle. "Yksi robotiikan kolmen lain haitoista on, että ne perustuvat kieliin ja kieli on hyvin epäselvä", Salge sanoo. "Yritämme löytää jotain, joka voidaan todella tehdä."

Jotkut teknologit uskovat, että tekoäly on merkittävä, jopa katastrofaalinen uhka ihmisen olemassaololle. Ja sinä?

Pidättäydyn. Joten uskon todella, että nyt pelätään robotteja ja tekoälyn kasvavaa vaikutusta. Luulen kuitenkin, että lyhyellä aikavälillä olemme todennäköisesti enemmän huolissamme mahdollisesta työpaikan vaihdosta, päätöksentekoprosessista, demokratian menetyksestä, yksityisyyden menetyksestä. En tiedä kuinka todennäköistä pysäyttämätön tekoäly syntyy milloin tahansa pian. Mutta vaikka tekoälyn on tarkoitus valvoa terveydenhuoltojärjestelmää ja antaa lääkemääräyksiä, meidän on pohdittava eettisiä kysymyksiä.

Kuinka voimaantumiskonsepti voi auttaa meitä vastaamaan näihin haasteisiin?

Luulen, että ajatus oikeuksien vahvistamisesta täyttää kapealla. Se ei anna agentin antaa henkilön kuolla, mutta kun pystyt pitämään kiinni kynnyksestä, se tukee aikomusta luoda lisämahdollisuuksia henkilölle ilmaista ja vaikuttaa maailmaan. Yhdessä Asimovin kirjassa robotit yksinkertaisesti sijoittavat kaikki ihmiset turvallisiin astioihin. Tämä ei olisi toivottavaa. Jos kykymme vaikuttaa maailmaan paranee edelleen, mielestäni se on paljon mielenkiintoisempi tavoite saavuttaa.

Testasit virtuaaliagenttiideoitasi videopeliympäristössä. Mitä tapahtui?

Agentti, joka on motivoitunut omien laajennettujen oikeuksiensa perusteella, väistää ammuksen eikä putoaa kuoppaan, yleensä välttää tilanteen, joka voi johtaa liikkuvuuden menetykseen, kuolemaan tai vahingoittumiseen tavalla, joka heikentäisi sen operatiivista tehokkuutta. Hän vain pitää kiinni.

Yhdessä ihmispelaajan kanssa, jolla on myös parannetut oikeudet, huomasimme, että virtuaalirobotti pitää tietyn etäisyyden estämättä ihmisten liikkumista. Hän ei estä sinua, hän ei seiso käytävällä, jotta et voi ohittaa. Hän pysyy mahdollisimman lähellä sinua auttaakseen sinua. Tämä johtaa käyttäytymiseen, jossa hän voi sekä tehdä aloitteen että seurata jonkun toisen omaa.

Esimerkiksi loimme skenaarion, jossa meillä oli ihmiselle vaarallinen, mutta robotille turvallinen lasersuoja. Jos tämän pelin henkilö lähestyy lasereita, robotilla on enemmän kannustimia estää laser. Ärsyke lisääntyy, kun henkilö seisoo suoraan esteen edessä, ikään kuin aikoo ylittää sen. Ja robotti tosiasiassa estää laserin seisomalla henkilön edessä.

Osoittivatko nämä agentit tahatonta käyttäytymistä, joka muistuttaa Asimovin kirjan kolmea lakia?

Käyttäytyminen oli aluksi hyvä. Esimerkiksi virtuaalirobotti siepasi vastustajia, jotka yrittivät tappaa sinut. Ajoittain hän hyppäsi luodin alle, jos se olisi ainoa tapa pelastaa sinut. Mutta mikä yllätti meitä erityisesti alusta alkaen, oli se, että hän pelkäsi myös tätä henkilöä.

Syy tähän johtuu hänen "lyhytnäköisestä" mallistaan: itse asiassa hän analysoi, kuinka tiettyjen toimintojen jaksot kahdessa tai kolmessa vaiheessa voivat vaikuttaa maailmaan, sekä sinulle että hänelle. Siksi ensimmäisessä vaiheessa ohjelmoimme, että pelaaja toimii satunnaisesti. Mutta käytännössä tämä johti siihen, että agentti kohteli henkilöä eräänlaisena psykopaattina, joka voisi esimerkiksi ampua agentin milloin tahansa. Siksi agentin oli valittava hyvin, hyvin huolellisesti asema, jossa henkilö ei voinut tappaa häntä.

Meidän oli korjattava tämä, joten mallinnimme niin kutsutun luottamuksen oletuksen. Periaatteessa seuralaisagentti toimii olettaen, että henkilö valitsee vain ne toimet, jotka eivät rajoita edustajan itse laajennettuja oikeuksia - kenties tämä on sopivampi malli kumppanille.

Huomasimme myös, että jos sinulla olisi sanonut 10 terveyspistettä pelissä, seuralainen ei välittänyt, menetätkö kahdeksan tai yhdeksän näistä pisteistä - hän voisi jopa ampua sinut kerran hauskanpitoon. Ja sitten tajusimme, että elämäsi maailman ja tietokonepelin mallin välillä on aukko. Heti kun mallinnimme terveyden menetyksen aiheuttamat kapasiteettirajoitukset, ongelma katosi. Se voitaisiin ratkaista myös luomalla malli, joka ei ollut niin lyhytnäköinen ja joka voisi laskea toimet vielä pari askelta tulevaisuuteen. Jos agentti voisi katsoa kauemmas tulevaisuuteen, hän näkisi, että enemmän terveyspisteitä voisi olla hyödyllistä tuleville tapahtumille.

Agentti ottaa huomioon, että terveyspisteiden lukumäärän muuttaminen ei vaikuta mitenkään laajennettuihin oikeuksiini: agentti päättää: "Ammun hänet, en ammu - mitä eroa on?" Ja joskus se ampuu. Mikä on tietysti ongelma. En halua satunnaisia laukauksia pelaajiin. Olemme lisänneet korjauksen, joka tekee virtuaalirobotista hieman huolestuneemman tilastasi kuin omastaan.

Kuinka teet näistä käsitteistä tarkkoja?

Jos pidämme agentteja ohjausjärjestelminä, ne voidaan hajottaa informaatiokomponenteiksi: maailmassa jotain tapahtuu ja tavalla tai toisella koskee sinua. Emme puhu tiedoista asioina, jotka koet, vaan kaikenlaisina vaikutteina - ne voivat olla aineita, jotain, jotka virtaavat maailman ja sinun välillä. Kehossasi voi olla lämpötilaa tai ravinteita. Mikä tahansa asia, joka ylittää maailman ja agentin välisen rajan, kuljettaa tietoa itsessään. Samalla tavalla agentti voi vaikuttaa ulkomaailmaan monin tavoin, myös tuottaa tietoa siihen.

Voit katsoa tätä virtaa kanavan kaistanleveydeksi, tämä on tietoteorian käsite. Sinulla voi olla laaja valta, laajennetut oikeudet, jos pystyt tekemään erilaisia toimia, jotka johtavat erilaisiin tuloksiin. Jos jokin menee pieleen, menetät auktoriteettisi, koska kapasiteetin menetys vastaa määrällistä kaistanleveyden vähenemistä sinun ja ympäristön välillä. Tämä on pääidea.

Kuinka paljon agentin on tiedettävä, jotta hänen laajennetut valtansa voisivat toimia täydellisesti?

Laajennetuilla oikeuksilla on se etu, että niitä voidaan soveltaa myös silloin, kun sinulla ei ole täydellistä tietoa. Agentti tarvitsee todella mallin siitä, miten hänen tekonsa vaikuttavat maailmaan, mutta hän ei tarvitse täydellistä ymmärrystä maailmasta ja sen kaikista hienovaraisuuksista. Toisin kuin jotkut lähestymistavat, joissa yritetään mallintaa kaikkea maailmassa niin paljon kuin mahdollista, meidän tapauksessamme sinun tarvitsee vain selvittää, miten tekosi vaikuttavat omaan käsitykseesi. Sinun ei tarvitse oppia kaikkea kaikesta; tarvitset vain agentin, joka tutkii maailmaa. Hän tekee jotain ja yrittää ymmärtää, miten hänen tekonsa vaikuttavat maailmaan. Malli kasvaa, ja agentti ymmärtää yhä paremmin, missä hänen voimiensa rajat ulottuvat.

Testasit sen virtuaalisessa ympäristössä. Miksi ei todellisessa maailmassa?

Suurin este tämän mallin mittakaavassa ja sijoittamisessa todelliseen robottiin on se, että on vaikea laskea agentin ja ihmisen kaistanleveys niin rikkaassa ympäristössä kuin todellinen maailma pitkäksi aikaa. Kaikista näistä prosesseista ei ole vielä tullut tehokkaita. Olen optimistinen, mutta toistaiseksi tämä ongelma on puhtaasti laskennallinen. Siksi tarkistamme järjestelmän toiminnan tietokonepelissä yksinkertaistetussa muodossa.

Näyttää siltä, että vaikutusmahdollisuuksien tekeminen tekee koneistamme tehokkaita palvelukoiria

Tunnen jopa joitain robottiteknikkoja, jotka tahallaan mallitsevat koirapohjaisen kumppanin käyttäytymistä. Luulen, että jos robotit kohtelevat meitä kuin koiriamme, voimme tulevaisuudessa kaikki tulla toimeen.

Ilya Khel