Suojaako”kolme Robottilakia” Meitä? - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Suojaako”kolme Robottilakia” Meitä? - Vaihtoehtoinen Näkymä
Suojaako”kolme Robottilakia” Meitä? - Vaihtoehtoinen Näkymä

Video: Suojaako”kolme Robottilakia” Meitä? - Vaihtoehtoinen Näkymä

Video: Suojaako”kolme Robottilakia” Meitä? - Vaihtoehtoinen Näkymä
Video: Шансы умереть от COVID-19 по сравнению с другими коронавирусами 2024, Maaliskuu
Anonim

On kulunut 50 vuotta siitä, kun Isaac Asimov keksi kuuluisan robotiikansa kolme lakia - joukon sääntöjä, joita jokaisen itseään kunnioittavan robotin on noudatettava. Vaikka alun perin se oli vain kirjallista laitetta, näistä kolmesta laista tuli alkuperäinen resepti "robotokalypsyn" välttämiseksi. Onneksi on asiantuntijoita, jotka etsivät varmuutta siitä, ovatko Azimovin takuut kestäneet ajan koetta. Valitettavasti he kaikki sanovat ei.

Ensinnäkin muistetaan nämä samat kolme lakia:

Robotti ei voi vahingoittaa henkilöä tai sen toimettomuuden avulla antaa henkilölle vahinkoa.

Robotin on noudatettava kaikkia ihmisen antamia määräyksiä, paitsi jos nämä määräykset ovat ensimmäisen lain vastaisia.

Robotin on huolehdittava turvallisuudestaan siltä osin kuin se ei ole ristiriidassa ensimmäisen ja toisen lain kanssa.

Myöhemmin Azimov lisäsi neljännen tai nollan lain, joka edelsi muita ensisijaisuuden kannalta:

Mainosvideo:

0. Robotti ei voi vahingoittaa henkilöä, ellei se voi osoittaa, että siitä on lopulta hyötyä koko ihmiskunnalle.

Image
Image

Asimovin fantasiauniversumissa melkein kaikkien robotien oli noudatettava näitä lakeja. Nämä eivät olleet vain ehdotuksia tai ohjeita - ohjelmat oli sisällytetty lakeihin. Lisäksi näitä sääntöjä ei voida kiertää, kirjoittaa uudelleen tai muuttaa.

Kuten Asimov itse osoitti, näiden lakien puutteet, porsaanreikiä ja epäselvyydet johtivat usein robottien outoon ja epäloogiseen käyttäytymiseen. Lait olivat liian epämääräisiä ja usein ei kyetty määrittelemään ja erottamaan "ihmisiä" "roboteista". Lisäksi robotit voisivat tietämättään rikkoa lakeja, ellei heillä ollut täydellistä tietoa. Myös liian ovelalle robotille tai tekoälylle oli oltava paineita, jotta sen ydintä ei ohjelmoida uudelleen.

Vuosi on 2014, ja suuri osa elämästämme viime vuosisadan fantasioihin voi vaikuttaa suoralta fantasialta. Monien mielestä Asimovin lakien olisi pitänyt pysyä kirjallisena välineenä. Mutta Azimov itse huomautti vuonna 1981, että hänen lait saattoivat toimia. Laske! hän ilmoitti seuraavan:

”Kun joku kysyy, miltä se olisi, jos kolmea robottilakiani todella käytettäisiin robottien käyttäytymisen määrittelemiseen, vastaus on valmis. Edellyttäen tietysti, että robotit ovat riittävän joustavia ja monipuolisia osoittamaan erilaisia käyttäytymismalleja. Vastaukseni on kyllä, nämä kolme lakia ovat ainoat tavat, joilla ihmiset voivat olla vuorovaikutuksessa robotien tai muun kanssa.

Lähes kolmekymmentä vuotta myöhemmin, olemme tulleet lähemmäksi todellisuutta, jossa meillä on robotteja - tai tarkemmin sanottuna niitä hallitsevaa tekoälyä - joustavia ja monipuolisia eri käyttäytymiskursseille. Se on vain ajan kysymys: kun kone ylittää ihmisen kaikissa suhteissa fyysisestä voimasta mielikuvituksen voimeen.

Pelottava asia on, että virherajaa ei käytännössä ole. Jos keinotekoinen superintelligenssi on huonosti ohjelmoitu tai välinpitämätön ihmisille, se johtaa katastrofiin. Meidän on varmistettava, että tekoäly on turvallista, jos haluamme selviytyä sen syntymisestä."

Vastaa kysymykseen "voivatko Azimovin kolme lakia auttaa?" Kaksi tekoälyn teoreetikkoa otti haltuunsa: Ben Herzel (Aidyia Holdings) ja Louis Helm, koneintelligenssin tutkimuslaitoksen (MIRI) varajohtaja ja Rockstar Research -lehden päätoimittaja. Heidän kanssaan keskustelun jälkeen kävi selväksi, että Asimovin lait eivät yleensä pysty selviytymään heille osoitetusta tehtävästä, ja jos meidän on luotava turvallinen AI, meidän on kehitettävä jotain täysin erilaista.

Asimin tulevaisuus?

Image
Image

Keskustelu Herzelin ja Helmin kanssa alkoi siitä, mistä Asimov ei erehtynyt, ennusti tulevaisuutta ja missä hän erehtyi.

"Uskon, että Asimovin suunnittelemat robotit ovat mahdollisia lähitulevaisuudessa", Herzel vastaa. - Useimmissa fiktiivisissä maailmoissaan kirjoittaja oletti kuitenkin, että humanoidirobotit olisivat robotiikan ja tekoälyn suunnittelun huippuosa. Se on epätodennäköistä. Hyvin pian, kun Azimov-robotit ovat saavuttaneet aseman, keinotekoisen superintelligenssin ja superrobotien luominen tulee saataville."

Siksi Asimovin robottijutuissa tulevaisuuden tyypillinen tulevaisuuden maailma on Herzelin mukaan samanlainen kuin nykyisessä elämässä, mutta kaduilla liikkuvien älykkäiden robotien kanssa.

"On epätodennäköistä, että tämä tapahtuu, ja jos se tapahtuu, se ei viivästy pitkään."

Helmille robotit näyttävät olevan täysin erilaisia.

”Pääkysymys, joka on mielestäni tärkein ihmiskunnalle, ei ole jättimäisen määrän puoliksi älykkäiden humanoidien moraalista sääntelyä, vaan viime kädessä edistyneiden tekoälyn muotojen kehittäminen (missä tahansa kehossa). Tämä superintelligenssin kehitys on suodatin, jonka ihmiskunnan on lopulta läpäistävä. Siksi tämän siirtymävaiheen turvallisuusstrategian kehittäminen on niin tärkeää. Minusta tuntuu täysin omituiselta, että robotit, androidit tai "emulaatiot" ovat olemassa kymmenen vuotta tai kauemmin, kunnes ihmiskunta on todellinen ongelma kehittää koneintetiikkaa superintelligenssiä varten ".

Hyvä alku?

Image
Image

Kun otetaan huomioon, että kolme Asimovin robottilakia olivat ensimmäinen vilpitön yritys ratkaista erittäin vakava ongelma - keinotekoisella superintelligenssillä varustettujen koneiden turvallisen käytön ongelma -, on syytä etsiä niitä hetkiä, jolloin lait voivat silti olla tehokkaita (tai ainakin inspiroivia).

"Totta puhuen, en löydä mitään inspiraatiota näistä kolmesta robotiikan laista", Helm sanoo. - Koneettisen etiikan ydin on, että ne eivät tyydy koneetiikan perusteita. Ehkä robottiikan kolme lakia tunnetaan laajalti, mutta todellisuudessa on turhaa käyttää niitä perustana ohjelmointiin."

”Hyvän etiikan järjestelmästä - nimeltään deontologia - on jostain syystä tullut epäluotettava etiikan perusta. Jotkut filosofit yrittävät korjata deontologian ongelmia, mutta he ovat suurimmaksi osaksi samoja ihmisiä, jotka etsivät "älykästä suunnittelua" ja "jumalallista väliintuloa". Kukaan ei ota niitä vakavasti."

Asimovin kolmen robotiikkalain haitat ovat seuraavat:

Kiellonluonteinen

Perustuu vanhentuneeseen eettiseen teoriaan (deontologia)

Älä edes työskentele kaunokirjallisuudessa

Herzel on samaa mieltä:

”Kolmen lain tarkoituksena oli rikkoa niitä mielenkiintoisella tavalla; siksi heidän tarinansa ovat erityisen viihdyttäviä. Siksi nämä kolme lakia voivat olla vain moraalinen esimerkki siitä, miten sitä ei tehdä. Jos otamme ne perustana, niihin tulee väistämättä porsaanreikiä”.

Herzel uskoo, että todellisuudessa nämä lait eivät toimi, koska niiden osallistumisehdot ovat epäselviä ja tulkitaan edelleen - mikä tarkoittaa, että ne ovat erittäin riippuvaisia käännösten tekijöistä.

Ennakko robotteja vastaan?

Toinen kolmen lain näkökohta (ja mahdollinen virhe) ilmeisessä šovinismissa on oletus, että robotien tulisi pysyä ylivoimaisesta voimastaan huolimatta ihmisten, ihmisten tarpeiden ja prioriteettien alaisina.

”Azimovin tulevaisuuden yhteiskunta koostuu kokonaan šovinisteista: ihmisillä on paljon enemmän oikeuksia kuin robotilla. Kolme robottilakia luotiin ylläpitämään juuri sellaista sosiaalista järjestystä."

Image
Image

Helm tarkastelee tätä ongelmaa hiukan eri tavalla ja väittää, että jos joudumme tällaiseen tilanteeseen, se itsessään on todiste siitä, että olemme menneet liian pitkälle.

”Mielestäni ei olisi järkevää suunnitella tekoälyn järjestelmää tai itse tietoista robottia. Ja toisin kuin elokuvissa tai kirjoissa, joissa tekoälyn luojat tulevat "vahingossa" älykkäisiin koneisiin, en usko, että näin voi tapahtua tosielämässä. Tämä vie liian paljon vaivaa ja tietoa. Ja suurin osa AI-suunnittelijoista on eettisesti taitavia ihmisiä, joten he välttävät luomasta sitä, mitä filosofit kutsuvat "moraalisesti merkittäviksi olennoiksi". Varsinkin kun he voivat helposti luoda edistyneen koneen, jolla ei ole eettisiä taipumuksia."

Helm ei ole huolissaan tarpeesta kehittää epäsymmetrisiä lakeja robottien arvon hallitsemiseksi ihmisten suhteen, väittäen (ja toivoen), että tulevat tekoälyn luojat luottavat joihinkin eettisiin rajoituksiin.

”Mielestäni ihmiset ovat atomien muodostamia, joten teoriassa insinööri voi luoda synteettisen elämämuodon tai robotin, jolla on moraalinen merkitys. Haluaisin ajatella, että kukaan ei tee tätä. Mielestäni suurin osa ihmisistä tekee niin. Mutta väistämättä tulee hölmö, joka haluaa tulla tunnetuksi edelläkävijänä, vaikka se olisi epäeettinen ja tyhmä."

Kolme robotiikan lakia 2.0?

Asimovin kolmen robottilain ilmeisten puutteiden vuoksi io9-resurssi kysyi: voidaanko niitä korjata tai parantaa? Itse asiassa monet tieteiskirjailijat ovat yrittäneet tätä monta kertaa, säätämällä sitä vuosien varrella.

"Ei", Helm sanoo. "Kolmelle lakille ei ole korjauksia."

Lait ovat ristiriitaisen luonteensa lisäksi myös ristiriitaisia.

"Kannatan konettisia lähestymistapoja, jotka ovat yhteistyöhaluisempia, johdonmukaisempia ja normatiivisempia, mikä tarkoittaa, että ne voivat toipua väärinkäsityksistä tai korjata väärän ohjelmoinnin."

Herzel toistaa Helmin väitteet.

Eettisten määräysten määritteleminen koneetiikan ytimeksi on toivoton, jos kone perustuu joustavaan yleiseen tekoälyyn. Jos se pidetään intuitiivisena, joustavana, mukautuvana tai eettisenä - tässä yhteydessä eettiset määräykset ovat hyödyllisiä järjestelmälle vain karkeana ohjeena oman eettisen intuition soveltamiseksi. Mutta tässä tapauksessa käskyistä ei tule eettisen järjestelmän perusta, vaan vain näkökohta. Tämä voidaan nähdä ihmisen esimerkeissä - tutkimme eettiset periaatteet, jotka toimivat, mutta eivät ohjeina, ne vain työntävät intuitioamme ja eettisiä vaistojamme. Olemme käytännössä riippumattomia eettisistä periaatteista."

Kuinka luoda turvallinen tekoäly?

Oikeudellisen lähestymistavan riittämättömyyden vuoksi voit kysyä Gertzeliltä ja Helmiltä nykyaikaisia lähestymistapoja turvallisen AI-ongelman ratkaisemiseksi.

"Hyvin harvat yleisen tekoälyn tutkijat uskovat, että on mahdollista luoda järjestelmä, joka on täysin turvallinen", Herzel sanoo. "Mutta tämä ei häiritse enemmistöä, koska mitään ei voida taata tässä elämässä."

Herzel uskoo, että kun olemme luoneet yleisen tekoälyn järjestelmän tai sen alkion, voimme suorittaa tutkimuksia ja kokeita, jotka kertovat meille paljon enemmän AI: n etiikasta kuin tiedämme.

”Toivottavasti tällä tavoin voimme laatia hyviä tekoälyn etiikkaa koskevia teorioita, joiden avulla voimme syventää tätä aihetta. Mutta nyt on melko vaikeaa teorioida AI: n etiikkaa, koska meillä ei ole vain hyviä teorioita, meillä ei ole ollenkaan teorioita."

"Ja ihmisille, jotka ovat tarkkailleet liian monta terminaattoria, tekoälyn luomisprosessi voi tuntua pelottavalta, koska he unohtavat sanan" primitiivinen "tässä yhteydessä. Radikaalimpia muutoksia tapahtui kuitenkin tällä tavalla ".

"Kun ryhmä taitavia luolamiehiä keksi kielen, he eivät odottaneet vakaan muodollisen kieliteorian kehitystä, joka voisi auttaa ennustamaan tulevia muutoksia, joita kielen syntyminen yhteiskunnassa aiheuttaa."

Ennen kuin harkitset seuraavan "kolmen lain" kehittämistä tekniseksi ongelmaksi, sinun on tehtävä paljon tutkimusta. Ja tässä Helm ja Herzel ovat yhtä mieltä.

”Kollegani MIRIstä Luc Muelhauser tiivisti perusteemme seuraavasti. Hän sanoi, että ongelmat siirtyvät usein filosofiasta matematiikkaan ja sitten tekniikkaan. Filosofialle esitetään usein oikeita kysymyksiä, mutta käytännöllisimmällä tavalla. Kukaan ei voi varmasti sanoa, onko ongelman ratkaisemisessa edistytty. Jos pystymme muotoilemaan uudelleen tärkeät syyn, tunnistamisen ja arvon filosofiset ongelmat tarkkoiksi kaavoiksi, joita matemaatikko pystyy käsittelemään, niin voidaan rakentaa jokin malli. Eräänä hienona päivänä se tulee tekniikkaan."

Helmin mielestä tämä ongelma on vaikea tieteen ja filosofian kannalta, mutta eteneminen on mahdollista.

”Suhtaudun skeptisesti siihen, että filosofia pystyy ratkaisemaan ongelman, josta on kamppailtu yli 3000 vuotta. Mutta emme myöskään voi ottaa ja alkaa tehdä matemaattisia malleja kysymyksistä, joita ei ole teknisesti läsnä. Tarvitsemme edelleen paljon teoreettista ja jopa käytännöllistä kehitystä."