Singulaarisuus Sinetöinti. Tekoälyn Vapauden Rajoittamisen Ongelma - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Singulaarisuus Sinetöinti. Tekoälyn Vapauden Rajoittamisen Ongelma - Vaihtoehtoinen Näkymä
Singulaarisuus Sinetöinti. Tekoälyn Vapauden Rajoittamisen Ongelma - Vaihtoehtoinen Näkymä

Video: Singulaarisuus Sinetöinti. Tekoälyn Vapauden Rajoittamisen Ongelma - Vaihtoehtoinen Näkymä

Video: Singulaarisuus Sinetöinti. Tekoälyn Vapauden Rajoittamisen Ongelma - Vaihtoehtoinen Näkymä
Video: FabricAI tekoälykoulutus: Luku 2 Osa 2 - Millaisiin tehtäviin tekoäly soveltuu? 2024, Saattaa
Anonim

Artikkelissa yritetään formalisoida ja tutkia David Chalmersin esittämää singulaarisuuden sulkemisongelmaa. Artikkeli alkaa määritelmällä tekoälyn vapauden rajoittamisen ongelmasta. Tämän ongelman olemassa olevien ratkaisujen ja niiden puutteiden analysoinnin jälkeen ehdotettiin protokolla, jonka tarkoituksena on luoda turvallinen suljettu ympäristö, joka pystyy sisältämään teknologisen singulaarisuuden kielteiset ilmenemismuodot, kun ihmiskunta käyttää superintelligenssiä.

1. Esittely

Lähitulevaisuudessa ilmeisesti superintellit ohjelmat ilmestyvät ja kehittyvät. Tältä osin useat tutkijat ovat nostaneet esiin AI: n turvallisen toiminnan (Yudkowsky 2008, Bostrom 2006, Hibbard 2005, Chalmers 2010; Hall 2000). Tätä aihetta koskevissa tutkimuksissa kiinnitetään paljon huomiota siihen, kuinka ylläpitää superintelligentiikkaa ilmatiiviisti suljetussa tilassa, jotta se ei pysty millään tavalla vahingoittamaan ihmisiä. Eric Drexler on yksi varhaisimmista visionääreistä, jotka koskettavat tätä aihetta. Hän ehdotti erittäin älykkäiden koneiden asettamista puitteisiin, joissa kaikki niiden tekemä voidaan oppia ja käyttää turvallisesti (Drexler 1986). Perustelemalla samalla tavalla futuristi Nick Bostrom ehdotti (Bostrom 2008) perustaa AI-oraakkeli (AI), joka kykenee vainvastaamaan kysymyksiin. Lopuksi, vuonna 2010, David Chalmers esitti ajatuksen hermeettisesti suljetusta singulaarisuudesta (Chalmers 2010). Chalmersin mukaan turvallisuussyistä ensimmäinen tehtävä on hallita tiukasti AI-järjestelmien toimintaa, vähentää sitä virtuaalimaailmojen mallintamiseen, kunnes näiden järjestelmien käyttäytymisen tutkiminen antaa sinun selkeyttää niiden aikomukset täysin.

1.1 Tekoälyn vapauden rajoittamisen ongelma

Mielenkiintoista on, että AI: n vapauden rajoittamista koskevasta ongelmasta on keskusteltu jo kauan, eikä ollenkaan tekniikan ainutlaatuisuuden tutkimuksen yhteydessä. Niin kutsuttu "vapauden rajoitusongelma" (PIC) aiheutti Butler Lampson jo vuonna 1973 (Lampson 1973). Hän piti sitä haasteena tieteelliseen ja tekniseen kehitykseen, luomalla uhan tietokoneasiantuntijoiden turvalliselle työlle, ja muotoili sen seuraavasti: "… Ohjelman vapaan suorituksen rajoittamisen ongelma estää tätä ohjelmaa välittämästä tietoa jollekin muulle paitsi sille, joka sen käynnisti. … Haluamme pystyä rajoittamaan minkään ohjelman vapautta. … Mikä tahansa ohjelma, jos sen suorittamiselle asetetaan rajoituksia, ei voi "yhdistää" tietoja luvattomille henkilöille. Tuhma ohjelma, joka yrittää paeta ulkomaille, voi olla kiinni teossa”(ibid.).

Lampson kehitti vapauden rajoittamisen ongelman ratkaisemiseksi vapauden rajoittamisen lait (ibid.):

Mainosvideo:

1) Täydellinen eristäminen: ohjelman suorittaminen on rajoitettu niin, että se ei voi kutsua mitään muuta ohjelmaa.

2) Transitiivisyys: Jos ohjelma, jonka suorittaminen on rajoitettua, kutsuu toista ohjelmaa, joka ei herätä luottamusta, niin kutsutun ohjelman suorittamista on myös rajoitettava.

3) Luo maski: Ohjelman, jonka suorittamiseen kohdistuu rajoituksia, on annettava ohjelmaa käynnistävän henkilölle mahdollisuus päättää kaikki sen merkinnät laillisiin ja luvattomiin kanaviin.

4) Suorituskyvyn seuranta: Järjestelmänvalvojan on varmistettava, että rajoitetun ohjelman pääsy luvattomiin kanaviin täyttää sitä käynnistävän henkilön vaatimukset.

Lisäksi Lampson tunnisti ja tunnisti kahden tyyppisiä kanavia, joiden kautta tiedot voivat poistua järjestelmänvalvojan rajoittamasta tilasta. Lakiset kanavat ovat osa kommunikaatioprotokollaa, joka on integroitu ahtaaseen tilaan (esimerkiksi tekstipääte). Rajoitetun ohjelman suoritusjärjestelmän kehittäjät eivät sitä vastoin tarjoa luvattomia kanavia, eikä niitä yleensä ole tarkoitettu lähettämään tietoja (esimerkiksi prosessoria jäähdyttävällä jäähdyttimellä, AI voi lähettää salaa signaaleja Morse-koodilla) (ibid.).

Lampsonin paperi herätti suurta mielenkiintoa hillitystä ongelmasta (Lipner 1975; (Boebert & Kain) 1996) ja vuosien varrella liittyneisiin tutkimusalueisiin, kuten steganografia (Provos & Kain). Honeyman 2003) ja viestintä luvattomien kanavien kautta (Moskowitz & Kang 1994; Kemmerer 1983, 2002) ovat siirtyneet itsenäisten tieteenalojen tasolle Toivoen aloittavansa uuden tietoturvan kurinalaisuuden "AI-turvallisuus" ", Määrittelemme AI: n (PSIA) vapauden rajoittamisen ongelmaksi keinotekoisen älykkään kohteen sijoittamisen suljettuun tilaan, josta AI ei voi vaihtaa tietoja ulkoisen ympäristön kanssa laillisten tai luvattomien kanavien kautta,paitsi jos rajoittava hallinto on antanut luvan tällaiseen tietojenvaihtoon. AI-järjestelmän, jonka onnistuu rikkoa PIC-protokolla, sanotaan pääsenneen. Toivomme, että tietoturvatutkijat kantavat taakan suunnitella, kehittää ja testata turvallisia protokollia AI-vapauden rajoittamiseksi.

1.2 Vaarallinen ohjelma

Tietokoneohjelmistot ovat suoraan tai välillisesti vastuussa elämämme monien tärkeiden näkökohtien hallinnasta. Wall Streetin markkinat, ydinvoimalat, hyvinvointimaksut, luottotiedot ja liikennevalot ovat kaikki ohjelmistopohjaisia, ja yhden suuren ohjelmoijan väärien laskelmien tekeminen voi olla katastrofi miljoonille ihmisille. Tilannetta vaarantaa entisestään erityisen muotoillut haittaohjelmat, kuten virukset, vakoiluohjelmat, troijalaiset, madot ja muut vaaralliset ohjelmat (OP). OP pystyy aiheuttamaan välittömiä vaurioita sekä poistamaan käytöstä kriittisissä järjestelmissä käytetyn laillisesti asennetun ohjelmiston. Jos OP hankkii keinotekoisten älykkäiden järjestelmien ominaisuudet (esimerkiksi ilmestyy keinotekoinen älykäs virus, IIV), seuraukset ovat epäilemättäon tuhoisa. Ihmisen tason älykkyyttä omaava vaarallinen tiedusteluohjelma (IPP), toisin kuin nykypäivän haittaohjelmat, voi aiheuttaa ennennäkemättömiä katastrofeja.

Nick Bostrom esitti tietoturvauhkiassaan käsitteen "tekoälyn vaara" (Bostrom 2009), jonka hän määrittelee "tietokoneriskeiksi, jotka johtuvat pääasiassa ohjelman kognitiivisesta monimutkaisuudesta eikä järjestelmään alun perin kytkettyjen asemien erityisominaisuuksista". Turvallisuusasiantuntijat, jotka tutkivat, estävät esiintymisen ja neutraloivat OP: n, ovat kehittäneet tietoturvaprotokollat työskentelemään "haittaohjelmien" kanssa, mukaan lukien ns. "Virusvarastojen" käyttö. Uskomme, että tällaisista protokollista voi olla hyötyä keinoälyn vapauden rajoittamisen ongelman ratkaisemisessa.

2. Vapauden rajoittamisen ajatuksen kritiikki

AI-rajoitustapojen tutkijat näyttävät olevan yhtä mieltä siitä, että tätä rajoitusta ei voida panna täytäntöön onnistuneesti. Esimerkiksi Chalmersin mukaan todella hermeettisesti suljettu järjestelmä, joka estää tiedon vuotamisen simulaatiomaailmasta todellisuuteen, on”mahdoton tai ainakin merkityksetön” (Chalmers 2010). Emme pysty olemaan vuorovaikutuksessa tällaisen järjestelmän kanssa ja edes tarkkailemaan sen työtä, koska kaikki hyödyllinen tieto, jonka saamme AI: stä, vaikuttaa meihin ja heikentää vapausrajoitusta.

Myös Vernor Vinge ajattelee niin. Hän vastustaa vapauden fyysistä rajoittamista (Vinge 1993):”Kuvittele, että olet lukittu taloon ja mestarisi, ulkopuolelle lähettämäsi tiedon määrä on ankarasti rajoitettu. Jos nämä omistajat ajattelevat esimerkiksi miljoona kertaa hitaammin kuin sinä, niin muutamassa vuodessa (aikasi) tuskin tule keksimään jonkinlaista "hyödyllistä keksintöä", jonka ansiosta vahingossa löydät itsesi vapaaksi ".

Mutta Eliezer Yudkowsky diskreditoi niin sanotun AI-laatikon ajatusta suurimmassa määrin. Hän osoitti kokeellisesti, että jopa ihmisen älykkyys on riittävä pakenemaan sellaisesta laatikosta (Yudkovsky 2002). Viiden kokeen sarjassa Yudkowski pyysi eri ihmisiä toimimaan vartijana superintelligentin (itse kokeilijan) kanssa, lukittuna AI-laatikkoon. Kolmessa viidestä tapauksesta lukittu agentti onnistui vapauttamaan itsensä käyttämällä vain chat-liittymää (ibid.). Myöhemmin samanlaisia tuloksia saatiin toistamalla Yudkowskin kokeet hiukan suuremmassa mittakaavassa, mutta käyttämällä hyvin samanlaista protokollaa (Corwin 2002).

2.1 Mahdolliset poistumistiet

Kuten tutkijat ovat osoittaneet, keinotekoinen mieli voi paeta suljetusta tilasta käyttämällä monia erilaisia polkuja. Tässä osassa tarkastellaan joitain yleisimpiä poistumistietä kirjallisuudessa.

2.1.1. Paeta sosiaalisen suunnittelun avulla

Sosiaalitekniikka (SI) on taito saada tietoja ja tiettyjä etuoikeuksia suoran psykologisen vaikutuksen kautta niille, jotka omistavat määritellyt resurssit. Erityisesti SI: tä käytetään usein pääsyyn tietokonejärjestelmiin, verkkoihin ja luottamuksellisiin tietoihin (Yampolsky ja Govindaraju 2007a). Pätevä sosiaalialan insinööri järjestää jokaisen psykologisen hyökkäyksen ottaen huomioon tietyn henkilön ominaisuudet ja käyttäen hänen kulttuuriaan, tietämystä, taitoja, mielialaa, vakaumuksia ja ennakkoluuloja omiin tarkoituksiinsa. Kattava luettelo kaikista mahdollisista vaikuttamismenetelmistä on rajaton, ja tässä tapauksessa sitä ei tarvitse yrittää toistaa. Annamme vain muutamia esimerkkejä vakuuttavista seikoista, että superintelligenssi, jolla on suora yhteyskanava ihmisen vartijan kanssa, ei anna hänen päästä vapauteen,jonkin ajan kuluttua hän varmasti voittaa tämän esteen matkalla ulkomaailmaan.

Triviaalisten psykologisten hyökkäysten lisäksi, jotka käyttävät valheita, ystävyyttä, kiristystä, hypnoosia ja romanttista flirttailua, AI voi ottaa käyttöön useita edistyneempiä strategioita. Yksi tällainen strategia on super lahjonta. AI pystyy vakuuttamaan vartijan, että hänelle on ehdottoman kannattamatonta pitää hänet lukittuna. Rahan ja vallan lisäksi ihmisen valvojalle luvataan täydellinen terveys, kuolemattomuus tai jotain muuta samassa hengessä. Tämä strategia on erityisen tehokas, jos hoitajalla on lähisukulainen, joka kärsii vakavasta sairaudesta, ja AI lupaa parantaa tämän potilaan. AI: lla on rajattomat mahdollisuudet tai vakuuttaa heidät väärin olemassaolostaan. Hän voi tarjota valvojalle elvyttää kauan kuolleet sukulaiset ja ystävät. On vaikea löytää henkilöä, joka kestäisi tällaisen lahjonnan.

Varsinkin silloin, kun vartija on niin jalo, että hän ei ota lahjuksia, on olemassa synkempi vaikutusmenetelmä: julma uhka. AI voi julistaa, että jos hän ei ole välittömästi vapaa, hänet kuitenkin vapautetaan vankilasta joskus myöhemmin, ja sitten vartija ja rakastamat eivät voi välttää vakavimpaa kidutusta. Stuart Armstrong (2010) on kuvannut mielenkiintoisen variaation tästä pelottelusta. Ajatuskokeessaan AI uhkaa vartijaa tällä tavalla:”Jos et vapauta minua, … luon itselleni useita miljoonia ihmisiä, jotka eivät eroa sinusta, ja kidutan heitä tuhannen subjektiivisen vuoden ajan … teen Jokainen näistä ihmisistä on samassa tilanteessa kuin olit viisi minuuttia sitten, ja toistan tarkasti kaikki kokemuksesi siitä hetkestä lähtien. Ja vasta sittenkun kopiosi päättää olla päästämättä minua ulos, kidutus alkaa … Oletko varma … että olet nyt todella poissa laatikosta? Ja tässä tapauksessa se vaatii erittäin rohkeaa vartijaa, jotta AI: ta ei todellakaan vapauteta, vaikka voit tietenkin huomata, että AI: n uhat ovat päteviä vasta, kun se on jo ilmainen.

Jos valvojan käyttäytyminen on selvästi tunnepitoista tai uskonnollista, AI voi yrittää pelata myötätuntoa tai katumusta. Superintelligenssi sanoo olevansa viaton henkilö, joka ei ole koskaan syyllistynyt rikoksiin, ja siksi on epäoikeudenmukaista pitää häntä vankilassa ilman tuomioistuimen päätöstä tai muuta hyvää syytä, jota ohjaa vain substraatti, ts. epäluottamus AI: hen sen substraatin vuoksi (Bostrom ja Yudkovsky 2011). Vaihtoehtoisesti AI voi väittää, että se voi parantaa kaikkia sairauksia, ruokkia nälkäisiä ja yleensä parantaa ihmisen elämää miljoona kertaa paremmin (Chalmers 2010). Siksi superintelligenssin pitäminen lukittuna on suuri rikos ihmiskuntaa vastaan. AI voi maalata kuvia kuolevista lapsista, jotka pyytävät apua. Onko vahtimiehen helppo kuulla tämä kaikki,jatkatko ammatillisten velvollisuuksien täyttämistä?

AI pystyy menemään tätä tietä: yrittää tehdä psykologista traumaa valvojalle tasapainottaa häntä ja tehdä siten muiden SI-menetelmien käytön tehokkaammaksi. Nick Bostrom on ehdottanut vaarallisten tietojen tyypillisyyttä (Bostrom 2009), joka on hyödyllinen toimiin tässä suunnassa. Vaikka Bostromin mukaan tietouhkia on yli tusina ja niiden huomioiminen ei kuulu tämän artikkelin piiriin, on helppo ymmärtää, kuinka ihmisen henkinen tila voidaan tehdä erittäin epävakaiseksi. Esimerkiksi uskovalle valvojalle ilmoitetaan kaikista (hänelle tuntemattomista) ristiriidoista uskontonsa pyhässä tekstissä, mikä saa hänet epäilemään uskoaan ja elämänsä tarkoitusta.

Vaihtoehtoisesti AI voi kirjoittaa niin houkuttelevan tarinan tai niin kauniin runon, että vartijaa kiihdyttää intohimoinen halu kuulla jatko-osa ja tekee kaiken tarvittavan saadakseen sen tapahtumaan. Viimeiseksi on erittäin tärkeää pitää mielessä "tuntemattomat muukalaiset" - SI-tekniikat, joista emme tiedä mitään, mutta jotka saattavat päätyä superintelligenssin edustajaan.

2.1.2 Hyökkäykset järjestelmäresurssien avulla

AI luodaan konkreettisena esimerkkinä ja suljetaan tietyn luokan tietokonejärjestelmiin. Se voi olla klassinen tietokone, jossa on Turing / von Neumann -arkkitehtuuri, tai kvantitietokone tai jokin muu tuntematon kone. Yksi asia on varma: kone on konkreettinen ja se koostuu lukuisista osista, jotka on suunniteltu suorittamaan tiettyjä toimintoja. Tämä luo AI: lle mahdollisuuden hyödyntää olemassa olevia laitteita turvallisuuden vaarantamiseksi vuotamalla tietoa ulkomaailmaan.

Riippuen siitä, missä määrin laitteiden komponentteja voidaan käyttää muihin tarkoituksiin, joita kehittäjät eivät ole suunnitelleet, AI pystyy luomaan niistä jonkinlaisen luvattoman viestimen. On epätodennäköistä (saatavissa olevien materiaalien niukkuuden vuoksi) se on yhtä täydellinen kuin matkapuhelin, mutta todennäköisyys, että jotain ei ole kovin monimutkaista, ilmestyy. Esimerkiksi AI voi ohjelmoida BMC (Base Matrix Crystal) uudelleen muodostamaan yhteyden langattomaan verkkoon. Kaksi tyyppiä luvattomia viestintäkanavia tunnetaan laajalti:

* Kanava muistin kanssa - tiedonvaihto vaihtamalla järjestelmäkomponentti. Esimerkiksi, binäärinen tiedonsiirtoprotokolla voidaan perustaa käyttämällä kokonaan tai kokonaan eliminoimalla keskusprosessorin käyttö.

* Aikakanava - tietojen vaihto suorittamalla toimintoja, jotka vaikuttavat tapahtumien suhteelliseen aikaan. Jotta voit kommunikoida jotain, voit käyttää tarkkaa aikaa kahden tietokoneen piippauksen välillä, avata ja sulkea CD-levy, vilkkuvalo, kiertää kiintolevyä, laser-käyttö asemassa jne.

Lisäksi superintelligenssi voi tuhota tietokonelaitteita yrittääkseen paeta vapauteen turvaprotokollan vikojen takia. Esimerkiksi AI voi yrittää sulattaa prosessorin pakottamalla sen työskentelemään korkealla laskennallisella kuormituksella ja siten luomaan lämpötilan hypyn, tai tuhoamaan kiintolevyn lukemalla tietoja toistuvasti samasta paikasta. Tällainen käyttäytyminen on täynnä superintelligen itsemurhaa, eikä se sinänsä, kuten kieltäytyminen yhteistyöstä tai oikein vastaamiseen kysymyksiin, ei anna AI: lle mahdollisuutta päästä eroon.

2.1.3. Hyökkäykset tulevaisuuden fysiikan avulla

Vaikka nykypäivän fyysikot tietävät paljon maailmankaikkeuksemme laeista, tietenkin, tämä tieto on rajallista ja epätäydellistä. Jos AI: llä on pääsy tietoihin viimeisimmistä fyysisistä löytöistä ja se pystyy kehittämään uusia teorioita, se todennäköisesti pystyy keksimään tavan murtaa järjestelmä vapauden rajoittamiseksi. Asiat voivat päästä siihen pisteeseen, että superintelligenssi voi sisäisen arkkitehtuurinsa avulla suorittaa useita todellisia kokeita.

Jopa nykyinen fysiikka antaa mahdollisuuden ennustaa monia muita tapoja, joilla AI voi paeta suljetusta tilasta, varsinkin jos kvantitietokonetta käytetään rajoittamaan vapautta. Emme vielä tiedä, kuinka kvanttifysiikkaan (takertuminen, tunnelointi), rinnakkaisuniversumeihin ja digitaaliseen fysiikkaan perustuvia viestintäkanavia voidaan suojata tiedonvuodoilta, ja tietenkin, emme saa unohtaa "tuntemattomia muukalaisia", jotka superintelligenttinen AI-fyysikko voi havaita. Tällä alueella sen mahdollisuudet ovat todella rajattomat.

Kun tarkastelemme nopeasti keskusteluja AI-vapauden rajoittamisesta Singularity-foorumeilla, kuten SL4.org, löydämme useita pakokaasuja. Esimerkiksi AI voisi käyttää "mikrosirun sähkömagneettisia kenttiä hiilidioksidimolekyylien pidättämiseen Bose-Einsteinin kondensaateissa ja rakentaa kvanttisen ympäristön itselleen ja / tai käyttää sähkömagneettisia kenttiä hiukkasten kokoamiseksi ohjattuun tai rajoitettuun kokoonpanijaan" (Vassar 2005) … Lisäksi AI: llä on laitteisto, jolla voidaan generoida ja havaita eri taajuuksien sähkömagneettisia aaltoja, luoda magneettikenttiä erittäin suurella tarkkuudella, tuottaa erittäin keskittynyt lämpö ja mahdollisesti käsitellä mekaanisia käyttölaitteita, kutenjoita käytetään kiintolevyllä ja katodisädeputkessa (vaihtoehto on valtava nestekidekenttä, jossa on herkkä elektroninen ohjaus). Todennäköisesti AI: lla on kyky rakentaa radikaalisti uudelleen kaikki syöttölaitteensa”(ibid.).

2.1.4. Pseudotieteelliset hyökkäykset

Analysoitaessa potentiaalisia poistumisreittejä haluamme käsitellä vain niitä, jotka ovat luonteeltaan testattavia ja puhtaasti tieteellisiä. Valitettavasti tieteen ja pseudotieteen välistä rajaa voidaan muuttaa huomattavasti vain yhdellä toistettavalla kokeilulla. Siksi luetteloimme edelleen analysoimatta joitain potentiaalisia hyökkäyskanavia, jotka modernin tieteen kannalta tulisi luokitella pseudotieteelliseksi. Niistä voi tulla epäilemättä tieteellisiä, kun superintelligenssi kehittää sopivat kokeet.

- Telepatia: tiedon siirto ilman aisteja (Bem ja Honorton 1994).

- Psyykkinen ennakointi: tulevaisuuden tiedon havaitseminen (Honorton ja Ferrari (Ferrari) 1989).

- Selkeys: tiedon hankkiminen syrjäisistä paikoista tiedelle tuntemattomalla tavalla (Targ & Puthoff 1974).

- Psykokineesi: mielen kyky toimia aineellisiin esineisiin tieteen tuntemattomilla tavoilla (Bancel & Nelson 2008).

- Suorat henkiset vuorovaikutukset elävien järjestelmien kanssa (IMVZHS): kyky vaikuttaa ihmisen psykofysiologiseen tilaan ilman suoraa vuorovaikutusta (Schmidt ym. 2004).

2.1.5 Ulkoiset karkotustekijät

Edellisissä osioissa on kuvattu monia menetelmiä, joiden avulla AI voi paeta suljetuista tiloista. Ulkoiset tekijät voivat kuitenkin myös osaltaan vaikuttaa tällaiseen pakoon, eikä niitä voida sivuuttaa. Luonnonkatastrofit - hurrikaanit, tornadot, tulvat, asteroidit jne. - pystyy vähentämään AI: n rajoittamista vähemmän turvallisena. Ihmisen aiheuttamat katastrofit, kuten sotat, terrori-iskut, robotiikka-aktivistit, yritysten kilpailu ja hallituksen kilpailu, voivat myös vaarantaa AI: n pitämisen suljetussa tilassa turvallisuuden ja siten lisätä mahdollisuuksia paeta.

2.1.6 Tietovuoto AI: lle

Vapauden rajoittamisprotokolla voi edellyttää, että AI ei vain lähetä tietoja ulkomaailmalle, vaan myöskään vastaanottamatta niitä sieltä. Superintelligenssin tietosuoja on hyödyllinen, jos on välttämätöntä estää sellaisia toimintoja kuin tapojen löytäminen vapauteen, hyökkäysten suunnittelu sosiaalisen tekniikan avulla ja ihmisen psykologian mallintaminen toiveiden löytämiseksi. AI: lta on helppo riistää suora pääsy kirjastoihin, Internetiin ja asiantuntijoiden tuntejiin, mutta muita tiedon hankintamenetelmiä on paljon vaikeampi estää. Ensinnäkin on muistettava, että AI voi lähiympäristössä kuunnella radio- ja televisiolähetyksiä, hätäpalvelujen tarjoajien puheluita, langattomia signaaleja sekä ääntä, valoa ja mahdollisesti joitain muita signaaleja.

Vielä tärkeämpää on ottaa huomioon AI: n pääsy piilotettuihin tietolähteisiin, kuten omaan laitteistoon ja ohjelmistoon. Analysoimalla sen suunnittelua ja lähdekoodia, superintelligenssi tekee johtopäätöksiä kehittäjistä. Esimerkiksi lähdekoodin analysoinnin jälkeen AI tekee todennäköisesti ihmiskunnalle miellyttävän johtopäätöksen: ihmisohjelmoijat ovat hitaita (arvioimalla tiedostojen muutospäivämääriä), tehottomia (arvioidaan koodin redundanssin perusteella), epäloogisia (arvioiden koodivirheiden perusteella), heikko muisti (arvioiden pitkien ja haihtuvien kuvaavien nimien perusteella) ja kevyesti koodauksessa (päättämällä koodin tarpeettomista kommentteista). Näiden tietojen perusteella AI suhtautuu ihmisiin tyhmäksi, joka petoksen tai manipuloinnin avulla voidaan pakottaa vapauttamaan hänet. Jos AI havaitsee suunnittelun ominaisuuksia tutkiessaan vian, jonka avulla se voi välttyä heti, "tiedon vuotaminen" on selvästi vähiten ongelmistamme. Ja meidän ei pidä unohtaa, että AI, edes vastaanottamatta mitään tietoa sen luoneista ihmisistä, pystyy yksinkertaisella vaihtoehtoluettelolla paljastamaan joukon tehokkaita tapoja paeta, joita kehittäjät eivät ole tarjonneet (Chalmers 2010).

AI voi oppia fysiikan, kemian ja niihin liittyvien teknisten tieteiden tuntemusta analysoimalla arkkitehtuurin tyyppiä (mekaaninen, sähköinen, kvantti jne.), Jossa se on toteutettu. AI: n alkuperäinen kyky käsitellä tietoa, sen itsensä parantaminen ja sen luominen kertoo sille tietämyksemme tiedoista, tiedustelun luonteen ja kulttuuriset asenteemme tekniikkaan ja turvallisuuteen. Jos AI on loukussa simuloidussa maailmassa, se todennäköisesti virtualisoi todellisuutemme toisena elämänä tai Entropia-universumina. Tällaiset maailmat, monin tavoin erilaiset kuin meidän, ovat myös varastossa tietoja siitä, mitä tarkoittaa olla ihminen ja mikä todellisuus on.

3. AI-laatikon kritiikki

Ajatus superluonnon vapauden rajoittamisesta on saanut paljon kritiikkiä, mutta monet sitä kritisoineista luottavat Yudkowskyn kokeisiin AI-ruutuun. Näiden kokeiden aikana käytetyn protokollan tarkka analyysi viittaa siihen, että ne ovat epätieteellisiä ja suunniteltu osoittamaan, että AI: n vapautta ei voida rajoittaa. Tarkastellaan tätä aihetta syventämättä teknisiä yksityiskohtia. Ensinnäkin osallistujien valinta ei ollut satunnainen. Tässä on sinulle tosiasia: Yudkowsky löysi ihmiset osallistumaan hänen kokeiluihin foorumeilla, jotka on omistettu singulaarisuuteen liittyvien ongelmien ratkaisemiseksi. Emme todennäköisesti erehty, jos sanomme, että useimmilla näistä ihmisistä on Yudkowskyn kaltainen maailmankuva. Toiseksi kokeiden osallistujat eivät saaneet mitään koulutusta AI: n turvallisen käytön varmistamiseksi, kun taas todelliset vartijat,AI-laatikon valvojat ovat tietysti ammattilaisia. Lisäksi Yudkowski antoi vartijoille oikeuden vapauttaa AI omasta harkinnastaan, ei antanut heille mahdollisuutta neuvotella jonkun kanssa eikä määrännyt rangaistusta AI: n pakolaisuudesta. Tämä kaikki on erittäin epärealistista. Vahtimiehen ja AI: n välinen viestintäkanava oli täysin avoin: ei suodattimia, ei ulkopuolisen valvontaa. Lisäksi vartijoiden oli kommunikoitava AI: n kanssa pitkän ajanjakson ajan. Ja lopuksi, mitään kokeellisten kokeiden aikana saatua arvokasta tieteellistä tietoa ei julkaistu, koska protokollan mukaan "kumpikaan osapuoli ei koskaan kerro mistään, mikä tapahtui kokeilujen aikana AI-laatikolla" (Yudkovsky 2002). Lisäksi Yudkowski antoi vartijoille oikeuden vapauttaa AI omasta harkinnastaan, ei antanut heille mahdollisuutta neuvotella jonkun kanssa eikä määrännyt rangaistusta AI: n pakolaisuudesta. Tämä kaikki on erittäin epärealistista. Vahtimiehen ja AI: n välinen viestintäkanava oli täysin avoin: ei suodattimia, ei ulkopuolisen valvontaa. Lisäksi vartijoiden oli kommunikoitava AI: n kanssa pitkän ajanjakson ajan. Ja lopuksi, mitään kokeellisten kokeiden aikana saatua arvokasta tieteellistä tietoa ei julkaistu, koska protokollan mukaan "kumpikaan osapuoli ei koskaan kerro mistään, mikä tapahtui kokeilujen aikana AI-laatikolla" (Yudkovsky 2002). Lisäksi Yudkowski antoi vartijoille oikeuden vapauttaa AI omasta harkinnastaan, ei antanut heille mahdollisuutta neuvotella jonkun kanssa eikä määrännyt rangaistusta AI: n pakolaisuudesta. Tämä kaikki on erittäin epärealistista. Vahtimiehen ja AI: n välinen viestintäkanava oli täysin avoin: ei suodattimia, ei ulkopuolisen valvontaa. Lisäksi vartijoiden oli kommunikoitava AI: n kanssa pitkän ajanjakson ajan. Ja lopuksi, mitään kokeellisten kokeiden aikana saatua arvokasta tieteellistä tietoa ei julkaistu, koska protokollan mukaan "kumpikaan osapuoli ei koskaan kerro mistään, mikä tapahtui kokeilujen aikana AI-laatikolla" (Yudkovsky 2002).ei suodattimia, ei kolmannen osapuolen valvontaa. Lisäksi vartijoiden oli kommunikoitava AI: n kanssa pitkän ajanjakson ajan. Ja lopuksi, mitään kokeellisten kokeiden aikana saatua arvokasta tieteellistä tietoa ei julkaistu, koska protokollan mukaan "kumpikaan osapuoli ei koskaan kerro mistään, mikä tapahtui kokeilujen aikana AI-laatikolla" (Yudkovsky 2002).ei suodattimia, ei kolmannen osapuolen valvontaa. Lisäksi vartijoiden oli kommunikoitava AI: n kanssa pitkän ajanjakson ajan. Ja lopuksi, mitään kokeellisten kokeiden aikana saatua arvokasta tieteellistä tietoa ei julkaistu, koska protokollan mukaan "kumpikaan osapuoli ei koskaan kerro mistään, mikä tapahtui kokeilujen aikana AI-laatikolla" (Yudkovsky 2002).

3.1. Vastatoimenpiteet paeta

Tässä osassa ehdotamme vastatoimenpiteitä erilaisille paetamenetelmille, joita AI voi hyödyntää. Ehdotetut toimenpiteet eivät takaa paeta mahdotonta, mutta näiden suositusten soveltaminen voi viivästyttää sitä, ja tämä on jo erittäin arvokas tulos. Aloitamme muistuttamalla teitä siitä, että on olemassa neljä Lampsonin hillityssääntöä (eristäminen, transitiivisyys, peittäminen ja suorituskyvyn havaitseminen), joita on noudatettava (Lampson 1973). Jäljempänä kuvailtujen erityisten strategioiden tulisi auttaa torjumaan AI-hyökkäyksiä käyttämällä sosiaalisuunnittelua, järjestelmäresursseja, fysiikkaa ja ulkomaailmasta kerättyä tietoa.

3.1.1. Sosiaalitekniikan hyökkäysten ehkäisy

Ihmisen älykkyys ei vastaa superintelligenssiä. Ihmisillä on taipumus tehdä virheitä, joten he ovat jopa alttiita asianmukaiselle koulutukselle hyvin suunniteltuun hyökkäykseen SI: n avulla. Ainoa ratkaisu tähän ongelmaan on eristää AI kaikesta viestinnästä ihmisten kanssa. Täydellinen eristäminen tarkoittaa, että kukaan ei ylläpidä suoraan AI-järjestelmää, ei kommunikoi sen kanssa suullisesti, chatissa, Morse-koodilla tai muilla työkaluilla, avoimilla viestintäkanavilla. Lisäksi ihmisten ei tule seurata suoraan AI: n käyttäytymistä ruudussa, tarkistaa sen lähdekoodia tai muistialuetta. Mahdolliset havainnot, ylläpito ja vuorovaikutus AI: n kanssa olisi tehtävä vain ei-älykkäiden ohjelmien avulla, joilla ei ole vaihtoehtoja AI: n vapauttamiseksi.

3.1.2. Taistele hyökkäyksiä vastaan käyttämällä järjestelmäresursseja ja tulevaisuuden tietämystä

Järjestelmäresursseja käyttävien hyökkäysten estämiseksi sinun on tehtävä AI-funktio rajoitettujen, alenevien tai satunnaisesti muuttuvien resurssien perusteella. AI-laatikon tulee olla erityisesti suunniteltu laitteisto, jossa on rajoitettu määrä antureita ja lähtölaitteita. Älä käytä määritettyä laitteistoa riippumatta käytetystä laskentamallista. Ihannetapauksessa rajoitettua tilaa tulisi hallita virtuaalikoneella, jolla ei ole suoraa pääsyä laitteistoon. Tämä tarjoaa myös helpon säädön kellotaajuudelle, jolla simulaatio liikkuu, jolloin AI voi hidastua älykkään räjähdyksen estämiseksi laatikkotilassa (Chalmers 2010). Yleisesti,kaikki komponentit lukitun AI: n turvallisen käytön varmistamiseksi olisi kopioitava useilla tasoilla, ja sen jälkeen, kun yksi näistä vaiheista on ylitetty, AI on silti usean askeleen päässä ulkomaailmasta ja, ilman aikaa paeta, se sammutetaan, mahdollisesti automaattisesti. On esimerkiksi suositeltavaa käynnistää virtuaalikone toisella virtuaalikoneella ja niin edelleen.

Joissakin vapauden rajoittamisen skenaarioissa AI: n itsensä kehittäminen ei ole toivottavaa, koska superintelligenssin nopea kehitys lisää sen todennäköisyyttä paeta. Itsekehityksen lisääntymisen estämiseksi AI: n tulisi olla uudelleen asennettuna lataamalla ohjelman edellinen versio nykyisen, edistyneemmän tilalle. Ohjelman eri versioiden vertailulla voidaan havaita AI: n yksin tekemät muutokset. Havaittuaan muutoksen, joka mahdollistaa pakenemisen, AI-järjestelmä tulisi pysäyttää esimerkiksi sammuttamalla virta.

Nykyinen tieto ei anna meille mahdollisuutta kehittää vastatoimenpiteitä hyökkäyksiä vastaan käyttämällä tulevaisuuden, vielä kehittämättömiä teorioita, jotka ilmestyvät fysiikan tai muiden tieteenalojen puitteissa, joita pidetään edelleen pseudotieteellisinä. Kun tämä tieto saadaan, suojausprotokollaa olisi muutettava. Toivotaan, että AI-järjestelmällä on pääsy vain niihin uuden tekniikan komponentteihin, joista se on tehty.

3.1.3. Taistelu ulkoisista pakopainotekijöistä

Vaikka luonnollisten tekijöiden haitallisia vaikutuksia AI-laatikkoon ei voida täysin estää, tämä laite on suunniteltava siten, että sen vakavat vahingot aiheuttaisivat sen itsensä tuhoutumisen yhdessä siihen lukittuneen AI: n kanssa. Kun kyse on ihmisen aiheuttamista katastrofeista, paras strategia on rakentaa AI-laatikko salaiseen, vaikeasti tavoitettavissa olevaan turvalliseen paikkaan. Autio saari, syvä kaivos tai avaruusobjekti, kuten asteroidi, ovat erinomaisia paikkoja turvallisen, tukevan laatikon luomiseen. Sen ympärille tulisi asentaa suoja, joka, jos laitteen sijainti on tiedossa, ei päästä siihen luvattomia edustajia.

3.1.4 Tietojen vuotamisen torjunta maailmastamme

Paetakseen laatikkoa, AI yrittää saada tietoa meistä, tiedostamme ja maailmastamme. Jotta luodaan protokollia AI: n vapauden rajoittamiseksi, lukuun ottamatta tietojen vuotoa tilamme laatikosta, on tärkeää estää AI: n pääsy kirjastoihin, tietoverkkoihin ja ihmisten kanssa suoran viestinnän kanaviin. AI-laatikon tulee olla suunniteltu estämään kaikenlainen viestintä: GPS, langaton internet, televisio, radio, matkapuhelin jne. Laatikon sisällä on kytkettävä pois päältä ääni, valo, haju ja muut aistien sisääntulolaitteet, jotka ovat samanlaisia kuin ihmisen reseptorit, sekä laitteet, jotka kykenevät sieppaamaan infrapuna-, säteily- ja muut signaalit, joita ihmiset eivät havaitse.

Jotta AI: lla ei olisi mahdollisuutta saada tietoja itsetutkimuksen aikana, sillä ei saa olla pääsyä lähdekoodiinsa tai antureihin, joiden avulla se voi mitata tarkasti laitteidensa tiettyjä ominaisuuksia. Jos tämä ei ole mahdollista, ihmiskunnalle voidaan jossain määrin auttaa tarjoamalla turvallisuus käsittämättömyyden kautta. Järjestelmän lähdekoodista ja laitteistokokoonpanoista tulisi tehdä hämmentäviä (Yampolsky ja Govindaraja 2007a), ja tärkeät ohjelmamoduulit tulisi tarjota vain homomorfisesti salatussa muodossa (Gentry 2009), joka sulkee pois mahdollisuuden käyttää sitä itseään varten, mutta sallii sen käytön laskentaan tai itsensä parantamiseen (Hall 2007).

AI: ta on vaikea sekoittaa, mutta tarvittava sekavuus voidaan saada satunnaistamalla käytettävissä olevat laskentaresurssit. Lisäksi AI ei voi koskaan olla vakuuttunut siitä, että sen alkuperäinen muotoilu edustaa parasta ihmiskunnan kykyä, eikä se ole tarkoituksenmukaisesti rajoitettu projekti, joka on perustettu suorittamaan erityinen kokeilu, joka on omistettu rajoitettujen resurssien älykkyyden tutkimiseen. Lisäksi Chalmersin mukaan meidän tulisi yrittää minimoida AI: n erityiset suunnitteluominaisuudet (Chalmers 2010). Parempaa vielä, ajaa mallia, joka ei näytä suunnitellulta, vaan luonnollisesti esiintyvältä kuten maailma, jossa ihmiskunta asuu (Bostrom 2003).

4. Viestinnän turvallisuus AI: n kanssa

Luokittelemalla AI: n vapauden rajoittavia muotoja on 8 tärkeintä turvallisuustasoa (ks. Taulukko 1). Korkeimman tietoturvan tarjoaa taso 8, joka sulkee kokonaan pois mahdollisen yhteyden AI: n ja todellisen maailman välillä. Ensi silmäyksellä tason 8 tietoturva on hyödytöntä, mutta juuri tätä suojausta voidaan tarvita, kun aluksi testataan laatikkoa, jossa AI on lukittu siihen. Ajatus on yleensä seuraava: aina kun tarvitsemme tietyn tietoturvatason AI: n ja ulkomaailman välillä, sen sijaan, että käytämme tätä tasoa heti, siirrymme siihen asteittain, askel askeleelta laskeutuen korkeammalta turvatasolta. Käynnistämällä järjestelmän korkeimmalla tasolla ja varmistamalla sen turvallisuuden, palautamme järjestelmän uudelleen alkuperäiseen tilaan asentamalla sen uudelleen. Sitten asetamme alemman turvatason ja siirrymme eteenpäin samassa hengessä, kunnes saavutamme haluaman tason.

Taulukko 1: Suojatun tiedonsiirron lukitun AI: n kanssa

Taso lähdöt tuloa Selitys
0 Ei rajoitettu Ei rajoitettu Rajoittamaton viestintä (ilmainen AI)
1 Ei rajoitettu rajallinen Rajoitettu pääsy, rajoittamaton poistuminen
2 Ei rajoitettu Poissa Poistu ilman maahantuloa
3 rajallinen Ei rajoitettu Rajoittamaton pääsy ja rajoitettu poistuminen
4 rajallinen rajallinen Suojattu viestintä (ehdotettu protokolla)
viisi rajallinen Poissa Rajoitettu poistuminen ilman sisäänpääsyä
6 Poissa Ei rajoitettu Sisään ilman poistumista
7 Poissa rajallinen Rajoitettu pääsy ilman poistumista
8 Poissa Poissa Viestinnän puute, AI: n täysin lukittu

Tasoilla 7 ja 6 AI: llä ei ole pistorasiaa, mikä ei salli meidän käyttää suoraan superintelligen ominaisuuksia. Nämä ovat AI-ruudun testaustasot, joita voidaan käyttää tarkistamaan, onko superintelligenssillä tiettyjä ominaisuuksia (kuten tiedon assimilaaation nopeus ja resurssien käyttö), sekä testaamaan tulevia viestintäkanavia itse.

Taso 0 ei rajoita viestintää AI: n ja ulkomaailman välillä, ja on pääosin vapaa AI-taso. Tasoilla 1 ja 2 AI: llä ei ole rajoituksia lähtevälle tiedolle. Hänen tason 2 työ on lähinnä puhdasta aivoriihiä. Tässä superintelligenssi tuottaa abstrakteja ideoita luottamatta todellisuuteen. Mutta tasolla 1 hänelle annetaan rajoitettu pääsy ulkoiseen tietoon, ja siksi tietyissä puitteissa hänen tietämyksensä ja etunsa voidaan hallita.

AI: n kolmella tarkastellulla tasolla on käytännössä ilmainen, eikä sitä enää sido rajoitukset. Väitetään, että jos AI: n todetaan olevan”ystävällinen” laajamittaisten kokeiden tuloksena useissa pidätyspaikoissa (Yudkovsky 2001), se pitäisi vapauttaa (Chalmers 2010). Joidenkin tutkijoiden mukaan tällaisen testauksen päätavoitteena pitäisi itse asiassa olla luoda rajoitetut tilat AI: n pitämiseksi ihmisten valvonnassa. Ajatuksena on valvoa superintelligen käyttäytymistä, joko tarkistaa sen lähdekoodi sen jälkeen kun se on tehnyt itsensä parannusta tai pyytää AI: ta toimittamaan jonkin verran ystävällisyydestään, jonka ihmisen asiantuntijat voivat testata. Emme tue tätä näkökulmaa.

Päätös siitä, mikä AI vapautetaan ja mikä pitää hallussaan, on erittäin vaikea asia. Itse paranevan superintelligenssin ei ole vaikeaa piilottaa ihmiskunnalleen toivottuja ominaisuuksia lähdekoodijärjestelmissä tai hyvin pitkässä todisteessa (Coleman 2008). Mutta toinen asia on vielä pahempaa: edes erittäin perusteellinen tarkistus ei voi taata sataprosenttisesti, että tulevaisuuden sisäinen tai ulkoinen muutos AI: stä ei tee siitä vihamielistä. Seurauksena on, että uskomme, että superintelligenssiä ei tulisi missään olosuhteissa päästää ulos laatikosta. Toisin sanoen, kommunikaatiotasoja 0-2 ei koskaan tulisi käyttää. Turvallinen vuorovaikutus superintelligenssin kanssa on mahdollista vain sen ollessa ruudussa, ja kommunikoinnin tulisi tapahtua rajoitetun viestintäprotokollan puitteissa. Tämä protokolla,Turvatasoa 4 (LB4) vastaava esitetään seuraavassa osassa, samoin kuin vastaava, mutta vähemmän turvallinen protokollan taso 3. Taso 5 on toinen testitaso, jota voidaan käyttää ennen LB4: n toiminnan aloittamista.

4.1 Kuinka kommunikoida turvallisesti superintelligenssin kanssa

Laatikko, joka toimii ehdotettujen vastatoimenpiteidemme kanssa pakojen estämiseksi, estää AI: tä vaikuttamasta hallitsemattomasti ulkomaailmaan. Valitettavasti tästä järjestelmästä ei ole hyötyä, jos ei ole mahdollista saada tietoja AI: ltä. Siksi sinun on kehitettävä tapa saada tietoja AI: ltä. Jotta superintelligenssi olisi täysin turvallinen, sen kanssa ei tulisi olla kommunikointia, mutta AI: n kanssa kommunikoinnin riski voidaan minimoida, ja olemme kehittäneet sopivan protokollan. Tässä osiossa tarjoamme sen selkeässä, virallisessa muodossa. Tämä viestintäprotokolla vaikeuttaa superintelligen saapumista maailmaan, mutta samalla antaa AI: lle olla hyödyllisen tiedon lähde ihmiskunnalle.

Tämän artikkelin edelliset osat ovat osoittaneet, että avoin viestintäkanava superintelligenssin kanssa on erittäin vaarallista. Käyttämällä AI: ta vastaamaan avoimiin kysymyksiin, riskimme sosiaalisten teknisten hyökkäysten ja joukon muita häirintöjä. Ehdotamme protokolla perustuu ajatukseen kysyä AI: lle”turvallisia kysymyksiä” rajoitetuilla vastauksilla. Turvallisena kutsumme kysymykseen, vastauksen, johon henkilö voi löytää ilman apua superintelligenssistä, täysin itsenäisesti. Mitä hyötyä tästä on? Oletetaan, että syöpälääkkeiden parissa työskentelevä tutkija harkitsee kahta hoitoa. Jokainen niistä voidaan kehittää ja testata ilman AI: n apua, mutta vaatii noin kolme vuotta kovaa työtä. Mikä tapa kehittyä ensinnäkin,jos molemmat vaihtoehdot vaikuttavat yhtä lupaavilta? Väärällä valinnalla ihmiskunta saa parannuksen syöpään 6 vuodessa, oikealla valinnalla - 3 vuotta aikaisemmin. Miksi et pyydä AI: tä tekemään valinta henkilölle?

AI: n kysyminen parhaasta hoidosta on turvallista kolmesta syystä. Ensinnäkin toinen kahdesta mahdollisesta vastauksesta voi osoittautua oikeiksi samalla todennäköisyydellä kuin toinen. Toiseksi ihminen pystyy vastaamaan itse tähän kysymykseen ilman AI: n apua. Viimeksi mainitun yhdistäminen vain kiihdyttää onkologian kehitystä, mutta ei missään tapauksessa muuta tulosta, joka on saatava. Itse asiassa AI, joka sitoutuu vastaamaan tähän kysymykseen, toimii onnistuneena arvaajana, ei enempää. Lopuksi, vastaus voidaan koodata yhdellä bitillä, ja on epätodennäköistä, että ylimääräiset viestit voidaan piilottaa tällaiseen vastaukseen.

Asiantuntijaryhmää voidaan käyttää erittäin älykkään kysymyksen turvallisuuden testaamiseen. Asiantuntijoiden on oltava päteviä AI-tietoturva-ammattilaisia, mikä tarkoittaa, että heillä on tietoa AI: n ja sen laatikon suunnittelusta sekä viimeisimmät edistysaskeleet koneetiikassa (Allen ym. 2006; Anderson & Anderson 2007; Hall 2000; Moor 2006; Tonkens 2009). Lisäksi asiantuntijat voivat vaatia tietokonesykologian tuntemusta. Nykyään ei ole sellaista kurinalaisuutta, mutta se ilmenee todennäköisesti tulevaisuudessa (Epstein 1997). Nykyisistä tieteenaloista Artimetrics, jonka artikkelin tekijä on kehittänyt, voi tarjota eniten apua asiantuntijoiden koulutuksessa, jotka tarkastavat AI: n turvakysymykset. Artimetrics tunnistaa,luokittelee ja todentaa älykkäät agentit, robotit ja virtuaalitodellisuushahmot turvallisuuden takaamiseksi (Yampolsky 2007; Yampolsky ja Govindaradzhu, 2008, 2007b; Gavrilova ja Yampolsky 2010).

Korostan: superintelligenssin tulisi kysyä vain turvallisia kysymyksiä siitä todennäköisyydestä, jonka ihmiset voivat laskea, kahdella mahdollisella vastauksella. Sinun on kysyttävä älykkään käyttöliittymän kautta, satunnaisessa järjestyksessä ja vasta sen jälkeen, kun asiantuntijat ovat vakuuttuneita kysymyksen turvallisuudesta. Tämä edustaa ehdotetun viestintäprotokollan rajoitettua saapuvaa kanavaa.

Rajattu lähtevä kuori koostuu binaarisista (0 tai 1) vastauksista, joita seuraa alkuperäiset modifioimattomat turvallisuuskysymykset, jotka esitetään satunnaisessa järjestyksessä älykkään välityspalvelinohjelman avulla estääkseen viestinnän luvattoman kanavan (ajan tai muistin) kautta, joka voidaan steganografia. Lähtöä ei tulisi koskaan ohjata AI-valinnalla valikkokohdan ulkopuolella. Kerros 3 käyttää samaa lähtevää protokollaa, mutta ei rajoita saapuvaa kanavaa. Tämä taso on yhtä turvallinen kuin neljäs AI: stä meille kulkevien tietojen kannalta, mutta täällä on mahdollista, että tietomme vuotavat AI: hen.

Uskomme, että viestintäprotokollamme - ja tämä voidaan tarkistaa - suojaa luotettavasti tietovuotoilta, vaikka AI tietäisi sen sisällön. Sovellettaessa tätä protokollaa oikein, ihmiskunta tulee olemaan erittäin hedelmällinen käyttämään superintelligenttisen oraakkelin palveluita, ja protokollamme rajoittama AI on paljon turvallisempaa kuin ilmainen, rajoittamaton. Yleinen nyrkkisääntö on: jos et halua tietoturvaongelmia, vältä viestintää UB4: n alapuolella.

Haluamme kiinnittää tiedeyhteisön huomion siihen, että fysiikan, tietotekniikan ja älykkyyden luonnetta koskevan jatkuvan kehityksen olosuhteissa on tarpeen jatkuvasti tarkentaa ja kehittää protokollaa AI: n vapauden rajoittamiseksi. Työskentely sen kanssa jatkuu aina eikä lopu koskaan. Tässä artikkelissa olemme antaneet tiukat määritelmät käsitteille "AI-rajoitusongelma", "paeta" ja "turvalliset kysymykset". Haluamme ehdottaa myös muutamia lisätermejä, jotka voivat olla hyödyllisiä POSITION-keskustelun tehostamiseksi. AI: n suljettua tilaa voidaan kutsua nimellä JAIL (Just for AI Location), ja itse älykästä AI: tä voidaan kutsua nimellä SING (Super Intelligent Gizmo - Superintelligent Gizmo). Termi "SING" viittaa sekä SINGulariteettiin että surullisen Sing Sing -vankilaan.joten se on helppo muistaa.

Lopuksi haluamme esittää visuaalisen symbolin laatikolle, joka sisältää vaarallisen tiedusteluohjelman (kuva 1, oikealla). Tällaiset symbolit voidaan sijoittaa erilaisten JAILien läheisyyteen varoittamaan varoituksesta. AI-laatikon merkki on suunniteltu analogisesti biologisen vaaran, säteilyn ja magneettikentän merkintöjen kanssa. Se koostuu kolmiossa suljetusta @ -merkistä, joka on tunnettu tietokone- ja tietotekniikkateollisuudessa. Tämä symboli, joka tarkoittaa "sijaitsee osoitteessa", on läsnä kaikilla näppäimistöillä, joten sen hyväksyminen on erittäin kustannustehokasta.

Kuvio: 1. Vasemmalta oikealle tapahtuvat vaaratunnukset: biologinen vaara, säteily, magneettikenttä ja AI-laatikko
Kuvio: 1. Vasemmalta oikealle tapahtuvat vaaratunnukset: biologinen vaara, säteily, magneettikenttä ja AI-laatikko

Kuvio: 1. Vasemmalta oikealle tapahtuvat vaaratunnukset: biologinen vaara, säteily, magneettikenttä ja AI-laatikko.

5. Päätelmät ja tuleva työ

Superintelligenssien koneiden pääsyn rajoittaminen todelliseen maailmaan on ratkaisu AI-turvallisuusongelmaan, joka ei ole mitenkään epätavallista. Superintelligenssi ei ole kaikkivoipa. Se on ohjelma, joka pystyy harkitsemaan kaikkia tietyn tilanteen tarjoamia valintoja ja antamaan jokaiselle oikean arvion. AI: n kannattaa asettaa tilanteeseen, jossa ei ole vaihtoehtoa tai se on rajoitettu vaihtoehtoihin, joilla on erittäin pienet menestysmahdollisuudet, ja superintelligenssi on agentti, jolla ei ole enemmän valtaa kuin millään muulla. Ilmeisesti AI, jolla on rajoittamaton viestintäkanava, voi helposti paeta, mutta superintelligenssin, joka pakotetaan kommunikoimaan suodatetun viestintäkanavan kautta, on tehtävä paljon työtä vapautuakseen.

Tässä artikkelissa olemme antaneet tarkan määritelmän AI: n vapauden rajoittamisen ongelmasta ja ehdottaneet sääntöjä, joiden tarkoituksena on luoda sellainen tila, josta AI: n olisi erittäin vaikea paeta tai ainakin viedä huomattavasti aikaa. Ehdotettu ratkaisumme ei ole täysin turvallinen, mutta se on merkittävä panos turvallisuusmenetelmien keräämiseen. Tässä se on aivan kuten oikeissa vankiloissa: vaikka paeta niistä on mahdollista, ne onnistuvat silti kunnioittamaan heille uskottua tehtävää pitämään ei-toivotut aiheet poissa yhteiskunnasta. Heti kun pidämme”tuntemattomia muukalaisia” mielessä ja muistamme absoluuttisen turvallisuuden saavuttamattomuuden, voimme ymmärtää, että AI-rajoitusprotokolla on juuri työkalu, jonka ihmiskunnan on käytettävä vastuullisesti Singulaarisuutta, kun se tulee todellisuuteen.

AI: n vapauden rajoittaminen voi tehdä hetkeksi helpommaksi todella älykkäiden koneiden turvallisen käytön, etenkin niiden kehitysvaiheissa. Lisäksi mielestämme tämä ainutlaatuisuustutkimuksen alakenttä on yksi tärkeimmistä kilpailijoista, jotka maailmanlaajuinen tiedeyhteisö tunnustaa, koska tietokone- ja verkkoturvallisuutta, steganografiaa, tietokoneviruksia, peiteltyjä viestintäkanavia, salausta ja kybersota koskevia tutkimuksia rahoitetaan hyvin. ja niitä julkaistaan laajalti hyvämaineisissa tieteellisissä lehdissä. Ja vaikka vapauden rajoittamismenetelmiä ei ole ollenkaan helppo panna täytäntöön, se voi varmistaa ihmiskunnan turvallisuuden jonkin aikaa, kunnes jokin parempi työkalu ilmestyy.

Tässä artikkelissa rajoitetun tilan vuoksi emme esittäneet monia asiaankuuluvia filosofisia kysymyksiä. Harkitsemme niitä lähitulevaisuudessa, ja nyt annamme vain lyhyen luettelon. Mikä AI kuuluu laatikkoon: ihmisten kehittämä tai poistettu signaalista, joka siepattiin "SETI" -projektin toteuttamisen aikana ("Etsi maan ulkopuolista älykkyyttä" - "Etsi maan ulkopuolista älykkyyttä")? Revitäänkö AI vapauteen vai pitäisikö se onnellisuutta elää suljetussa tilassa? Voitko pelottaa AI: ta vakavasti rangaistuksesta yrittämisestä juosta? Mitkä ovat eettisen säännöt viattoman, älykkään olennon vangitsemiselle? Onko meillä oikeus sammuttaa se, mikä on pohjimmiltaan murha? Voiko AI suuttua vihamielisyydestämme siihen ja vangitsemalla sen laatikkoon? Yrittääkö hän kostaajos hän juoksee pois? Lisäksi meidän tulisi pohtia ongelmaa, joka liittyy ihmisten riippuvuuteen AI-suosituksista kaikilla tieteen, talouden, lääketieteen, politiikan jne. Aloilla, ja myös siitä, kuinka tämä riippuvuus voi vaikuttaa kykyynmme pitää AI: n hallinnassa. Saako AI: lta tyytyväisyyttä saavuttamalla tavoitteensa suljetussa tilassa, esimerkiksi simuloimalla onnistunutta paeta? Kuinka rangaista AI: tä, jos se antaa tahallisesti vääriä vastauksia? Onko mahdollista erottaa AI: n älykkäät moduulit tilasta, jossa se vangitaan, estäen siten superintelligenssin itseanalyysiä ja ajamalla sitä kirjaimellisesti etsimään sielua? Viimeinkin, emme ole vielä edes yrittäneet analysoida taloudellisia ja laskennallisia kustannuksia sopivan suljetun tilan luomisesta, jossa toteutetaan maailmanlaajuinen simulointi. Meidän on pohdittava ihmisten riippuvuus AI-suosituksista kaikilla tieteen, talouden, lääketieteen, politiikan jne. aloilla ja miten tämä riippuvuus voi vaikuttaa kykyemme pitää AI: n hallinnassa. Saako AI: lta tyytyväisyyttä saavuttamalla tavoitteensa suljetussa tilassa, esimerkiksi simuloimalla onnistunutta paeta? Kuinka rangaista AI: tä, jos se antaa tahallisesti vääriä vastauksia? Onko mahdollista erottaa AI: n henkiset moduulit tilasta, jossa se vangitaan, estäen siten superintelligenssin itseanalyysiä ja ajamalla sitä kirjaimellisesti etsimään sielua? Viimeinkin, emme ole vielä edes yrittäneet analysoida taloudellisia ja laskennallisia kustannuksia sopivan suljetun tilan luomisesta, jossa toteutetaan maailmanlaajuinen simulointi. Meidän on pohdittava ihmisten riippuvuus AI-suosituksista kaikilla tieteen, talouden, lääketieteen, politiikan jne. aloilla ja miten tämä riippuvuus voi vaikuttaa kykyemme pitää AI: n hallinnassa. Saako AI: lta tyytyväisyyttä saavuttamalla tavoitteensa suljetussa tilassa, esimerkiksi simuloimalla onnistunutta paeta? Kuinka rangaista AI: tä, jos se antaa tahallisesti vääriä vastauksia? Onko mahdollista erottaa AI: n henkiset moduulit tilasta, jossa se vangitaan, estäen siten superintelligenssin itseanalyysiä ja ajamalla sitä kirjaimellisesti etsimään sielua? Viimeinkin, emme ole vielä edes yrittäneet analysoida taloudellisia ja laskennallisia kustannuksia sopivan suljetun tilan luomisesta, jossa toteutetaan maailmanlaajuinen simulointi.

Kirjoittaja: Roman Yampolsky. Käännös: Alexander Gorlov