Kuoleman Välttämiseksi Ihmiskunnan On Lukittava Tekoäly - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Kuoleman Välttämiseksi Ihmiskunnan On Lukittava Tekoäly - Vaihtoehtoinen Näkymä
Kuoleman Välttämiseksi Ihmiskunnan On Lukittava Tekoäly - Vaihtoehtoinen Näkymä

Video: Kuoleman Välttämiseksi Ihmiskunnan On Lukittava Tekoäly - Vaihtoehtoinen Näkymä

Video: Kuoleman Välttämiseksi Ihmiskunnan On Lukittava Tekoäly - Vaihtoehtoinen Näkymä
Video: FabricAI tekoälykoulutus: Luku 1 Osa 2 - Mitkä ovat tekoälyn vahvuudet? 2024, Huhtikuu
Anonim

Ihmiskunnan olemassaoloa uhkaavat erittäin älykkäät tietokoneet tai robotit ovat tieteiskirjallisuuden suosikki juoni. Todellisuudessa tutkijoiden mukaan tällainen tuomiopäivän skenaario voidaan estää vain luomalla virtuaalinen "vankila" tekoälyn sisältämistä varten. Ja tämä on tehtävä ennen kuin hän oppii olemaan tietoinen itsestään ja parantamaan itseään.

Jos annat tämän hengen ulos pullosta, niin ongelmistamme ratkaisevasta oraakkelista se voi muuttua apokalyptiseksi uhkiksi, sanoo Kentuckyn Louisvillen yliopiston tutkija Roman Yampolsky, joka työskentelee tietotekniikan alalla. Ympäristö, johon AI sisältyy, on suunniteltava huolellisesti, jotta se ei pääse eroon uhkien, lahjonnan, kiusauksen tai tietokoneiden hakkeroinnin kautta.

"Hän voi keksiä monia tapoja vaikuttaa, kamputtaa monimutkaista yhteiskunnallis-teknistä yhdistelmää ja käyttää olemassa olevia laitteistokomponentteja sellaisiin tarkoituksiin, joita emme voi edes kuvitella", Yampolsky uskoo. - Tällaisella ohjelmistolla on rajattomat mahdollisuudet tartuttaa tietokoneita ja verkkoja. AI voi löytää tapoja vaikuttaa ihmisen psyykiin, lahjua tai kiristää ihmisiä, jotka ovat sen kanssa yhteydessä."

Uuden tieteellisen tutkimuksen alueen syntyminen, joka käsittelee tekoälyn "vankilan" perustamista, on lisäetuja. Nämä tutkimukset ovat erittäin hyödyllisiä tietoturvan ja salauksen parantamisessa, Yampolsky on varma. Hänen ehdotuksensa esitettiin yksityiskohtaisesti Journal of Consciousness Studies -lehden maaliskuun numerossa.

Skypen ansaan asettaminen

Ensinnäkin, voit sulkea tekoälyn "virtuaalikoneeseen". Anna sen toimia normaalin käyttöjärjestelmän sisällä - AI-pääsyn rajoittaminen isäntätietokoneen ohjelmistoihin ja laitteistoihin tekee siitä paljon vaarattoman. Joka tapauksessa älykäs AI ei voi lähettää salaisia viestejä ihmisten tukijoilleen lyömällä Morse-koodia jäähdytystuulettimilla.

Keinotekoisen älykkyyden asettaminen tietokoneeseen ilman Internet-yhteyttä on hyvä tapa torjua AI: n salaperäisiä suunnitelmia suojella maata sinulta ja minulta. Muiden vikojen sattuessa tutkijat voivat aina hidastaa AI-ajatusprosessia hidastamalla tietokoneen käsittelynopeutta, painamalla säännöllisesti "nollaus" -painiketta tai irrottamalla AI: n virtalähteestä.

Mainosvideo:

Nämä turvatoimenpiteet on suunniteltu käsittelemään erittäin älykkäitä ja vaarallisia tietokoneviruksia, mutta kenen tahansa arvaus on, kuinka tehokkaita ne ovat.

Catch-22 (romaani amerikkalainen kirjailija J. Heller; suunnilleen Mixednews) on, että emme voi suorittaa ideoidemme täysimittaista testausta ennen kuin AI: n kehitys on valmis. Mutta jotta AI olisi turvallinen, on tarpeen kehittää joukko sopivia toimenpiteitä, Yampolsky sanoo. "Paras vaihtoehto on asettaa rajoituksia AI-järjestelmien käyttöön ja muuttaa tarvittaessa näitä rajoituksia AI: n kasvavien ominaisuuksien mukaisesti."

Image
Image

Tutkija Roman Yampolsky ehdotti "@" -merkin käyttämistä tai muita merkkejä, joita käytetään nykyään säteily- tai biologisen uhan kuvaamiseksi keinoälyn aiheuttaman vaaran osoittamiseksi.

Älä koskaan laita ihmisen vartijaa ajoneuvoon

Näennäisesti viattoman keskustelun aikana vartijan kanssa mikään ei estä AI: tä käyttämästä psykologisia tekniikoita, kuten ystävyyttä tai kiristystä. Henkilö voidaan lahjua luvaamalla hänelle täydellisen terveyden, kuolemattomuuden tai jopa lupauksen palauttaa sukulaisia ja ystäviä toisesta maailmasta. Tai saavuta mitään uhkilla.

Turvallisin tapa kommunikoida AI: n kanssa on saada se ratkaisemaan tietty tieteellinen tai tekninen ongelma monista käytettävissä olevista vaihtoehdoista, Yampolsky selittää. Tämä auttaa pitämään superälykkään oraakkelin lyhyellä hihnalla.

Monet tutkijat uskovat, että kaikista varotoimenpiteistä huolimatta älykkään AI: n pitäminen lukitussa tilassa ei koskaan onnistu. Singulaarisuusinstituutin tutkijan Eliezer Yudkowskyn viimeisin kokeilu keinotekoisen älykkyyden luomiseksi osoitti, että jopa ihmisen tason älykkyys voi pettää ihmistä ja "paeta" vankeudesta.

Siitä huolimatta Yampolsky vaatii pitämään AI: n tiukasti erillään - se on silti parempi kuin luopua ja antaa sille täydellinen vapaus. Mutta jos AI: n kehitys saavuttaa pisteen, jossa se voi manipuloida ihmistä alitajuntaan (ennustaa tulevaisuutta), telepatiaa tai telekinesiaa käyttävällä henkilöllä, seuraukset ovat arvaamattomia.

"Jos tällainen AI paranee itsestään ja saavuttaa tason, joka ylittää huomattavasti ihmisten älykkyyden mahdollisuudet, seurauksia ei voida edes kuvitella", Yampolsky varoittaa.