Rocon Basiliski: Kaikkein Kauhistuttavin Ajatuskokemus Ikinä - Vaihtoehtoinen Näkymä

Rocon Basiliski: Kaikkein Kauhistuttavin Ajatuskokemus Ikinä - Vaihtoehtoinen Näkymä
Rocon Basiliski: Kaikkein Kauhistuttavin Ajatuskokemus Ikinä - Vaihtoehtoinen Näkymä

Video: Rocon Basiliski: Kaikkein Kauhistuttavin Ajatuskokemus Ikinä - Vaihtoehtoinen Näkymä

Video: Rocon Basiliski: Kaikkein Kauhistuttavin Ajatuskokemus Ikinä - Vaihtoehtoinen Näkymä
Video: Witcher 3: Minä vahingossa lvl 32 basilisk 2024, Saattaa
Anonim

Basilisk Roco on jumalamainen tekoälyn muoto, niin vaarallinen, että jos vain ajatellaan sitä, vietät loput päivät kauhistuttavassa kidutuksessa. Se näyttää kasetilta elokuvasta "The Ring". Jopa kuolema ei kuitenkaan ole vapautus, koska Basilisk Roko herättää sinut ja jatkaa kidutustaan. T&P esittelee käännöksen artikkelista yhdestä outoimmista legendeista, joita syntyy Internetissä.

VAROITUS: Luettuasi tämän artikkelin voit tuomita itsesi iankaikkiseen kärsimykseen ja kärsimykseen.

Rocon basiliski ilmestyi filosofisen ajattelukokeen ja kaupunkilegendan risteyksessä. Ensimmäinen maininta hänestä ilmestyi Less Wrong -keskustelupaneeliin, joka kokoaa yhteen ihmiset, jotka ovat kiinnostuneita ajattelun ja elämän optimoinnista matematiikan ja rationaalisuuden prisman kautta. Sen luojat ovat merkittäviä tekijöitä tekno-futurismissa, ja tutkimuslaitoksensa saavutusten joukossa on osallistunut akateemiseen keskusteluun teknologisesta etiikasta ja päätöksenteosta. Se, mitä aiot nyt lukea, voi kuitenkin vaikuttaa oudolta ja jopa hullualta. Siitä huolimatta erittäin vaikutusvaltaiset ja varakkaat tutkijat uskovat tähän.

Eräänä päivänä Roko-niminen käyttäjä lähetti seuraavan ajatuskokeen: Entä jos tulevaisuudessa ilmaantuu haittaohjelma, joka haluaa rangaista niitä, jotka eivät noudata sen määräyksiä? Entä jos hän haluaa rangaista niitä ihmisiä, jotka aikaisemmin eivät osallistuneet hänen luomiseensa? Auttaisivatko vähemmättömät lukijat sitten pahan AI: n syntymistä, vai olisiko he tuomittu iankaikkiseen kidutukseen?

Vähemmän väärä perustaja Eliezer Yudkowski otti Rokon lausunnon vihaisena. Tämän hän vastasi hänelle:”Sinun on oltava fiksu, jos tulit tähän ajatukseen. Se on kuitenkin surullinen, että ihmiset, jotka ovat riittävän älykkäitä kuvitellaksesi tämän, eivät ole tarpeeksi älykkäitä pitämään heidät äkillisinä kielensä äläkä kertoa siitä kenellekään, koska se on tärkeämpää kuin näyttää älykkäästi, kertoa kaikille ystävillesi” …

"Entä jos tulevaisuudessa on tekoäly, joka haluaa rangaista niitä, jotka eivät noudata sen määräyksiä?"

Yudkowski myönsi, että Rocko oli syyllinen Less Wrong-käyttäjien painajaisiin, jotka olivat lukeneet säiettä ja poistaneet sen, joten Rockon basiliski oli legendaarinen. Tästä ajattelukokeesta tuli niin vaarallinen, että sen ajattelu uhkasi käyttäjän mielenterveyttä.

Mitä vähemmän väärä tekee? Ihmiskunnan tulevaisuuden käsitteen muodostaminen singulaarisuuden perusteella. He uskovat, että laskentateho kasvaa tulevaisuudessa niin suureksi, että tekoäly voidaan luoda tietokoneen avulla - ja sen avulla kyky ladata ihmisen tietoisuus kiintolevylle. Termi "singulaarisuus" sai alkunsa vuonna 1958 kahden matematiikan geenin - Stanislav Ulamin ja John von Neumannin välisessä keskustelussa -, kun Neumann sanoi: "Teknologian jatkuvasti kiihtyvä kehitys mahdollistaa lähestymistavan sellaisen ainutlaatuisuuden, jossa tekniikka ei ole ihmisten ymmärrettävissä." Futuristit ja tieteiskirjailijat, kuten Vernor Vinge ja Raymond Kurzweil, popularisoivat termiä, koska he uskoivat, että singulaarisuus odottaa meitä kaikkia pian - seuraavan 50 vuoden aikana. Kun Kurzweil valmistautuu singulaarisuuteenYudkowskilla on suuria toiveita kryoniikan suhteen: "Jos et rekisteröinyt lapsiasi kylmäsäilytykseen etukäteen, olet surkea vanhempi."

Mainosvideo:

Jos uskot, että ainutlaatuisuus on tulossa ja että voimakkaita AI: itä ilmestyy lähitulevaisuudessa, herää luonnollinen kysymys: ovatko ne ystävällisiä vai pahoja? Yudkowski-säätiö pyrkii ohjaamaan tekniikan kehitystä siten, että meillä on tarkalleen ystävällinen tekoäly. Tämä kysymys on ensiarvoisen tärkeä hänelle ja monille muille. Singulaarisuus johtaa meidät jumalaa vastaavaan koneeseen.

Tämä ei kuitenkaan selitä miksi Rocon basiliski näyttää niin kauhealta näiden ihmisten silmissä. Kysymys vaatii Less Wrongin tärkeimmän "dogman" - "Ajattoman päätöksenteon" (HTDM) tarkastelua. VPPR on opas rationaaliseen toimintaan, joka perustuu peliteoriaan, Bayesin todennäköisyyteen ja päätöksenteoriaan, mutta joissa otetaan huomioon rinnakkaisuniversumit ja kvanttimekaniikka. VTPR kasvoi klassisesta ajatuskokeesta, Newcomb Paradoxista, jossa superintelligenttinen ulkomaalainen tarjoaa sinulle kaksi laatikkoa. Hän antaa sinulle valinnan: joko ota molemmat laatikot tai vain laatikko B. Jos valitset molemmat, saat taatusti tuhannen dollarin. Jos otat vain laatikon B, et ehkä saa mitään. Muukalaisella on kuitenkin vielä yksi temppu varastossa: hänellä on kaiken tietävä supertietokone, joka teki ennusteen viikko sitten,otatko molemmat laatikot vai vain B. Jos tietokone ennustaa, että otat molemmat laatikot, ulkomaalainen jättää toisen tyhjäksi. Jos tietokone ennustaisi, että valitset laatikon B, se laittaisi miljoona dollaria sinne.

Mitä aiot tehdä? Muista, että supertietokone on kaiken tietoinen.

Tämä ongelma on sekoittanut monia tutkijoita. Ulkomaalainen ei voi enää muuttaa laatikoiden sisältöä. Turvallisin tapa on ottaa molemmat laatikot ja hankkia tuhat. Mutta entä jos tietokone on todella kaiken tietoinen? Sitten sinun tarvitsee vain ottaa laatikko B saadaksesi miljoona. Mutta jos hän osoittautuu vääräksi? Ja mitä tietokone ennustaa, eikö oikeasti ole mitään tapaa muuttaa kohtaloasi? Sitten, hitto, sinun on otettava molemmat laatikot. Mutta siinä tapauksessa …

Pahalla paradoksilla, joka pakottaa meidät valitsemaan vapaan tahdon ja jumalallisen ennusteen välillä, ei ole ratkaisua, ja ihmiset voivat vain olata olkapäätään ja valita heille miellyttävän vaihtoehdon. WTPR antaa neuvoja: ota laatikko B. Vaikka ulkomaalainen päätti nauraa sinulle ja avaa tyhjä laatikko sanoilla: "Tietokone ennustaa, että otat molemmat laatikot, ha ha!" - sinun on vielä valittava se. Perustelut ovat seuraavat: Ennusteen tekemiseksi tietokoneen oli simuloitava koko maailmankaikkeutta, sinut mukaan lukien. Niinpä tällä hetkellä laatikoiden edessä seisoen voit olla vain tietokoneen simulointi, mutta tekemäsi vaikuttaa todellisuuteen (tai todellisuuteen). Joten ota laatikko B ja hanki miljoona.

"Hulluttavalla paradoksilla, joka pakottaa meidät valitsemaan vapaan tahdon ja jumalallisen ennusteen välillä, ei ole ratkaisua."

Mitä tekemistä tällä on Basilisk Rocon kanssa? No, hänellä on pari laatikkoa myös sinulle. Ehkä olet juuri nyt Basiliskin luomassa simulaatiossa. Sitten ehkä saamme hieman muutetun version Newcomen paradoksista: Rocon basiliski kertoo sinulle, että jos otat laatikon B, kärsit ikuisesta kärsimyksestä. Jos otat molemmat laatikot, sinun on pakotettava omistamaan elämäsi basiliskin luomiseen. Jos basiliski todella on (tai mikä pahempaa, se on jo olemassa ja on tämän todellisuuden jumala), hän huomaa, että et ole valinnut vaihtoehtoa auttaa sen luomisessa ja rankaisee sinua.

Saatat ihmetellä, miksi tämä kysymys on niin tärkeä vähemmälle väärälle, ottaen huomioon tämän ajatuskokeen yleissopimus. Ei ole totta, että Rockon basiliski luodaan koskaan. Yudkowski poisti kuitenkin viittaukset Rokon basiliskiin ei siksi, että hän uskoo sen olemassaoloon tai välittömään keksintöön, vaan koska hän pitää ajatusta basiliskista vaaralliseksi ihmiskunnalle.

Sinänsä Rockon basiliski on vaarallinen vain niille, jotka uskovat siihen - seurauksena Basilisk-ajatusta tukevilla Less Wrong -jäsenillä on eräänlainen kielletty tieto, joka muistuttaa meitä Lovecraftin pelottavista tarinoista Cthulhusta tai Necronomiconista. Rocon basiliski ei kuitenkaan uhkaa sinulle, ellet ole sitoutunut kaikkiin näihin teorioihin ja tuntea kiusausta noudattaa tulevaisuuden salaperäistä konetta.

Olen enemmän huolissani ihmisistä, joiden mielestä ne ovat nousseet perinteisten moraalisten normien yläpuolelle. Kuten Yudkowskin odotettavissa oleva ystävällinen AI, hän on itsekin utilitaristi: hän uskoo, että koko ihmiskunnan suurin hyöty on eettisesti perusteltu, vaikka useiden ihmisten on kuoleva tai kärsittävä matkalla siihen. Kaikilla ei ole mahdollisuutta kohdata tällaista valintaa, mutta asia on erilainen: entä jos toimittaja kirjoittaa ajattelukokeesta, joka voi tuhota ihmisten tietoisuuden, vahingoittaa siten ihmiskuntaa ja estää keinoälyn ja singulaarisuuden kehitystä? Tällöin kaiken hyvän, jonka olen elämässäni tehnyt, on oltava suurempi kuin haitta, jonka olen tehnyt maailmalle. Tai ehkä tulevaisuuden Yudkowski, joka nousi kryogeenisesta unesta, sulautui singulaarisuuteen ja päätti simuloida minua seuraavassa tilanteessa:ensimmäinen laatikko - kirjoitan tämän artikkelin, toinen - ei. Ole hyvä, Kaikkivaltias Yudkowski, älä satuta minua.