Tekoäly. Toinen Osa: Sukupuutto Tai Kuolemattomuus? - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Tekoäly. Toinen Osa: Sukupuutto Tai Kuolemattomuus? - Vaihtoehtoinen Näkymä
Tekoäly. Toinen Osa: Sukupuutto Tai Kuolemattomuus? - Vaihtoehtoinen Näkymä

Video: Tekoäly. Toinen Osa: Sukupuutto Tai Kuolemattomuus? - Vaihtoehtoinen Näkymä

Video: Tekoäly. Toinen Osa: Sukupuutto Tai Kuolemattomuus? - Vaihtoehtoinen Näkymä
Video: FabricAI tekoälykoulutus: Luku 2 Osa 2 - Millaisiin tehtäviin tekoäly soveltuu? 2024, Syyskuu
Anonim

Ennen kuin olet artikkelin toinen osa sarjasta "Odota, kuinka tämä kaikki voi olla totta, miksi siitä ei vieläkään puhuta joka puolella". Edellisessä sarjassa tiedettiin, että älykkyyden räjähdys hiipii vähitellen kohti maapallon ihmisiä, se yrittää kehittyä kapeasti keskittyneestä universaaliin älykkyyteen ja lopulta keinotekoiseen superintelligenssiin.

"Ehkä meillä on edessään erittäin vaikea ongelma, eikä tiedetä, kuinka paljon aikaa on varattu sen ratkaisemiseen, mutta ihmiskunnan tulevaisuus voi riippua sen ratkaisusta." - Nick Bostrom.

Artikkelin ensimmäinen osa alkoi riittävän viattomasti. Keskustelimme kapeasti fokusoidusta tekoälystä (AI, joka on erikoistunut tietyn ongelman ratkaisemiseen, kuten reittien määrittämiseen tai shakin pelaamiseen), maailmassa on sitä paljon. Sitten he analysoivat, miksi yleisen suunnatun tekoälyn kasvattaminen on niin vaikeaa (AGI tai AI, jota älyllisten kykyjen suhteen voidaan verrata ihmiseen minkä tahansa ongelman ratkaisemisessa), on niin vaikeaa. Päätelimme, että teknologisen kehityksen eksponentiaalinen vauhti viittaa siihen, että AGI saattaa olla kulman takana melko pian. Lopulta päätimme, että heti kun koneet saavuttavat ihmisen älykkyyden, voi tapahtua seuraava:

Image
Image
Image
Image
Image
Image
Image
Image

Kuten tavallista, katsomme näyttöä, uskomatta, että keinotekoinen superintelligenssi (ISI, joka on paljon älykkäämpi kuin kukaan ihminen) voi ilmetä elämämme aikana, ja valitsemalla tunteita, jotka parhaiten heijastavat mielipiteemme tästä aiheesta.

Mainosvideo:

Ennen kuin sukellamme ISI: n erityispiirteisiin, muistakaamme itsellemme, mitä koneelle tarkoittaa olevan älykäs.

Suurin ero on nopean superintelligenssin ja laadukkaan superintelligenssin välillä. Usein ensimmäinen asia, joka mielessä tulee mielessäsi älykkäästä tietokoneesta, on se, että se pystyy ajattelemaan paljon nopeammin kuin ihminen - miljoonia kertoja nopeammin, ja viidessä minuutissa se ymmärtää, mitä henkilö olisi ottanut kymmenen vuotta. ("Tiedän kung fu!")

Se kuulostaa vaikuttavalta, ja ISI: n pitäisi todella ajatella nopeammin kuin mikään ihminen - mutta tärkein erottava piirre on hänen älynsä laatu, mikä on aivan toinen. Ihmiset ovat paljon älykkäämpiä kuin apinat, eivät siksi, että he ajattelevat nopeammin, vaan koska heidän aivonsa sisältävät joukon nerokkaita kognitiivisia moduuleja, jotka suorittavat monimutkaisia kielellisiä esityksiä, pitkän aikavälin suunnittelua, abstraktia ajattelua, mihin apinat eivät pysty. Jos kiihdytät apinan aivojen tuhat kertaa, siitä ei tule meitä älykkäämpiä - jopa kymmenen vuoden kuluttua se ei pysty koota ohjeiden mukaisesti rakennettua rakennussarjaa, joka vie ihmisen korkeintaan pari tuntia. On asioita, joita apina ei koskaan oppi, riippumatta siitä kuinka monta tuntia se viettää tai kuinka nopeasti aivot toimivat.

Apina ei tiedä kuinka inhimillisesti, koska sen aivot eivät yksinkertaisesti kykene ymmärtämään muiden maailmojen olemassaoloa - apina voi tietää, mikä ihminen on ja mikä on pilvenpiirtäjä, mutta ei koskaan ymmärrä, että ihmiset ovat rakentaneet pilvenpiirtäjän. Hänen maailmassaan kaikki kuuluu luontoon, ja makaki ei vain pysty rakentamaan pilvenpiirtäjää, vaan myös ymmärtää, että kuka tahansa voi rakentaa sen. Ja tämä on seurausta älykkyyden laadun pienestä erosta.

Älykkyyden yleisessä järjestelmässä, josta puhumme, tai yksinkertaisesti biologisten olentojen standardien mukaan, ero älykkyyden laadussa ihmisten ja apinoiden välillä on pieni. Edellisessä artikkelissa asetimme biologiset kognitiiviset kyvyt tikkaille:

Image
Image

Aseta se kahden loven korkeammaksi kuin tikkaat, jotta ymmärrät kuinka älykäs kone on vakava. Tämä kone voi olla vain vähän älykäs, mutta sen paremmuus kognitiivisiin kykyihimme nähden on sama kuin meidän - apinoihin nähden. Ja aivan kuten simpanssi ei koskaan ymmärrä, että pilvenpiirtäjä voidaan rakentaa, emme voi koskaan ymmärtää, mitä kone pari askelta korkeammalle ymmärtää, vaikka kone yrittäisi selittää sen meille. Mutta tämä on vain pari vaihetta. Älykkäämpi kone näkee meissä muurahaisia - se opettaa meille yksinkertaisimpia asioita asemastaan vuosien ajan, ja nämä yritykset ovat täysin toivottomia.

Tyyppi superintelligenssista, josta tänään puhutaan, on kaukana tämän tikkaat. Tämä on älykkyyden räjähdys - mitä älykkäämmäksi autosta tulee, sitä nopeammin se voi lisätä omaa älykkyyttänsä lisäämällä asteittain vauhtia. Voi kestää vuosia, kun tällainen kone ylittää älykkyydessä olevat simpanssit, mutta ehkä pari tuntia ylittää meidät parilla askella. Tästä hetkestä lähtien auto voi hypätä jo yli neljä askelta sekunnissa. Siksi meidän pitäisi ymmärtää, että pian sen jälkeen kun ensimmäiset uutiset koneen saavuttamisesta inhimillisen älykkyyden tasolle ilmestyvät, saatamme kohdata todellisuuden rinnakkaiselosta Maan päällä jotain, joka on paljon korkeampi kuin meillä tällä tikkaalla (tai ehkä, ja miljoonia kertoja korkeampi):

Image
Image

Ja koska olemme todenneet, että on täysin hyödytöntä yrittää ymmärtää koneen voimaa, joka on vain kaksi askelta yläpuolella, määrittelemme lopullisesti, että ei ole mitään keinoa ymmärtää, mitä ISI tekee ja millaisia tämän seurauksia on meille. Jokainen, joka väittää päinvastaista, ei yksinkertaisesti ymmärrä mitä superintelligenssi tarkoittaa.

Evoluutio on kehittänyt biologista aivoa hitaasti ja vähitellen satojen miljoonien vuosien aikana, ja jos ihmiset luovat älykkään koneen, tietyssä mielessä ylitämme evoluution. Tai se on osa evoluutiota - ehkä evoluutio toimii siten, että älykkyys kehittyy vähitellen, kunnes se saavuttaa käännekohdan, joka julistaa uuden tulevaisuuden kaikille eläville olennoille:

Image
Image

Syistä, joista keskustelemme myöhemmin, valtava osa tiedeyhteisöä uskoo, että kysymys ei ole siitä, pääsemmekö tähän tippauspisteeseen, vaan milloin.

Mihin päädymme tämän jälkeen?

Mielestäni kukaan tässä maailmassa, ei minä eikä sinä, eivät voi sanoa, mitä tapahtuu, kun saavutamme kärkipaikkaan. Oxfordin filosofi ja johtava AI-teoreetikko Nick Bostrom uskoo, että voimme keittää kaikki mahdolliset tulokset kahteen laajaan luokkaan.

Ensinnäkin, katsomalla historiaa, tiedämme elämästä seuraavan: lajit ilmestyvät, ovat olemassa tietyn ajan, ja sitten väistämättä pudota elämän tasapainosta ja kuolevat.

Image
Image

"Kaikki lajit kuolevat" on ollut historiassa yhtä luotettava sääntö kuin "kaikki ihmiset kuolevat jonain päivänä". 99,9% lajeista on pudonnut elämärekisteristä, ja on aivan selvää, että jos laji pysyy tällä lokilla liian pitkään, luonnollisen tuulen puuska tai äkillinen asteroidi kääntää tukin. Bostrom kutsuu sukupuuttoon vetovoiman tilaa - paikkaa, jossa kaikki lajit tasapainottavat, jotta ne eivät pudota mihinkään lajiin ole palannut.

Ja vaikka useimmat tutkijat myöntävät, että ISI kykenee tuomitsemaan ihmiset sukupuuttoon sukupuuttoon, monet uskovat myös, että ISI: n ominaisuuksien käyttö antaa yksilöille (ja lajeille kokonaisuutena) saavuttaa vetovoiman toisen tilan - lajien kuolemattomuuden. Bostrom uskoo, että lajin kuolemattomuus on yhtä kiinnostava tekijä kuin lajin sukupuutto sukupuuttoon, ts. Jos päästämme tähän, meillä on tuomio iankaikkiseen olemassaoloon. Näin ollen, vaikka kaikki lajit kuuluivat tähän päivään saakka tältä sauvalta sukupuuttoon, Bostrom uskoo, että tukilla on kaksi puolta, ja maan päällä ei yksinkertaisesti esiintynyt sellaista älykkyyttä, joka ymmärtäisi kuinka pudota toiselle puolelle.

Image
Image

Jos Bostrom ja muut ovat oikeassa ja päättäessään kaikista käytettävissä olevista tiedoista, he saattavat hyvinkin olla niin, meidän on hyväksyttävä kaksi erittäin järkyttävää tosiasiaa:

1. ISI: n esiintyminen ensimmäistä kertaa historiassa antaa lajeille mahdollisuuden saavuttaa kuolemattomuus ja poistua kohtalokkaasta sukupuuttoon.

2. ISI: n esiintymisellä on niin uskomattoman suuri vaikutus, että todennäköisesti se työntää ihmiskunnan pois tästä keilasta toiseen tai toiseen suuntaan.

On mahdollista, että kun evoluutio saavuttaa tällaisen kärkipisteen, se lopettaa aina inhimilliset suhteet elämän virran kanssa ja luo uuden maailman, ihmisten kanssa tai ilman.

Tämä herättää mielenkiintoisen kysymyksen, jota vain räjäyttäjä ei kysyisi: Milloin päästämme tähän tippauspisteeseen ja mihin se asettaa meidät? Kukaan maailmassa ei tiedä vastausta tähän kaksoiskysymykseen, mutta monet älykkäät ihmiset ovat yrittäneet selvittää sen vuosikymmenien ajan. Loput artikkelista selvitetään, mistä ne ovat kotoisin.

* * *

Aloitetaan tämän kysymyksen ensimmäisestä osasta: milloin meidän pitäisi saavuttaa kärkipiste? Toisin sanoen: kuinka paljon aikaa on jäljellä, kunnes ensimmäinen kone saavuttaa superintelligenssin?

Mielipiteet vaihtelevat tapauskohtaisesti. Monet, mukaan lukien professori Vernor Vinge, tutkija Ben Herzel, Sun Microsystemsin perustaja Bill Joy, futuristi Ray Kurzweil, olivat yhtä mieltä koneoppimisasiantuntijan Jeremy Howardin kanssa, kun hän esitteli seuraavan kaavion TED Talkissa:

Image
Image

Nämä ihmiset ovat yhtä mieltä siitä, että ISI on tulossa pian - tämä eksponentiaalinen kasvu, joka näyttää meille tänään hitaalta, räjähtää kirjaimellisesti muutaman seuraavan vuosikymmenen aikana.

Toiset, kuten Microsoftin perustaja Paul Allen, tutkimuspsykologi Gary Marcus, tietokoneasiantuntija Ernest Davis ja tekniikkayrittäjä Mitch Kapor, uskovat, että Kurzweilin kaltaiset ajattelijat aliarvioivat ongelman laajuuden ja ajattelevat, että emme ole läheskään niin lähellä kärkipaikkaa.

Kurzweilin leiri väittää, että ainoa esiintyvä aliarviointi on eksponentiaalisen kasvun jättäminen huomiotta. Epäilyttäjiä voidaan verrata niihin, jotka katsoivat hitaasti kukoistavaa Internetiä vuonna 1985 ja väittivät, että sillä ei olisi vaikutusta maailmaan lähitulevaisuudessa.

Epäilyttäjät saattavat torjua sen, että edistymisen on vaikeampaa ottaa jokainen seuraava vaihe, kun kyse on älykkyyden eksponentiaalisesta kehityksestä, mikä neutraloi tekniikan kehityksen tyypillistä eksponentiaalista luonnetta. Jne.

Kolmas leiri, jossa Nick Bostrom on, on eri mieltä joko ensimmäisestä tai toisesta ja väittää, että a) tämä kaikki voi tapahtua ehdottomasti lähitulevaisuudessa; ja b) ei ole takeita siitä, että tämä tapahtuu lainkaan tai että se vie kauemmin.

Toiset, kuten filosofi Hubert Dreyfus, uskovat, että kaikki kolme ryhmää uskovat naiivisesti siihen, että siellä tapahtuu käännekohta ja että emme todennäköisesti koskaan pääse ISI: hen.

Mitä tapahtuu, kun laitamme kaikki nämä mielipiteet yhteen?

Vuonna 2013 Bostrom toteutti kyselyn, jossa hän haastatteli satoja tekoälyn asiantuntijoita konferenssisarjan aikana seuraavasta aiheesta: "Mitkä ovat sinun ennusteesi saavuttaa AGI ihmisen tasolla?" ja pyysi meitä nimeämään optimistisen vuoden (jolloin meillä on AGI: llä 10 prosentin mahdollisuus), realistisen oletuksen (vuosi, jolloin meillä on AGI: n todennäköisyys 50 prosenttia) ja varman arvauksen (aikaisin vuosi, jolloin AGI ilmestyy vuodesta 90 -prosentin todennäköisyys). Tässä ovat tulokset:

- Keskimääräinen optimistinen vuosi (10%): 2022

- Keskimääräinen realistinen vuosi (50%): 2040

- Keskimääräinen pessimistinen vuosi (90%): 2075

Keskimääräiset vastaajat uskovat, että 25 vuodessa meillä on pikemminkin AGI kuin ei. 90 prosentin todennäköisyys AGI: stä tapahtuu vuoteen 2075 mennessä tarkoittaen, että jos olet vielä melko nuori nyt, niin todennäköisesti tapahtuu elämäsi aikana.

James Barratt (arvostetun ja erittäin hyvän kirjan Our Latest Invention, laatijat, joista otin huomioni Hi-News.ru-lukijoiden huomion) ja Ben Hertzelin äskettäin suorittama tutkimus AGI-konferenssissa, joka on vuotuinen AGI-konferenssi, osoitti yksinkertaisesti ihmisten mielipiteitä. suhteessa vuoteen päästämme AGI: hen 2030, 2050, 2100, myöhemmin tai ei koskaan. Tässä ovat tulokset:

- Vuoteen 2030 mennessä: 42% vastaajista

- vuoteen 2050 mennessä: 25%

- vuoteen 2100 mennessä: 20%

- Vuoden 2100 jälkeen: 10%

- Ei koskaan: 2%

Samanlainen Bostromin tuloksiin. Barratt'n kyselyssä yli kaksi kolmasosaa kyselyyn osallistuneista uskoo AGI: n olevan täällä vuoteen 2050 mennessä, ja alle puolet uskoi AGI: n ilmestyvän seuraavan 15 vuoden aikana. On myös hämmästyttävää, että periaatteessa vain 2% vastaajista ei näe AGI: tä tulevaisuudessa.

Mutta AGI ei ole tippauskohta kuten ISI. Milloin meillä on asiantuntijoiden mukaan ISI?

Bostrom kysyi asiantuntijoilta, milloin saavutamme ASI: n: a) kahden vuoden kuluttua AGI: n saavuttamisesta (ts. Melkein heti tiedustelun räjähdyksen vuoksi); b) 30 vuoden kuluttua. Tulokset?

Keskimääräinen mielipide on, että nopea siirtyminen AGI: stä ISI: hen tapahtuu 10%: n todennäköisyydellä, mutta enintään 30 vuodessa tapahtuu 75%: n todennäköisyydellä.

Näistä tiedoista emme tiedä, mihin päivämäärään vastaajat kutsuvat 50 prosentin mahdollisuutta ASI: stä, mutta kahden vastauksen perusteella oletetaan, että se on 20 vuotta. Toisin sanoen maailman johtavat AI-asiantuntijat uskovat käännekohdan tulevan vuonna 2060 (AGI ilmestyy vuonna 2040 + siirtymistä AGI: sta ISI: hen kestää 20 vuotta).

Image
Image

Kaikki edellä mainitut tilastot ovat tietysti spekulatiivisia ja edustavat vain tekoälyn alan asiantuntijoiden mielipiteitä, mutta ne osoittavat myös, että suurin osa kiinnostuneista on yhtä mieltä siitä, että vuoteen 2060 mennessä AI on todennäköisesti saapumassa. Vain 45 vuodessa.

Siirrymme seuraavaan kysymykseen. Kumman kohtalokkaan valinnan puolet määrittää meidät, kun pääsemme tippauspisteeseen?

Superintelligenssillä on tehokkain voima, ja meille kriittinen kysymys on seuraava:

Kuka tai mikä hallitsee tätä valtaa ja mikä on heidän motivaationsa?

Vastaus tähän kysymykseen riippuu siitä, saako ISI uskomattoman voimakkaan kehityksen, mittaamattoman kauhistuttavan kehityksen vai onko jotain niiden välillä.

Tietenkin asiantuntijayhteisö yrittää vastata myös näihin kysymyksiin. Bostromin kyselyssä analysoitiin AGI: n ihmisiin kohdistuvien vaikutusten mahdollisten seurausten todennäköisyyttä, ja kävi ilmi, että 52 prosentin todennäköisyydellä kaikki menee hyvin ja 31 prosentin todennäköisyydellä kaikki menee joko pahasti tai erittäin huonosti. Aiheen edellisen osan loppuun liitetty kysely, joka tehtiin teidän keskuudessanne, rakkaat Hi-Newsin lukijat, osoitti suunnilleen samat tulokset. Suhteellisen neutraalilla tuloksella todennäköisyys oli vain 17%. Toisin sanoen uskomme kaikki, että AGI on iso juttu. On myös syytä huomata, että tämä tutkimus koskee AGI: n syntymistä - ISI: n tapauksessa puolueettomuuden prosenttiosuus on alhaisempi.

Yhdistämmekö kysymyksen molemmat puolet ennen kuin syventämme kysymyksen hyvien ja huonojen puolien ajattelua - "milloin tämä tapahtuu?" ja "onko tämä hyvä vai huono?" taulukkoon, joka kattaa useimpien asiantuntijoiden näkemykset.

Image
Image

Puhumme pääleiristä minuutissa, mutta päätä ensin kanssasi. Todennäköisesti olet samassa paikassa, jossa olin ennen kuin aloin työskennellä tästä aiheesta. On monia syitä, miksi ihmiset eivät ajattele tätä aihetta ollenkaan:

- Kuten ensimmäisessä osassa mainittiin, elokuvat sekoittivat vakavasti ihmiset ja tosiasiat esittäen epärealistisia skenaarioita tekoälyn kanssa, mikä johti siihen, että meidän ei pidä ottaa AI: tä lainkaan vakavasti. James Barratt vertasi tätä tilannetta sairauksien torjuntakeskuksen (CDC) antamaan vakavaan varoitukseen tulevaisuuden vampyyreista.

- Niin kutsuttujen kognitiivisten ennakkoluulojen takia meillä on erittäin vaikea uskoa jotain todellisuutta, kunnes meillä on todisteita. Voidaan varmasti kuvitella, että vuoden 1988 tietokonetieteilijät keskustelivat säännöllisesti Internetin kauaskantoisista seurauksista ja siitä, mistä Internetistä voi tulla, mutta ihmiset tuskin uskoivat sen muuttavan heidän elämäänsä, kunnes se todella tapahtui. Se on vain, että tietokoneet eivät tienneet kuinka tehdä tämä vuonna 1988, ja ihmiset vain katsoivat tietokoneitaan ja ajattelivat: “Todellako? Onko tämä muuttaa maailmaa? Heidän mielikuvituksensa rajoittivat sitä, mitä heidän henkilökohtainen kokemuksensa heille opetti, he tiesivät mitä tietokone oli ja oli vaikea kuvitella, mihin tietokone pystyy tulevaisuudessa. Sama tapahtuu nyt AI: n kanssa. Kuulimme, että siitä tulee vakava asiamutta koska emme ole vielä tavanneet sitä kasvokkain ja yleensä havaitsemme melko heikkoja AI: n ilmentymiä nykymaailmassa, on melko vaikea uskoa, että se muuttaa radikaalisti elämäämme. Juuri näiden ennakkoluulojen vastaisesti lukuisat asiantuntijat kaikista leireistä ja kiinnostuneet ihmiset vastustavat yrittämään kiinnittää huomioamme jokapäiväisen kollektiivisen egokeskeisyyden melun kautta.

- Vaikka uskoisimme kaikkeen tähän - kuinka monta kertaa olet tänään ajatellut sitä, että vietät loput ikuisuuden tyhjyyteen? Hieman, ole samaa mieltä. Vaikka tämä tosiasia on paljon tärkeämpi kuin kaikki, mitä teet päivä päivältä. Tämä johtuu siitä, että aivomme ovat keskittyneet yleensä pieniin päivittäisiin asioihin, riippumatta siitä kuinka pettymysemme pitkäaikaisessa tilanteessa olemme. Se on vain, että meitä tehdään.

Yksi tämän artikkelin tavoitteista on päästä sinut pois leiristä nimeltä”Pidän ajattelemasta muista asioista” ja laittaa sinut asiantuntijaleirille, vaikka seisotkin vain yllä olevassa ruudussa olevien kahden pisteviivan välissä risteyksessä, täysin päättämätöntä.

Tutkimuksen aikana käy ilmi, että useimpien ihmisten mielipiteet ajautuvat nopeasti kohti "pääleiriä" ja että kolme neljäsosaa asiantuntijoista jakautuu kahteen pääleirin alaleiriin.

Image
Image

Vierailemme molemmissa näissä leireissä kokonaisuudessaan. Aloitetaan hauskasta.

Miksi tulevaisuus voisi olla suurin unelma?

Kun tutkimme AI-maailmaa, löydämme mukavuusalueelta yllättävän paljon ihmisiä. Oikeassa yläkulmassa olevat ihmiset sumisevat jännityksestä. He uskovat meidän laskevan tukin hyvälle puolelle, ja he uskovat myös, että tulemme väistämättä tähän. Heille tulevaisuus on vain parasta, josta voi vain uneksia.

Asia, joka erottaa nämä ihmiset muista ajattelijoista, ei ole se, että he haluavat olla onnellinen puolella - vaan että he ovat varmoja, että hän odottaa meitä.

Tämä luottamus tulee kiistasta. Kriitikkojen mielestä se johtuu häikäisevästä jännityksestä, joka varjoittaa mahdolliset negatiiviset puolet. Mutta kannattajien mukaan synkkä ennustus on aina naiivi; tekniikka jatkuu ja auttaa meitä aina enemmän kuin vahingoittamaan meitä.

Voit vapaasti valita minkä tahansa näistä mielipiteistä, mutta laita sivuun skeptisyys ja katso hyvältä tasapainonsäteen onnellinen puoli yrittäen hyväksyä tosiasian, että kaikki mitä luit, on jo tapahtunut. Jos osoittaisit metsästäjä-keräilijöille mukavuutemme, tekniikan ja loputtoman runsauden maailmaa, se tuntuisi heille maagiselta fiktiolta - ja käyttäydymme melko vaatimattomasti, emmekä voi myöntää, että sama käsittämätön muutos odottaa meitä tulevaisuudessa.

Nick Bostrom kuvaa kolme tietä, joita superintelligenttinen AI-järjestelmä voi kulkea:

Oraakkeli, joka pystyy vastaamaan mihin tahansa tarkkaan kysymykseen, mukaan lukien monimutkaiset kysymykset, joihin ihmiset eivät pysty vastaamaan - esimerkiksi "miten automoottori tehostetaan?" Google on primitiivinen tyyppi "oraakkeli".

Genie, joka suorittaa minkä tahansa korkean tason komennon - käyttämällä molekyylikokoonpanoa uuden, tehokkaamman version luomiseen auto-moottorista - ja odottaa seuraavaa komentoa.

Suvereeni, jolla on laaja pääsy ja kyky toimia vapaasti maailmassa, tehdä omia päätöksiään ja parantaa prosessia. Hän keksii halvemman, nopeamman ja turvallisemman tavan yksityiskuljetuksiin kuin auto.

Nämä meille vaikeaina näyttävät kysymykset ja tehtävät vaikuttavat superintelligentille siltä kuin joku pyysi parantamaan tilannetta”minun lyijykynäni putosi pöydältä”, jossa sinä vain noutit sen ja laitat sen takaisin.

Amerikkalainen tekoälyn asiantuntija Eliezer Yudkowski antoi sen hyvin:

”Ei ole vaikeita ongelmia, ovat vain tietyn tason älykkyydelle vaikeat ongelmat. Siirry askeleen korkeammalle (älykkyyden kannalta), ja jotkut ongelmat siirtyvät yhtäkkiä luokasta "mahdoton" leiriin "ilmeinen". Askel korkeammalle - ja niistä kaikista tulee ilmeisiä."

On monia kärsimättömiä tutkijoita, keksijöitä ja yrittäjiä, jotka ovat valinneet pöydästämme itseluottavan mukavuuden alueen, mutta tarvitsemme vain yhden oppaan kävelemään parhaiden parissa maailmassa.

Ray Kurzweil on epäselvä. Jotkut idoloivat hänen ideoitaan, toiset halveksivat. Jotkut pysyvät keskellä - Douglas Hofstadter, keskustellessaan Kurzweilin kirjojen ideoista, totesi kaunopuheisesti, että "olet kuin ottaisit paljon hyvää ruokaa ja pienen koiran kaapun ja sekoittaisit sitten kaiken niin, että on mahdotonta ymmärtää, mikä on hyvää ja mikä on huonoa".

Pidätkö hänen ideoista vai ei, on mahdotonta siirtää niitä ilman kiinnostuksen varjoa. Hän aloitti keksimisen asioina teini-ikäisenä ja seuraavina vuosina hän keksi useita tärkeitä asioita, kuten ensimmäinen tasoskanneri, ensimmäinen skanneri, jolla teksti muunnettiin puheeksi, tunnettu Kurzweilin musiikkisyntetisaattori (ensimmäinen oikea sähköinen piano) ja ensimmäinen kaupallisesti menestyvä puheentunnistin. Hän on myös viiden sensaatiomaisen kirjan kirjoittaja. Kurzweil on arvostettu uskaltavien ennusteidensa puolesta, ja hänen kokemuksensa ovat melko hyvät - 80-luvun lopulla, kun Internet oli vielä vasta alkuvaiheessa, hän ennusti, että Internetistä tulee 2000-luvulla maailmanlaajuinen ilmiö. Wall Street Journal nimitti Kurzweilia "levottomaksi neroksi", Forbesia "globaaliksi ajattelukoneeksi", Inc. Magazine - "Edisonin laillinen perillinen", Bill Gates - "paras niistäjoka ennustaa tekoälyn tulevaisuutta ". Vuonna 2012 Google-perustaja Larry Page kutsui Kurzweilin CTO: n virkaan. Vuonna 2011 hän perusti Singularity Universityn, jota isännöi NASA ja jota Google tukee osittain.

Hänen elämäkertaan on merkitystä. Kun Kurzweil puhuu tulevaisuudennäkymästään, se kuulostaa hulluilta hulluilta, mutta todella hullu asia siinä, että hän ei ole kaukana hulluudesta - hän on uskomattoman älykäs, koulutettu ja terve järki. Saatat ajatella, että hän on väärässä ennusteissaan, mutta hän ei ole typerys. Monet mukavuusalueiden asiantuntijat, Peter Diamandis ja Ben Herzel jakavat Kurzweilin ennusteet. Hänen mielestään tämä tapahtuu.

kronologia

Kurzweil uskoo, että tietokoneet saavuttavat yleisen tekoälyn (AGI) tason vuoteen 2029 mennessä, ja vuoteen 2045 mennessä meillä ei ole vain keinotekoinen superintelligenssi, vaan myös täysin uusi maailma - ns. Singulaarisuuden aika. Sen AI: n kronologiaa pidetään edelleen törkeästi liioiteltuna, mutta viimeisen 15 vuoden aikana voimakkaasti fokusoidun tekoälyn (AI) järjestelmien nopea kehitys on pakottanut monet asiantuntijat olemaan puolella Kurzweilia. Hänen ennusteensa ovat edelleen kunnianhimoisempia kuin Bostromin kysely (AGI vuoteen 2040 mennessä, ISI vuoteen 2060 mennessä), mutta ei paljon.

Kurzweilin mukaan vuoden 2045 singulaarisuutta ajavat kolme samanaikaista kierrosta biotekniikassa, nanoteknologiassa ja mikä tärkeintä, AI. Mutta ennen kuin menemme eteenpäin - ja nanoteknologia seuraa tarkkaan tekoälyä - vietetään minuutti nanoteknologiaan.

Image
Image

Muutama sana nanoteknologiasta

Kutsumme yleensä nanoteknologiateknologioita, jotka käsittelevät aineen manipulointia alueella 1-100 nanometriä. Nanometri on miljardi metriä tai miljoona millimetriä; välillä 1 - 100 nanometriä, viruksia (halkaisija 100 nm), DNA: ta (leveys 10 nm), hemoglobiinimolekyylejä (5 nm), glukoosia (1 nm) ja enemmän voidaan mukauttaa. Jos nanoteknologiasta tulee koskaan aiheemme, seuraava askel on manipuloida yksittäisiä atomeja, joiden koko on vähemmän kuin yksi suuruusluokka (~, 1 nm).

Hyppäämme ymmärtämään, missä ihmiset kohtaavat ongelmia yrittäessään manipuloida ainetta tällaisessa mittakaavassa, hyppäämällä suurempaan mittakaavaan. Kansainvälinen avaruusasema on 481 kilometriä maanpinnan yläpuolella. Jos ihmiset olisivat jättiläisiä ja lyövät ISS: ää päänsä kanssa, ne olisivat 250 000 kertaa suuremmat kuin nyt. Jos suurennat jotain 1–100 nanometriä 250 000 kertaa, saat 2,5 senttimetriä. Nanoteknologia on sama kuin ihminen, joka kiertää ISS: ää ja yrittää manipuloida hiekkamaisen tai silmämunan kokoisia asioita. Seuraavalle tasolle pääsemiseksi - yksittäisten atomien hallitsemiseksi - jättiläisen on sijoitettava huolellisesti esineet, joiden halkaisija on 1/40 millimetriä. Tavalliset ihmiset tarvitsevat mikroskoopin nähdäkseen ne.

Ensimmäistä kertaa Richard Feynman puhui nanoteknologiasta vuonna 1959. Sitten hän sanoi:”Fysiikan periaatteet, sikäli kuin voin sanoa, eivät puhu mahdollisuutta hallita asioita atomilla atomilla. Periaatteessa fyysikko voisi syntetisoida kemikaalit, jotka kemisti on kirjoittanut. Miten? Asettamalla atomit sinne, missä kemisti sanoo saavansa aineen. Tämä on koko yksinkertaisuus. Jos tiedät kuinka siirtää yksittäisiä molekyylejä tai atomeja, voit tehdä melkein mitä tahansa.

Nanoteknologiasta tuli vakava tieteenala vuonna 1986, kun insinööri Eric Drexler esitteli perustaansa perustamiskirjassaan Machines of Creation, mutta Drexler itse uskoo, että niiden, jotka haluavat oppia lisää nykyaikaisista ideoista nanoteknologiassa, tulisi lukea hänen vuoden 2013 kirja. Täydellinen runsaus (radikaali runsaus).

Kun olemme päässeet nanoteknologian pohjalle, voimme käyttää sitä luomaan teknisiä laitteita, vaatteita, ruokaa, biotuotteita - verisoluja, virus- ja syöpätaistelijoita, lihaskudoksia ja niin edelleen - mitä tahansa. Ja maailmassa, jossa käytetään nanoteknologiaa, materiaalin kustannuksia ei enää sido sen niukkuuteen tai valmistusprosessin monimutkaisuuteen, vaan pikemminkin atomin rakenteen monimutkaisuuteen. Nanoteknologian maailmassa timantti voi olla halvempi kuin pyyhekumi.

Emme ole edes lähellä siellä. Ja ei ole täysin selvää, aliarvioiko vai aliarvioimmeko tämän polun monimutkaisuutta. Kaikki menee kuitenkin siihen pisteeseen, että nanoteknologia ei ole kaukana. Kurzweil olettaa, että meillä on ne 2020-luvulle mennessä. Maailmanvaltiot tietävät, että nanoteknologia voi luvata suuren tulevaisuuden, ja siksi ne sijoittavat niihin useita miljardeja.

Kuvittele vain, mitä mahdollisuuksia erittäin älykäs tietokone saadaan, jos se pääsee luotettavalle nanomittakaavan kokoajalle. Mutta nanoteknologia on ideamme, ja yritämme ajaa sitä, se on meille vaikeaa. Entä jos ne ovat vain vitsi ISI-järjestelmälle, ja itse ISI keksii tekniikoita, jotka ovat moninkertaisesti tehokkaampia kuin mikään me periaatteessa voi olettaa? Sovimme: kukaan ei voi kuvitella mihin keinotekoinen superintelligenssi kykenee? Uskotaan, että aivomme eivät pysty ennustamaan edes pienintäkään mitä tapahtuu.

Mitä AI voisi tehdä meille?

Asetettu superintelligenssiin ja kaikkeen tekniikkaan, jonka superintelligenssi voisi luoda, ISI todennäköisesti pystyy ratkaisemaan kaikki ihmiskunnan ongelmat. Ilmaston lämpeneminen? ISI pysäyttää ensin hiilidioksidipäästöt keksimällä joukon tehokkaita ei-fossiilisia polttoaineita energian tuottamiseksi. Sitten hän keksii tehokkaan, innovatiivisen tavan poistaa ylimääräinen CO2 ilmakehästä. Syöpä ja muut sairaudet? Ei ongelma - terveydenhuolto ja lääketiede muuttuvat tavoilla, joita on mahdotonta kuvitella. Nälänhätä? ISI käyttää nanoteknologiaa luomaan lihaa, joka on identtinen luonnollisen, alusta tyhjästä, todellisen lihan kanssa.

Image
Image

Nanoteknologia pystyy muuttamaan kasan roskia tuoretta lihaa tai muuta ruokaa olevalle astialle (ei välttämättä edes tavalliseen muotoon - kuvitelkaa jättiläinen omenaputki) ja levittämään kaiken tämän ruoan ympäri maailmaa edistyneiden kuljetusjärjestelmien avulla. Tietysti tämä on hienoa eläimille, joiden ei enää tarvitse kuolla ruoan vuoksi. ISI voi tehdä myös monia muita asioita, kuten säilyttää uhanalaisia lajeja tai jopa palauttaa sukupuuttoon kuolleet säilyneestä DNA: sta. ISI pystyy ratkaisemaan vaikeimmat makrotaloudelliset ongelmamme - vaikeimmat taloudelliset keskustelumme, eettiset ja filosofiset kysymykset, globaali kauppa - kaikki nämä ovat ISIlle tuskallisen ilmeisiä.

Mutta on jotain erityistä, jonka ISI voisi tehdä meille. Houkutteleva ja houkutteleva, joka muuttaisi kaiken: ISI voi auttaa meitä selviytymään kuolleisuudesta. Ymmärtämällä vähitellen AI: n kykyjä, ehkä harkitset kaikkia ideoitasi kuolemasta.

Evoluutiolla ei ollut syytä pidentää eliniämme pidempään kuin nyt. Jos elämme tarpeeksi kauan synnyttääksemme ja kasvattaaksesi lapsia siihen pisteeseen, missä he voivat puolustaa itseään, evoluutio riittää. Evolutionaation kannalta 30+ vuotta riittää kehitykseen, eikä mutaatioilla ole syytä pidentää elämää ja vähentää luonnollisen valinnan arvoa. William Butler Yates kutsui lajejamme "kuolevan eläimen kiinni olevaksi sieluksi". Ei hauskaa.

Ja koska me kaikki kuolemme jonain päivänä, elämme ajatuksen kanssa, että kuolema on väistämätön. Ajattelemme ikääntymisestä ajan myötä - jatkamme etenemistä eteenpäin emmekä pysty pysäyttämään tätä prosessia. Mutta kuoleman ajatus on petollinen: sen vangitsemana unohdamme elää. Richard Feynman kirjoitti:

”Biologiassa on hieno asia: tässä tieteessä ei ole mitään, joka puhuisi kuoleman välttämättömyydestä. Jos haluamme luoda jatkuvan liikkeen, ymmärrämme, että olemme löytäneet fysiikan tarpeeksi lakeja, jotka joko osoittavat tämän mahdottomuuden tai että lait ovat vääriä. Mutta biologiassa ei ole mitään, mikä viittaisi kuoleman väistämättömyyteen. Tämä saa minut uskomaan, että se ei ole niin väistämätöntä, ja on vain ajan kysymys, ennen kuin biologit löytävät tämän ongelman, tämän kauhean yleismaailmallisen taudin, syyn, se paranee.

Tosiasia, että ikääntymisellä ei ole mitään tekemistä ajan kanssa. Ikääntyminen on, kun ruumiin fyysiset materiaalit kuluvat. Auton osat myös hajoavat - mutta onko ikääntyminen väistämätöntä? Jos jatkat autosi korjaamista osien loppuessa, se kestää ikuisesti. Ihmisen kehossa ei ole eroa - vain monimutkaisempi.

Kurzweil puhuu älykkäistä, langattomaan verkkoon kytketyistä nanobotista verenkiertoon, joka voisi suorittaa lukemattomia tehtäviä ihmisten terveydelle, mukaan lukien kuluneiden solujen säännöllinen korjaus tai korvaaminen missä tahansa kehossa. Tämän prosessin parantaminen (tai fiksumman ASI: n ehdottaman vaihtoehdon löytäminen) ei vain pidä kehoa terveenä, vaan myös kääntää ikääntymisen. Ero 60- ja 30-vuotiaiden vartalon välillä on kourallinen fyysisiä ongelmia, jotka voitaisiin korjata oikealla tekniikalla. ISI voisi rakentaa auton, johon henkilö pääsisi 60-vuotiaana, ja poistua 30-vuotiaana.

Jopa heikentyneet aivot voitiin uudistaa. ISI tietäisi todennäköisesti miten tämä tehdään vaikuttamatta aivotietoihin (persoonallisuus, muistot jne.) 90-vuotias mies, joka kärsii aivojen täydellisestä heikkenemisestä, voi suorittaa uudelleenkoulutuksen, uudistua ja palata elämänsä alkuun. Se voi tuntua järjetömältä, mutta ruumiissa on kourallinen atomeja, ja ISI voisi varmasti helposti manipuloida niitä, mitä tahansa atomirakenteita. Se ei ole niin järjetöntä.

Kurzweil uskoo myös, että keinotekoiset materiaalit integroituvat yhä enemmän vartaloon ajan myötä. Ensinnäkin, elimet voitaisiin korvata erittäin edistyneillä koneversioilla, jotka kestävät ikuisesti ja eivät koskaan epäonnistu. Sitten voimme tehdä täydellisen kehon uudelleensuunnittelun korvaamalla punasolut täydellisillä nanobotilla, jotka liikkuvat yksinään, poistaen sydämen tarpeen kokonaan. Voisimme myös parantaa kognitiivisia kykyjämme, aloittaa ajattelun miljardeja kertoja nopeammin ja käyttää kaikkia ihmiskunnan käytettävissä olevia tietoja pilven kautta.

Mahdollisuudet ymmärtää uusia näköaloja olisivat todella rajattomat. Ihmiset ovat onnistuneet osoittamaan seksille uuden tarkoituksen, he tekevät sen nautinnon, ei vain lisääntymisen vuoksi. Kurzweil uskoo, että voimme tehdä samoin ruoalla. Nanobotit voivat tarjota ihanteellisen ravinnon suoraan kehon soluille, jolloin epäterveelliset aineet pääsevät läpi kehon. Nanoteknologian tutkija Robert Freitas on jo kehittänyt korvaavan verisoluille, jotka ihmiskehoon toteutettaessa voivat antaa hänen olla hengittämättä 15 minuutin ajan - ja ihmisen keksikin tämän. Kuvittele, milloin ISI saa voiman.

Loppujen lopuksi Kurzweil uskoo, että ihmiset saavuttavat pisteen, jossa heistä tulee täysin keinotekoisia; aika, jolloin tarkastelemme biologisia materiaaleja ja ajattelemme kuinka primitiivisiä ne olivat; aika, jolloin luemme ihmiskunnan historian varhaisista vaiheista, hämmästyneenä siitä, kuinka bakteerit, onnettomuudet, sairaudet tai yksinkertaisesti vanhuus voisi tappaa ihmisen hänen tahtoaan vastaan. Viime kädessä ihmiset kukistavat oman biologiansa ja tulevat iankaikkisiksi - tämä on tie tasapainonsäteen onnelliseen puoleen, josta olemme puhuneet alusta alkaen. Ja ihmiset, jotka uskovat tähän, ovat myös varmoja siitä, että tällainen tulevaisuus odottaa meitä hyvin, hyvin pian.

Et todennäköisesti ihmettele, että Kurzweilin ideat ovat herättäneet ankaraa kritiikkiä. Sen ainutlaatuisuutta vuonna 2045 ja sitä seuraavaa ihmisten ikuista elämää kutsuttiin "nörttien ylösnousemukseksi" tai "älykkääksi luomiseksi ihmisiä, joiden IQ on 140". Toiset kyseenalaistivat optimistisen aikataulun, ihmiskehon ja aivojen ymmärtämisen, muistuttivat Mooren lakia, joka ei ole vielä poistunut. Jokaisesta Kurzweilin ideoihin uskovasta asiantuntijasta on kolme, jotka ajattelevat olevansa väärässä.

Mutta mielenkiintoisin asia tässä on, että suurin osa hänen kanssaan eri mieltä olevista asiantuntijoista ei yleensä sano, että tämä on mahdotonta. Sen sijaan, että sanotta "paskaa, tätä ei koskaan tapahdu", he sanovat jotain "kaikki tämä tapahtuu, jos pääsemme ISI: hen, mutta tämä on ongelma". Bostrom, yksi tunnustetuista AI-asiantuntijoista, joka varoittaa AI: n vaarasta, myöntää myös:

”Tuskin on jäljellä mitään ongelmaa, jota superintelligenssi ei pysty ratkaisemaan tai edes auttamaan meitä ratkaisemaan. Taudit, köyhyys, ympäristön tuhoaminen, kaikenlaiset kärsimykset - kaikki tämä nanoteknologian avulla saavuttama superintelligenssi voi ratkaista hetkessä. Superintelligenssi voi myös antaa meille rajoittamattoman elinkaaren pysäyttämällä ja kääntämällä ikääntymisprosessin käyttämällä nanolääketiedettä tai kykyä ladata meidät pilveen. Superintelligenssi voi myös luoda mahdollisuuksia älyttömien ja emotionaalisten kykyjen loputtomalle lisäämiselle; hän voi auttaa meitä luomaan maailman, jossa elämme ilossa ja ymmärryksessä, lähestymme ihanteitamme ja teemme säännöllisesti unelmamme.

Tämä on lainaus yhdeltä Kurzweilin kriitikolta, joka myöntää, että kaikki tämä on mahdollista, jos pystymme luomaan turvallisen ASI: n. Kurzweil määritteli yksinkertaisesti siitä, mistä keinotekoisesta superintelligenssista tulisi tulla, jos se on mahdollista. Ja jos hän on hyvä jumala.

Mukavuusvyöhykkeen kannattajien selvin kritiikki on, että heidät voidaan tuomita väärin arvioitaessa ISI: n tulevaisuutta. Kirjassaan Singularity, Kurzweil omistautui 20 sivua 700 mahdollisesta ISI-uhasta. Kysymys ei ole, kun pääsemme ISI: hen, kysymys on mikä on sen motivaatio. Kurzweil vastaa tähän kysymykseen varoen:”ISI johtuu monista erilaisista ponnisteluista ja integroidaan syvästi sivilisaatiomme infrastruktuuriin. Itse asiassa se upotetaan tiiviisti kehomme ja aivoihimme. Hän heijastaa arvojamme, koska hän on yksi kanssamme."

Mutta jos vastaus on, miksi niin monet älykkäät ihmiset tässä maailmassa ovat huolissaan tekoälyn tulevaisuudesta? Miksi Stephen Hawking sanoo, että ISI: n kehitys voi "tarkoittaa ihmiskunnan loppua"? Bill Gates sanoo, että hän "ei ymmärrä ihmisiä, joita ei häiritä" siitä. Elon Musk pelkää, että "kutsumme demonin". Miksi monet asiantuntijat pitävät ISI: tä suurimpana uhkana ihmiskunnalle?

Perustuu waitbutwhy.com-sivuston materiaaleihin, Tim Urbanin laatima. Artikkelissa on käytetty Nick Bostromin, James Barrattin, Ray Kurzweilin, Jay Niels-Nilssonin, Stephen Pinkerin, Vernor Vingen, Moshe Vardyn, Russ Robertsin, Stuart Armstrogin ja Kai Sotalin, Susan Schneiderin, Stuart Russellin ja Peter Norvigin, Theodore Modisin teosten materiaaleja. Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Kirjoittaja: Ilja Khel

Kolmas osa: miksi se voisi olla viimeinen keksintömme?