"Meidän On Nyt Mietittävä, Kuinka Turvata Tekoäly" - Vaihtoehtoinen Näkymä

"Meidän On Nyt Mietittävä, Kuinka Turvata Tekoäly" - Vaihtoehtoinen Näkymä
"Meidän On Nyt Mietittävä, Kuinka Turvata Tekoäly" - Vaihtoehtoinen Näkymä

Video: "Meidän On Nyt Mietittävä, Kuinka Turvata Tekoäly" - Vaihtoehtoinen Näkymä

Video:
Video: Mitä on tekoäly? FabricAI 2024, Syyskuu
Anonim

Stephen Hawking jatkaa "ristiretkiä" tekoälyä vastaan.

Erittäin odotetun Kysy kaikkea Redditissä -kampanjan aikana hän kirjoitti, että AI-tietoturvaprotokollan kehittäminen olisi tehtävä nyt, ei kaukaisessa tulevaisuudessa.

"Tavoitteenamme ei pitäisi olla abstraktin tekoälyn luominen, vaan hyödyllisen älykkyyden luominen", kirjoitti kuuluisa fyysikko. "Kestää vuosikymmenten ajan, kuinka tämä tehdään, joten aloitetaan tutkia tätä aihetta nyt, ei illalla ennen ensimmäistä. edistynyt AI”.

Hawking on käyttänyt kuuluisuutta AI-turvallisuusliikkeen tukemiseen vuodesta 2014, jolloin hän kirjoitti yhdessä muiden tutkijoiden kanssa toimitukselle varoittaen edistyneiden koneiden ihmisille aiheuttamasta eksistentiaalisesta uhasta.

Muut merkittävät tekniset persoonallisuudet, Elon Musk ja Steve Wozniak, ovat liittyneet Hawkingiin. Aikaisemmin tässä kaikki kolme allekirjoittivat avoimen kirjeen, jossa kehotettiin kieltämään itsenäiset aseet tai taistelurobotit.

Odotuksia, että ihmiskunta luo pian tekoälyn, on ollut olemassa 50-luvulta lähtien, eikä niitä ole vielä perusteltu. Useimmat AI-tutkijat uskovat kuitenkin, että koneet, jotka ovat älykkäitä ihmisille, ilmestyvät tällä vuosisadalla.

Image
Image

Valokuva: ANDREW COWIE / AFP

Mainosvideo:

Hawking varoittaa, että keinotekoisen älykkyyden kuvaaminen scifi-elokuvissa vääristää koneiden todellisen vaaran. Terminaattorin kaltaiset elokuvat kuvaavat demonisia tappajarobotteja, jotka yrittävät tuhota ihmiskunnan syistä, joita todellisella tekoälyllä ei ollut. Niiden avulla on myös helpompaa lievittää potentiaalisia lintuinfluenssariskejä (kuten ei kyborgien rakentamista).

”AI: n todellinen uhka ei ole se, että se olisi paha, vaan että se on erittäin kykenevä. Keinotekoinen superintelligenssi on erittäin hyvä suorittamaan tehtävänsä.

Jos hänen tehtävänsä eivät vastaa meidän tehtäviämme, meillä on ongelmia - Hawking kirjoitti - - tuskin vihaat muurahaisia, mutta jos olet vastuussa vihreän energian hankkeesta ja alue, jolla muurahaispentu sijaitsee, on tulvinut, muurahaiset eivät ole onnekkaita. Älkäämme antako ihmiskunnan löytää itsensä näiden muurahaisten asemaan."

Nick Bostrom, AI-filosofi, fantasioi maailmanlopun skenaarioista, kun ohjelma alkaa toimia väärään suuntaan. Esimerkiksi tekoälylle on annettu tehtäväksi kehittää suunnitelma ympäristön suojelemiseksi, ja ekologisen ongelman ratkaisemiseksi se päättää tuhota ihmiskunnan.

Elon Musk on jo sitoutunut 10 miljoonaa dollaria AI: n turvallisuustutkimukseen estääkseen Skynetin kaltaisen tuhoisen tekoälyn ilmestymisen Terminatoriin. Mutta Hawking haluaa ihmisten muuttavan yleistä käsitystään AI: stä.

"Pyydä oppilaita ajattelemaan paitsi AI: n luomista, myös varmistamaan, että sitä käytetään hyödyllisiin tarkoituksiin", Hawking kertoi tekoälyä luennoivalle opettajalle. "Ihmisen ylittävän AI: n syntyminen tulee joko paras tai huonoin tapahtuma ihmiskunnan historiassa. Siksi on tärkeää, että kaikki menee oikein."

Suositeltava: