Google Ei Halua Luoda Skynetiä Yhtenä Päivänä, Joten Se Luo Kytkimen AI: Lle - Vaihtoehtoinen Näkymä

Google Ei Halua Luoda Skynetiä Yhtenä Päivänä, Joten Se Luo Kytkimen AI: Lle - Vaihtoehtoinen Näkymä
Google Ei Halua Luoda Skynetiä Yhtenä Päivänä, Joten Se Luo Kytkimen AI: Lle - Vaihtoehtoinen Näkymä

Video: Google Ei Halua Luoda Skynetiä Yhtenä Päivänä, Joten Se Luo Kytkimen AI: Lle - Vaihtoehtoinen Näkymä

Video: Google Ei Halua Luoda Skynetiä Yhtenä Päivänä, Joten Se Luo Kytkimen AI: Lle - Vaihtoehtoinen Näkymä
Video: 10 Cool Google Assistant Tricks You Should Know 2024, Heinäkuu
Anonim

Tekoälyn tulevaisuutta koskevissa kysymyksissä ja keskusteluissa on kaksi pääasiallista vastapuolta. Yhdessä nurkassa ovat yritykset, kuten Google, Facebook, Amazon ja Microsoft, jotka investoivat aggressiivisesti tekniikkaan, jotta AI-järjestelmät olisivat älykkäämpiä, toisessa ovat aikamme suuria ajattelijoita, kuten Elon Musk ja Stephen Hawking, jotka uskovat että AI: n kehitys muistuttaa "demonin loitsua".

Yksi edistyneimmistä AI-yrityksistä, Googlen omistama DeepMind, on luonut turvatoimenpiteitä tapauksissa, joissa henkilön on "otettava robotin hallinta, jonka epäonnistuminen voi johtaa korjaamattomiin seurauksiin". Voimme olettaa, että puhumme … "tappaa kaikki ihmiset". Tietenkin, todellisuudessa toteutettu toimenpide ei ole vihje mahdolliselle apokalypsille, kyse on pikemminkin älykkäisiin robotteihin liittyvistä turvatoimenpiteistä, jotka toimivat ja toimivat tulevaisuudessa eri tehtaissa ja tehtaissa.

Julkaistu reseptiä sisältävä asiakirja on DeepMindin ja Oxford Institute for Humanity Future -yrityksen yhteinen työ, joka, kuten nimestä voi päätellä, käsittelee aiheita, jotka sallivat tämän ihmiskunnan päästä tulevaisuuteen. Vuosikymmenien ajan instituutin perustajajohtaja Nick Bostrom puhui erittäin selvästi keinotekoisen älykkyyden mahdollisista vaaroista ja kirjoitti aiheesta useita kirjoja, joissa hän keskusteli erittäin älykkäiden robotien luomisen seurauksista.

Opas, josta tänään puhumme, nimeltään “Turvallisesti vammaiset agentit”, tutkii, kuinka poistaa AI käytöstä, jos se tekee jotain, mitä ihminen ei halua tehdä. Työ koostuu erilaisista laskelmista ja kaavoista, joita 99 prosenttia meistä todennäköisesti ei ymmärrä. Siksi yksinkertaisesti sanottuna puhumme "punaisesta painikkeesta", joka voi poistaa AI: n.

Saatat nauraa ja ihmetellä, mutta robotiikan ja AI: n pioneerit katsovat samoja sci-fi-elokuvia kuin mekin. Ne, joissa robotit kertoivat kerran kuinka jättää huomioimatta sammutuskomennon. Joten nyt olemme valmiita tähän. Julkaistussa asiakirjassa kuvataan menetelmiä ja ratkaisuja sen varmistamiseksi, että "koulutettavissa oleva aine" (lue AI) ei voi oppia sivuuttamaan tai estämään ulkoisen ympäristön tai ihmisen vaikutuksia.

Tämä voi tuntua ylenmääräiseltä, varsinkin kun ajatellaan, että tällä hetkellä edistynein AI on todella hyvä vain lautapeleissä. Bostrom uskoo kuitenkin, että ennen kuin aloitamme luoda ihmisen aivotason AI: tä, on ryhdyttävä asianmukaisiin toimenpiteisiin:

”Heti kun tekoäly saavuttaa inhimillisen tason, monilla alueilla odotetaan voimakasta kehityksen hyppyä. Pian sen jälkeen myös AI: t itse luovat uusia AI: itä. Arvioi vain nämä näkymät ja samalla mahdolliset vaarat. Siksi on parempi liioitella kuin jättää väliin."

NIKOLAY KHIZHNYAK

Mainosvideo: