Ajattelet Kuin Ihminen: Mitä Tapahtuu, Jos Annat Koneelle Tietoisuuden Teorian - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Ajattelet Kuin Ihminen: Mitä Tapahtuu, Jos Annat Koneelle Tietoisuuden Teorian - Vaihtoehtoinen Näkymä
Ajattelet Kuin Ihminen: Mitä Tapahtuu, Jos Annat Koneelle Tietoisuuden Teorian - Vaihtoehtoinen Näkymä

Video: Ajattelet Kuin Ihminen: Mitä Tapahtuu, Jos Annat Koneelle Tietoisuuden Teorian - Vaihtoehtoinen Näkymä

Video: Ajattelet Kuin Ihminen: Mitä Tapahtuu, Jos Annat Koneelle Tietoisuuden Teorian - Vaihtoehtoinen Näkymä
Video: Verke LIVE – Tekoälyn mahdollisuudet nuorisotyössä 2024, Saattaa
Anonim

Viime kuussa ryhmä itseoppimpia AI-pelaajia kärsi näyttävän tappion ammattiurheilijoita vastaan. Näyttelyottelu, joka pidettiin osana Dota 2: n kansainvälistä maailmanmestaruuskilpailua, osoitti, että joukkueen strateginen ajattelu antaa ihmiselle silti mahdollisuuden saada auto hallussaan.

AI: t olivat useita OpenAI: n kehittämiä algoritmeja, joiden perustajina Elon Musk. Digitaalisten pelaajien ryhmä, nimeltään OpenAI Five, oppi pelaamaan Dota 2: ta yksin, kokeilun ja virheen kautta, kilpailemalla keskenään.

Toisin kuin samassa shakki- tai laudelogiikalla, Go, suosittua ja nopeasti kasvavaa moninpeliä Dota 2 pidetään paljon vakavampana keinona tekoälyn testaamiseen. Pelin kokonaisvaikeus on vain yksi tekijä. Ei riitä, että napsautat vain nopeasti hiirellä ja annat komentoja hallitsemallesi hahmolle. Voittaakseen on oltava intuitio ja ymmärrys siitä, mitä vastustajalta voidaan odottaa seuraavana ajankohtana, sekä toimittava riittävästi tämän tietoryhmän mukaisesti voidakseen tulla yhdessä yhteisiin pyrkimyksiin kohti yhteistä päämäärää - voittoa. Tietokoneella ei ole tätä ominaisuuksien ryhmää.

Tähän mennessä edes merkittävimmällä syväoppivalla algoritmilla ei ole strategista ajattelua, jota tarvitaan tavoitteiden ymmärtämiseen vastustajan tehtävistä, olipa kyseessä sitten uusi AI tai ihminen.

Wangin mukaan Jotta AI menestyisi, sillä on oltava syvä kommunikaatiotaito, joka johtuu ihmisen tärkeimmästä kognitiivisesta piirteestä - älykkyyden läsnäolosta.

Mielentilamalli simulaationa

Mainosvideo:

Neljän vuoden ikään mennessä lapset alkavat yleensä ymmärtää yhtä perustavanlaatuista sosiaalista piirrettä: heidän mielensä ovat erilaisia kuin muiden. He alkavat ymmärtää, että jokaisella on mitä he uskovat, toiveensa, tunteensa ja aikomuksensa. Ja mikä tärkeintä, he voivat kuvitella itsensä toisten tilalle ja he voivat alkaa ennustaa näiden ihmisten tulevaa käyttäytymistä ja selittää heille. Tavallaan heidän aivonsa alkavat luoda useita simulaatioita itsestään, korvata itsensä muiden ihmisten tilalle ja sijoittaa itsensä erilaiseen ympäristöön.

Mielentilamalli on tärkeä ymmärryksenä itsestäsi ja sillä on myös tärkeä rooli sosiaalisessa vuorovaikutuksessa. Muiden ymmärtäminen on avain tehokkaalle viestinnälle ja yhteisten tavoitteiden saavuttamiselle. Tämä kyky voi kuitenkin olla myös väärien uskomusten liikkeellepaneva voima - ideat, jotka johtavat meidät pois objektiivisesta totuudesta. Heti kun kyky käyttää mielentilamallia esimerkiksi heikkenee, tapahtuu autismissa, niin myös luonnolliset "inhimilliset" taidot, kuten kyky selittää ja kuvitella, huononevat.

Länsi-Englannin yliopiston robottiprofessorin, tohtori Alan Winfieldin mukaan mielentilamalli tai "mielen teoria" on tärkeä ominaisuus, joka antaa AI: lle yhtenä päivänä "ymmärtää" ihmisiä, asioita ja muita robotteja.

Koneoppimismenetelmien sijaan, joissa neuroverkkojen useita kerroksia poimitaan yksittäisiä tietoja ja "tutkitaan" valtavia tietokantoja, Winston ehdottaa erilaista lähestymistapaa. Sen sijaan, että luottaisi oppimiseen, Winston ehdottaa AI: n esiohjelmointia itsensä ja ympäristön sisäisellä mallilla, joka vastaa yksinkertaisiin "entä jos?" -Kysymyksiin.

Kuvittele esimerkiksi, että kaksi robottia liikkuu kapeaa käytävää pitkin, niiden AI voi simuloida niiden törmäysten estävien toimien tuloksia: käänny vasemmalle, oikealle tai jatka suoraan. Tämä sisäinen malli toimii pääasiassa "seurausmekanismina", joka toimii eräänlaisena "terveenä järjenä", joka auttaa ohjaamaan AI: n seuraaviin oikeisiin toimiin ennustamalla tilanteen tulevan kehityksen.

Aiemmin tänä vuonna julkaistussa tutkimuksessa Winston esitteli prototyyppirobotin, joka kykenee saavuttamaan tällaisia tuloksia. Ennakoimalla muiden käyttäytymistä, robotti meni onnistuneesti käytävän läpi ilman törmäyksiä. Itse asiassa tämä ei ole yllättävää, kirjoittaja huomauttaa, mutta "tarkkaavaisella" robotilla, joka käytti simuloitua lähestymistapaa ongelman ratkaisemiseen, kului 50 prosenttia kauemmin käytävän valmistamiseen. Siitä huolimatta Winston osoitti, että hänen sisäisen simulointimenetelmänsä toimii: "Tämä on erittäin voimakas ja mielenkiintoinen lähtökohta tekoälyn teorian kehittämiselle", tutkija totesi.

Winston toivoo, että AI lopulta kykenee kuvaamaan tilanteita ja henkisesti toistamaan ne. Itsensä ja muiden sisäinen malli antaa tällaiselle AI: lle mahdollisuuden simuloida erilaisia skenaarioita ja mikä tärkeintä, määritellä kullekin niistä erityiset tavoitteet.

Tämä eroaa merkittävästi syväoppimisalgoritmeista, jotka periaatteessa eivät pysty selittämään miksi he tulivat tähän tai toiseen johtopäätökseen ongelman ratkaisemisen yhteydessä. Syvän oppimisen musta laatikko -malli on todella todellinen ongelma tällaisten järjestelmien luottamisessa. Tämä ongelma voi olla erityisen akuutti esimerkiksi kehitettäessä sairaala- tai vanhusten hoitotyörobotteja.

Mielentilamallilla aseistettu AI voisi laittaa itsensä mestariensa kenkiin ja ymmärtää oikein, mitä siitä halutaan. Sitten hän pystyi tunnistamaan sopivat ratkaisut ja selittäessään nämä ratkaisut henkilölle, hän jo suorittaa hänelle osoitetun tehtävän. Mitä vähemmän epävarmuutta päätöksissä, sitä enemmän luottamusta tällaisiin robotteihin on.

Mielentilamalli hermoverkossa

DeepMind on erilainen lähestymistapa. Seurauksenmekanismin algoritmin esiohjelmoinnin sijasta he ovat kehittäneet useita hermoverkkoja, jotka osoittavat samanlaisen mallin kollektiivisesta psykologisesta käyttäytymisestä.

AI-algoritmi "ToMnet" voi oppia toimenpiteet tarkkailemalla muita neutroniverkkoja. ToMNet itsessään on kolmen hermoverkon ryhmä: ensimmäinen perustuu erityispiirteisiin, joiden avulla valitaan muut AI: t heidän viimeisimpien toimiensa mukaan. Toinen muodostaa yleisen käsityksen nykyisestä mielialasta - heidän uskomuksensa ja aikomuksensa tietyssä ajankohdassa. Kolmas vastaanottaa kahden hermoverkon työn yhteisen tuloksen, joka ennustaa AI: n jatkotoimenpiteitä tilanteen perusteella. Kuten syvällisessä oppimisessa, myös ToMnet tulee tehokkaammaksi, kun se saa kokemusta seuraamalla muita.

Yhdessä kokeessa ToMnet "katseli" kolmea AI-agenttia liikkumassa digitaalisessa huoneessa keräämällä värikkäitä laatikoita. Jokaisella näistä AI: stä oli oma erityispiirteensä: yksi oli "sokea" - ei pystynyt määrittämään huoneen muotoa ja sijoitusta. Toinen oli "skleroottinen": hän ei pystynyt muistamaan viimeisiä vaiheitaan. Kolmas pystyi sekä näkemään että muistamaan.

Harjoituksen jälkeen ToMnet alkoi ennustaa kunkin AI: n mieltymyksiä tarkkailemalla sen toimia. Esimerkiksi "sokea" liikkui jatkuvasti vain seiniä pitkin. ToMnet muisti tämän. Algoritmi kykeni myös oikein ennustamaan AI: n tulevaa käyttäytymistä ja mikä tärkeintä, ymmärtämään, kun AI havaitsi väärän ympäristön esityksen.

Yhdessä testissä tutkijaryhmä ohjelmoi yhden AI: n "likinäköisyydelle" ja muutti huoneen asettelua. Agentit, joilla on normaali näkökyky, sopeutuivat nopeasti uuteen asetteluun, mutta likinäköinen ihminen jatkoi alkuperäisten reittiensä seuraamista uskoen virheellisesti olevansa edelleen vanhassa ympäristössä. ToMnet huomasi tämän ominaisuuden nopeasti ja ennusti tarkasti agentin käyttäytymistä asettaen itsensä paikalleen.

Kalifornian Berkeleyn yliopiston kehityspsykologin tohtori Alison Gopnikin mukaan, joka ei ollut mukana näissä tutkimuksissa, mutta joka oli tuttu havainnoille, nämä tulokset osoittavat, että hermostoverkoilla on uskomattoman kyky oppia erilaisia taitoja itsestään, tarkkailemalla muita. Samanaikaisesti asiantuntijan mukaan on vielä liian aikaista sanoa, että nämä AI: t ovat kehittäneet mielentilan keinotekoisen mallin.

Massachusettsin teknillisen instituutin tohtori Josh Tenebaumin mukaan, joka ei myöskään ollut mukana tutkimuksessa, ToMnetin "ymmärrys" on tiukasti sidoksissa oppimisympäristön kontekstiin - samaan huoneeseen ja erityisiin AI-edustajiin, joiden tehtävänä oli kerätä laatikoita. Tämä tietyssä kehyksessä oleva rajoitus tekee ToMnetistä vähemmän tehokkaan ennustamaan käyttäytymistä radikaalisti uusissa ympäristöissä, toisin kuin samat lapset, jotka voivat mukautua uusiin tilanteisiin. Algoritmi ei tiedemiehen mukaan tule toimeen täysin erilaisen AI: n tai henkilön toiminnan mallintamisessa.

Joka tapauksessa Winstonin ja DeepMindin työ osoittaa, että tietokoneet ovat alkaneet osoittaa toistensa ymmärtämisen alkeita, vaikka tämä ymmärrys olisi edelleenkin vain alkeellista. Ja kun he edelleen kehittävät tätä taitoa ymmärtämällä toisiamme paremmin ja paremmin, tulee aika, jolloin koneet voivat ymmärtää oman tietoisuutemme monimutkaisuuden ja monimutkaisuuden.

Nikolay Khizhnyak