Tutkija: Älykkään Koneen Luomisessa Ei Ole Perustavanlaatuisia Rajoituksia - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Tutkija: Älykkään Koneen Luomisessa Ei Ole Perustavanlaatuisia Rajoituksia - Vaihtoehtoinen Näkymä
Tutkija: Älykkään Koneen Luomisessa Ei Ole Perustavanlaatuisia Rajoituksia - Vaihtoehtoinen Näkymä

Video: Tutkija: Älykkään Koneen Luomisessa Ei Ole Perustavanlaatuisia Rajoituksia - Vaihtoehtoinen Näkymä

Video: Tutkija: Älykkään Koneen Luomisessa Ei Ole Perustavanlaatuisia Rajoituksia - Vaihtoehtoinen Näkymä
Video: Julkisen hallinnon API-linjaukset -verkkoseminaari 2024, Syyskuu
Anonim

Moskovan fysiikan ja tekniikan instituutin hermosysteemien ja syvällisen oppimisen laboratorion johtaja Mihail Burtsev kertoo, onko mahdollista luoda täysimittainen ihmisanen tietokoneanalogi, ja kertoo, miksi tutkijat kehittävät sitä ja miten sitä voidaan suojata peikko-iskuilta.

Heinäkuun lopussa MIPT: n tutkijat käynnistivät kansainvälisen kilpailun "puheista" tekoälyjärjestelmistä, jotka kykenevät jäljittelemään elävää ihmistä, ja kutsuivat kaikki, jotka halusivat kommunikoida heidän kanssaan ja arvioida tuloksena olevia vuoropuheluja. Vapaaehtoisten avulla tiedemiehet toivovat voivansa luoda seuraavien kolmen vuoden aikana ääni-avustajan, joka voi kommunikoida melkein yhtä hyvin henkilön kuin elävän keskustelukumppanin kanssa.

Kilpailun järjestivät Montrealin, McGillin ja Carnegie Mellonin yliopistojen tutkijat. Voit osallistua dialogijärjestelmien testaamiseen linkkiä seuraamalla.

Itse asiassa näitä ideoita ei keksitty tänään - Googlen, Applen, Amazonin ja muiden IT-yritysten nykyaikaiset ääniavustajat ovat juurtuneet syvään menneisyyteen, aivan tietokoneiden aikakauden alkuun. Ensimmäinen tällainen ELIZA-niminen puhekone luotiin vuonna 1966, ja se oli itse asiassa vitsi, parodia psykoterapeutista, joka antoi turhia neuvoja potilaalle.

Seuraavina vuosina ja vuosikymmeninä ohjelmoijat loivat yhä monimutkaisempia ja "elävämpiä" järjestelmiä yhteydenpitoon tietokoneen kanssa. Näistä järjestelmistä edistyneimmät voivat tunnistaa omistajan mielialan, muistaa hänen vanhat toiveensa ja mieltymyksensä ja ratkaista joitain rutiininomaisia ja kotitalouden tehtäviä hänelle, tilata ruokaa tai tavaroita kaupasta tai toimia operaattorina puhelinkeskuksissa.

Mikhail, melkein 50 vuotta on kulunut ELIZA: n perustamisesta. Mikä on yleensä muuttunut tänä aikana ja voi periaatteessa odottaa, että tulevaisuudessa tutkijat pystyvät luomaan sellaisen järjestelmän, jota ihmiset eivät voi erottaa elävästä keskustelukumppanista?

- Luulen, että lähitulevaisuudessa on mahdollista luoda puhutun älykkyyden tekniikka, jonka avulla kone voi lähestyä ihmisten välisen vuoropuhelun tasoa. Työskentelemme tämän tehtävän parissa kansalliseen teknologia-aloitteeseen kuuluvassa iPavlov-projektissa.

Käyttäjän tulisi olla yhtä mukava kommunikoida automaattisen dialogijärjestelmän kanssa kuin elävän ihmisen kanssa. Tämä antaa mahdollisuuden luoda tietojärjestelmiä, jotka pystyvät ymmärtämään paremmin, mitä henkilö haluaa heiltä, ja vastaamaan hänelle luonnollisella kielellä.

Mainosvideo:

Keskustelutietoa voidaan käyttää automatisoimaan monia ääni- ja tekstirajapintoja, mukaan lukien lähettimet, kuten sähke. Lähettiläitä, kuten tilastot osoittavat, käytetään nykyään aktiivisemmin kuin sosiaalisia verkostoja, ja erittäin suuri määrä tietoa kulkee tekstiviestikanavien kautta.

Esimerkiksi niitä on kätevä käyttää liikenteessä, ja lisäämällä interaktiivinen avustaja - chat-botti - käyttäjät voivat paitsi kommunikoida keskenään myös saada tarvittavat tiedot, tehdä ostoksia ja tehdä monia muita asioita. Tämä johtaa siihen, että pikaviestit ja puheavustajat korvaavat vähitellen tavalliset verkkosivut ja sovellukset, ja niillä on myös online-konsulttien ja puhelinkeskuksen asiantuntijoiden rooli.

Voiko Venäjä kilpailla täällä ottaen huomioon Applen, Googlen ja Amazonin läsnäolon näillä markkinoilla? Onko venäjän kielessä erityistä tietoa, joka voisi estää venäläisten yritysten ja tutkijoiden mahdollisia kilpailijoita?

- Venäjän kieli on tietysti monimutkaisempi, ja joitain menetelmiä, joita käytetään nykyään dialogijärjestelmien ja ääniavustajien kehittämisessä maailmassa, ei voida soveltaa ilman tarkennuksia ja merkittäviä muutoksia, jotka antaisivat heidän työskennellä rikkaamman kieliopin kanssa.

Toisaalta Sirin, Cortanan, Googlen ja muiden digitaalisten avustajien työssä käytettyjä perusalgoritmeja ei kukaan piilota - ne ovat käytettävissä ainakin tutkimuksen ja käsitteiden tasolla. Tutkimuspaperit ja ohjelmasäännöt ovat usein julkisesti saatavilla - periaatteessa ne voidaan mukauttaa venäjänkielisiksi.

Mikhail Burtsev, MIPT: n hermosysteemien ja syvällisen oppimisen laboratorion johtaja
Mikhail Burtsev, MIPT: n hermosysteemien ja syvällisen oppimisen laboratorion johtaja

Mikhail Burtsev, MIPT: n hermosysteemien ja syvällisen oppimisen laboratorion johtaja

Lisäksi ei ole paljon yrityksiä toteuttaa tätä "teollisella" tasolla. Ainoa merkittävä projekti on Yandex, joka kehittää avustajaa Alice-projektiin.

Projektissamme yritämme luoda työkaluja, jotka yksinkertaistavat ja nopeuttavat sellaisten "teollisten" valintaikkunoiden luomista, jotka on suunniteltu moniin tarkoituksiin. Mutta sellaisen universaalin ääniavustajan kehittäminen, joka pystyy ratkaisemaan kaikki ongelmat, on erittäin vaikea tehtävä myös suurille yrityksille.

Toisaalta erikoistunutta vuoropuhelujärjestelmää käyttävän pienyrityksen automatisointi on paljon helpompaa toteuttaa. Toivomme, että luomamme työkalut auttavat yrittäjiä ja ohjelmoijia ratkaisemaan tällaiset ongelmat riittävän nopeasti, ilman syvällistä tietämystä ja ilman suuria ponnisteluja.

Monet tiedemiehet, kuten Roger Penrose tai Stuart Hameroff, uskovat, että ihmismieli on luonteeltaan kvanttia ja sen koneen analogia on periaatteessa mahdotonta rakentaa. Oletko samaa mieltä heidän kanssaan vai ei?

- Mielestäni, jos tarkastellaan sitä, mitä tiedämme tänään aivojen rakenteesta ja ihmistietoisuuden luonteesta, meillä ei toistaiseksi ole mitään perustavaa estettä sen teoksen toistamiseksi tietokoneella.

Penrose ja Hameroff esittävät joukon hypoteeseja, joiden uskotaan selittävän, miksi tätä ei voida tehdä. Toistaiseksi neurofysiologit eivät ole löytäneet kokeellisia todisteita näiden hypoteesien oikeellisuudesta, ja nykyinen tietopohja puhuu päinvastaisesta.

Toinen asia on, että ajanjakso, jolloin tällainen kone luodaan, ei ole vielä täysin määritelty. Minusta tuntuu, että tämä voi tapahtua vähintään 50 tai jopa 100 vuoden kuluttua.

Tarvitseeko tämä pohjimmiltaan uutta tekniikkaa ja tietokoneita, jotka ovat toimintaperiaatteissaan lähempänä neuroneja kuin digitaalista logiikkaa?

- Jos uskomme, että ihmisen älykkyys perustuu johonkin laskentamuotoon, niin mikä tahansa Turingin konetta vastaava yleinen laskentajärjestelmä voi teoriassa jäljitellä ihmisen aivojen työtä.

Toinen asia on, että tämä kone voi toimia hyvin hitaasti, mikä tekee siitä hyödytön käytännön näkökulmasta. Nykyään on vaikea arvata, mitä tekniikoita tietokoneiden rakentamiseen tarvitsemme täällä.

Mitä muita tehtäviä digitaaliset avustajat voivat ratkaista tänään tekemiensä asioiden lisäksi? Voidaanko niitä käyttää kuolleiden kielten tai salakirjoitusten, kuten Voynichin käsikirjoituksen, salaamiseen?

- Sikäli kuin tiedän, kukaan ei ole yrittänyt käyttää hermoverkkoja kuolleiden kielten salaisuuksien paljastamiseen ja tekstien salaamiseen, mutta minusta tuntuu, että joku yrittää tehdä sen lähitulevaisuudessa. Emme puolestaan ole vielä kiinnostuneet sellaisista asioista.

"Helper" on itse asiassa hyvin laaja käsite, joka voi sisältää monia hyvin erilaisia asioita. Jos otamme esimerkiksi saman ELIZAn, virtuaalisen "psykoterapeutin", herää kysymys: onko hän avustaja vai ei?

Vuoropuhelujärjestelmiä voidaan käyttää paitsi käytännön ongelmien ratkaisemiseen myös ihmisten viihdyttämiseen tai mielialan ylläpitämiseen. Itse asiassa kysymys on, mitä tarkoitamme henkilökohtaisen avustajan käsitteellä ja kuinka laaja tai kapea se on. Laajimmassa merkityksessä tällaiset järjestelmät voivat ratkaista kaikki viestintään liittyvät kysymykset, vaikkakin vaihtelevalla menestyksellä.

Keskustelurajapintoja voidaan suoran viestinnän kanssa ihmisten lisäksi opettaa koneita löytämään nopeasti yhteinen kieli ja siirtämään tietoja järjestelmästä toiseen.

Tämä kiertää ongelman luoda linkkejä ja siirtää tietoja olemassa olevien ja luotujen palvelujen välillä, koska niiden ei tarvitse tietää toistensa API-määrityksiä kommunikoida keskenään. He voivat vaihtaa tietoja käyttämällä luonnollisia kieliä tai omaa keinotekoista kieltään, jonka koneet tai ihmiset keksivät tällaisiin tarkoituksiin.

Karkeasti sanottuna jopa toisilleen "tuntemattomat" järjestelmät pystyvät sopimaan yhteisestä viestintäkielestä eikä kiinteistä tietojenvaihtosäännöistä. Jos he eivät ymmärrä jotain, he voivat kysyä toisiltaan tuntemattomista asioista, mikä tekee koko Internetin palvelujen ja palveluiden tarjoamisen infrastruktuurista uskomattoman joustavan ja antaa sen integroida uudet palvelut nopeasti ilman ihmisten apua.

Tältä osin herää kysymys - kenen tulisi olla vastuussa "psykoterapeutti" ELIZA: n suosituksista, tietokonelääkäreistä ja muista ääni-avustajista, joiden neuvot voivat vaikuttaa suuresti ihmisen hyvinvointiin ja terveyteen?

- Tämä on hyvin vaikea kysymys, koska tänään ei ole selkeitä kriteerejä, jotka auttaisivat meitä ymmärtämään, miten toimimme tällaisissa tapauksissa. Monet Internet-palvelut ja suosituksia käyttäjille tarjoavat palvelut alkavat toimia vasta sen jälkeen, kun käyttäjä on hyväksynyt palvelun ehdot ja seuraukset, joita voi syntyä työskennellessään.

Minusta tuntuu, että chat-robottien ja ääni-avustajien työtä - ainakin heidän olemassaolonsa alkuvaiheessa - voitaisiin säännellä samalla tavalla. Esimerkiksi, jos botti vain etsii ja analysoi tietoja toimimalla samalla tavalla kuin hakukone, siihen voidaan soveltaa samoja sääntöjä. Jos hän antaa lääketieteellistä tai oikeudellista neuvontaa, vastuun muodon tulisi olla erilainen.

Tällaisten järjestelmien tulisi esimerkiksi ilmoittaa käyttäjälle selkeästi keinotekoisen älykkyyden ja tavallisen lääkärin valinnan seurauksista. Henkilöllä on valinta - luottaa lääkäriin, joka on esimerkiksi väärässä 10 prosentissa tapauksista, tai lyödä vetoa koneesta, joka antaa väärän vastauksen 3 prosentissa tapauksista. Ensimmäisessä tapauksessa lääkäri on vastuussa virheestä ja toisessa käyttäjä itse.

Viime vuonna Microsoft lanseerasi Tay. AI-chatbotin, jonka se oli kytkettävä pois päältä kirjaimellisesti päivää myöhemmin, koska verkkokäyttäjät tekivät teini-ikäisestä tytöstä todellisen rasistisen. Onko mahdollista suojata tällaisia vuoropuhelujärjestelmiä peikoilta ja kepponenilta?

- Minusta näyttää siltä, että voit puolustaa itseäsi, mutta onko sen tekemisen arvoinen, riippuu järjestelmän tarkoituksesta. On selvää, että jos järjestelmän ei pitäisi antaa mitään erityisiä huomautuksia - epäkohteliaita tai äärimmäisiä, voimme suodattaa sen vastaukset. Tämä suodatus voi tapahtua joko järjestelmän koulutusvaiheessa tai jo vastausten muodostamisen aikana.

Muuten samanlainen tehtävä vuoropuhelun laadun arvioimiseksi ratkaistiin joukkueiden kanssa muutama viikko sitten MIPT: ssä pidetyn DeepHack Turingin tieteellisen kouluhackathonin puitteissa. Sen osallistujat kehittivät algoritmeja, jotka voisivat ennustaa vuoropuhelun vihjeistä, minkälaisen arvion henkilö antaisi dialogijärjestelmälle.

Seuraava askel tämän lähestymistavan kehittämisessä on sellaisen ohjelman luominen, joka arvioi lauseiden hyväksyttävyyden tai käyttäjien kyselyihin vastausten tuottamiseen käytettyjen lähteiden luotettavuuden. Minusta tuntuu, että se auttaisi ratkaisemaan tämän ongelman.