Milloin Tekoäly Alkaa Ymmärtää Ihmisen Tunteita? - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Milloin Tekoäly Alkaa Ymmärtää Ihmisen Tunteita? - Vaihtoehtoinen Näkymä
Milloin Tekoäly Alkaa Ymmärtää Ihmisen Tunteita? - Vaihtoehtoinen Näkymä

Video: Milloin Tekoäly Alkaa Ymmärtää Ihmisen Tunteita? - Vaihtoehtoinen Näkymä

Video: Milloin Tekoäly Alkaa Ymmärtää Ihmisen Tunteita? - Vaihtoehtoinen Näkymä
Video: Cristina Andersson // Robotiikkaa ja tekoälyä 2019 2024, Huhtikuu
Anonim

Luottaisitko robottiin, jos se olisi lääkärisi? Emotionaaliset älykkäät koneet eivät ehkä ole niin kaukana meistä kuin miltä ne vaikuttavat. Viime vuosikymmeninä keinotekoinen äly on dramaattisesti lisännyt kykyä lukea ihmisten emotionaalisia vastauksia.

Mutta tunteiden lukeminen ei tarkoita niiden ymmärtämistä. Jos AI itse ei voi kokea niitä, pystyykö se koskaan ymmärtämään meidät täysin? Ja jos ei, vaarannammeko omistaa ominaisuuksia roboteille, joita heillä ei ole?

Uusimman sukupolven tekoäly kiittää meitä jo nyt kasvavasta tietotekniikan määrästä, josta tietokoneet voivat oppia, sekä prosessointitehon kasvusta. Näitä koneita parannetaan vähitellen asioissa, jotka yleensä annimme yksinomaan ihmisille teloitusta varten.

Image
Image

Nykyään tekoäly voi muun muassa tunnistaa kasvot, muuttaa kasvojen luonnokset valokuviksi, tunnistaa puheen ja toistaa Go.

Rikollisten tunnistaminen

Ei niin kauan sitten, tutkijat kehittivät tekoälyn, joka voi kertoa jos henkilö on rikollinen pelkästään katsomalla hänen kasvojensa piirteitä. Järjestelmää arvioitiin kiinalaisten valokuvien tietokannan avulla ja tulokset olivat yksinkertaisesti upeita. AI luokitteli virheellisesti viattomia ihmisiä rikollisiksi vain 6 prosentilla tapauksista ja tunnisti onnistuneesti 83 prosenttia rikollisista. Yleinen tarkkuus oli lähes 90%.

Mainosvideo:

Tämä järjestelmä perustuu "syvälle oppimiseen" kutsuttuun lähestymistapaan, joka on osoittautunut menestyväksi esimerkiksi kasvojentunnistuksessa. Syvä oppiminen yhdistettynä "kasvojen pyörimismalliin" antoi keinotekoiselle älykkyydelle mahdollisuuden selvittää, edustavatko kaksi valokuvaa samaa ihmisen kasvoja, vaikka valaistus tai kulma muuttuisi.

Syvä oppiminen luo "hermoverkon", joka perustuu ihmisen aivojen likiarvoon. Se koostuu sadoista tuhansista neuroneista, jotka on järjestetty eri kerroksiin. Jokainen kerros vie tulotiedot, kuten kasvokuvan, korkeammalle abstraktiotasolle, kuten joukko reunoja tietyissä suunnissa ja paikoissa. Ja se korostaa automaattisesti ominaisuudet, jotka ovat eniten merkityksellisiä tietyn tehtävän suorittamisessa.

Syvän oppimisen onnistumisen vuoksi ei ole yllättävää, että keinotekoiset hermostoverkot voivat erottaa rikolliset viattomista - jos näiden kahden välillä on todellakin kasvojen piirteitä. Tutkimus antoi mahdollisuuden erottaa kolme ominaisuutta. Yksi on nenän kärjen ja suun suun kulmien välinen kulma, joka on keskimäärin 19,6% vähemmän rikollisilla. Ylähuulen kaarevuus on myös rikollisilla keskimäärin 23,4% suurempi, ja silmien sisäkulmien välinen etäisyys on keskimäärin 5,6% kapeampi.

Ensi silmäyksellä tämä analyysi viittaa siihen, että vanhentunut näkemys siitä, että rikolliset voidaan tunnistaa fyysisten ominaisuuksien perusteella, ei ole niin väärä. Tämä ei kuitenkaan ole koko tarina. Huomattavana on, että kaksi tärkeintä ominaisuutta liittyvät huuliin, ja nämä ovat ilmeisimpiä kasvoominaisuuksiamme. Tutkimuksessa käytetyt rikollisten valokuvat vaativat neutraaleja ilmeitä, mutta AI onnistui kuitenkin löytämään piilotetut tunteet näistä valokuvista. Ehkä niin merkityksetön, että ihmiset eivät pysty havaitsemaan niitä.

Image
Image

On vaikea vastustaa kiusausta katsoa itse näytevalokuvia - tässä ne ovat. Asiakirjaa tarkistetaan edelleen. Tiivis tutkimus osoittaa hiukan viattomien valokuvista. Mutta näytteissä ei ole paljon valokuvia, joten on mahdotonta tehdä johtopäätöksiä koko tietokannasta.

Afektiivisen laskennan voima

Tämä ei ole ensimmäinen kerta, kun tietokone on kyennyt tunnistamaan ihmisen tunteet. "Afektiivisen laskennan" tai "tunnelaskennan" ns. Alue on ollut olemassa jo kauan. Uskotaan, että jos haluamme elää mukavasti ja olla vuorovaikutuksessa robotien kanssa, näiden koneiden on kyettävä ymmärtämään ihmisen tunteita ja vastaamaan niihin riittävästi. Mahdollisuudet tällä alueella ovat melko laajat.

Esimerkiksi tutkijat käyttivät kasvojen analysointia tunnistaakseen opiskelijat, joilla on vaikeuksia tietokonepohjaisissa opetuskursseissa. AI: lle on opetettu tunnistamaan sitoutumisen ja turhautumisen eri tasot, jotta järjestelmä ymmärtää, kun opiskelijat löytävät työtä liian helpoksi tai liian monimutkaiseksi. Tämä tekniikka voi olla hyödyllinen oppimiskokemuksen parantamiseksi online-alustoilla.

Sony yrittää kehittää robotin, joka pystyy muodostamaan emotionaalisia siteitä ihmisten kanssa. Ei ole vielä selvää, kuinka hän aikoi saavuttaa tämän tai mitä robotti tarkalleen tekee. Yhtiö kuitenkin sanoo yrittävänsä "integroida laitteita ja palveluita tarjotakseen emotionaalisesti vertailukelpoisen kokemuksen".

Emotionaalisella tekoälyllä on useita potentiaalisia etuja, olipa kyse sitten keskustelukumppanin tai esiintyjän roolista - se pystyy tunnistamaan rikollisen ja puhumaan hoidosta.

On myös eettisiä huolenaiheita ja riskejä. Olisiko oikein antaa dementiapotilaan luottaa AI-seuralaiseen ja kertoa heille, että he ovat henkisesti elossa, kun he eivät ole? Voitko laittaa henkilön baarien taakse, jos AI sanoo olevansa syyllinen? Ei tietenkään. Tekoäly ei ensinnäkään ole tuomari, vaan tutkija, joka tunnistaa "epäilyttävät", mutta ei varmasti syyllisiä.

Subjektiivisia asioita, kuten tunteita ja tunteita, on vaikea selittää tekoälylle osittain siksi, että AI: llä ei ole riittävän hyviä tietoja objektiivisen analysoinnin kannalta. Ymmärränkö AI koskaan sarkasmia? Yksi lause voi olla sarkastinen yhdessä yhteydessä ja täysin erilainen toisessa.

Joka tapauksessa datan ja käsittelytehon määrä kasvaa edelleen. Muutamia poikkeuksia lukuun ottamatta AI voi hyvinkin oppia tunnistamaan erityyppisiä tunteita seuraavien vuosikymmenien aikana. Mutta voisiko hän koskaan kokea heidät itse? Se on kiistanalainen kohta.

ILYA KHEL