Keinotekoinen äly On Oppinut Tunnistamaan Tunteet. Mitä Tämä Voi Johtaa? - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Keinotekoinen äly On Oppinut Tunnistamaan Tunteet. Mitä Tämä Voi Johtaa? - Vaihtoehtoinen Näkymä
Keinotekoinen äly On Oppinut Tunnistamaan Tunteet. Mitä Tämä Voi Johtaa? - Vaihtoehtoinen Näkymä

Video: Keinotekoinen äly On Oppinut Tunnistamaan Tunteet. Mitä Tämä Voi Johtaa? - Vaihtoehtoinen Näkymä

Video: Keinotekoinen äly On Oppinut Tunnistamaan Tunteet. Mitä Tämä Voi Johtaa? - Vaihtoehtoinen Näkymä
Video: Alustus tunteensäätelyn taitoihin 2024, Saattaa
Anonim

Keinoälyn kehitys 2000-luvulla etenee harppauksin: Yksi sen tärkeimmistä saavutuksista on kyky tunnistaa ihmisen tunteet. AI: n kehittämistä koskevassa vuosikertomuksessaan AI Nyt -yhteiskunnan sosiaalisia seurauksia selvittävä monitieteinen tutkimuskeskus kehotti kieltämään tämän tekniikan käytön tietyissä tapauksissa. Asiantuntijoiden mukaan AI-taitoa tunteiden tunnistamisessa ei pidä soveltaa päätöksiin, jotka vaikuttavat ihmisten ja koko yhteiskunnan elämään. Miksi robottien kyky erottaa tunteet voi muuttaa merkittävästi ihmiskunnan tavallista elämää?

Robottien kyky tunnistaa ihmisen tunteet voivat vaikuttaa negatiivisesti nykyaikaiseen yhteiskuntaan
Robottien kyky tunnistaa ihmisen tunteet voivat vaikuttaa negatiivisesti nykyaikaiseen yhteiskuntaan

Robottien kyky tunnistaa ihmisen tunteet voivat vaikuttaa negatiivisesti nykyaikaiseen yhteiskuntaan.

Voiko robotti kehittää empatiaa?

Tietokonenäköalgoritmit, jotka kykenevät tunnistamaan tietyt tunteet, ovat olleet planeetalla ainakin pari vuosikymmentä. Tämä tekniikka perustuu tietoihin, jotka on saatu koneoppimisesta - erityisistä algoritmeista, jotka käsittelevät tietoja parhaan päätöksenteon saavuttamiseksi. Kaikista robotiikan edistyksistä huolimatta kyky toistaa tämä todella inhimillinen taito on edelleen melko haastava. Microsoftin asiantuntijat huomauttavat, että ihmisten tunteiden tunnistaminen tietokoneiden avulla voi luoda useita uuden sukupolven sovelluksia, mutta niiden tunnistamisvaikeuksien vuoksi AI on jo kauan osoittanut virheellisiä tuloksia. Uusi tutkimus kuitenkin osoittaaettä moderni tekniikka auttaa jo rekrytointitoimistoja arvioimaan tulevan työntekijän potentiaalista tuottavuutta haastatteluvaiheessa. Joten haastattelujen videotallenteiden analysointi viimeisimmän tekniikan avulla on jo käynnissä, jotta johtajat voivat saada paremman kuvan alaistensa tunnetilasta.

Älykkyyden kehittäminen AI: ssä voi aiheuttaa monia eettisiä ja moraalisia ongelmia
Älykkyyden kehittäminen AI: ssä voi aiheuttaa monia eettisiä ja moraalisia ongelmia

Älykkyyden kehittäminen AI: ssä voi aiheuttaa monia eettisiä ja moraalisia ongelmia.

AI: n jatkuvan seurannan helppous herättää monia eettisiä haasteita. Henkilökohtaisten tietojen luottamuksellisuuteen liittyy tällä hetkellä suuri joukko kysymyksiä, jotka voivat aiheuttaa kielteisiä yleisön asenteita. Nämä eettiset näkökohdat huomioon ottaen keinotekoisen älykkyyden käyttö arkielämässä voi samalla olla epäluotettavaa, vaikka se voi auttaa rekrytoinnissa tai rikostuomioissa. Esimerkiksi, jos järjestelmät oppivat puolueellisuudesta, AI: n hyödyt haastattelujen tai tuomioiden yhteydessä voidaan minimoida.

Viime kädessä teknologian kehittäjien ja koko yhteiskunnan on tarkkailtava tarkkaan, kuinka AI-järjestelmistä saatava tieto syötetään päätöksentekoprosesseihin. Kuten mikä tahansa muu älykkyysmuoto, keinotekoiset järjestelmät voivat antaa vääriä tuloksia, jotka voivat vaikuttaa negatiivisesti yksilön tai koko yhteiskunnan elämään. Lisäksi nykyaikaisella AI: lla on merkittäviä teknisiä vaikeuksia lukea tiettyjä tunteita, esimerkiksi itseluottamus. Jos ihmiset, jotka ovat taipuvaisia luottamaan tekoälyyn, tekevät päätöksiä AI: n virheellisen mielipiteen perusteella, yhteiskunnalla voi olla erittäin suuria ongelmia, jotka voidaan estää vain suunnittelemalla näihin järjestelmiin sellaisia ominaisuuksia kuin oikeudenmukaisuus, avoimuus ja etiikka. Toisin sanoen,Ennen kuin älykkäät järjestelmät voivat oppia tuntemaan oikein, tutkijoiden on ensin työskenneltävä lujasti tekoälyn moraalisen koodin luomiseksi.

Mainosvideo:

Kirjoittaja: Daria Eletskaya