Moraalikone: Insinöörit Antoivat Tekoälylle Moraalin Ja Etiikan - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Moraalikone: Insinöörit Antoivat Tekoälylle Moraalin Ja Etiikan - Vaihtoehtoinen Näkymä
Moraalikone: Insinöörit Antoivat Tekoälylle Moraalin Ja Etiikan - Vaihtoehtoinen Näkymä

Video: Moraalikone: Insinöörit Antoivat Tekoälylle Moraalin Ja Etiikan - Vaihtoehtoinen Näkymä

Video: Moraalikone: Insinöörit Antoivat Tekoälylle Moraalin Ja Etiikan - Vaihtoehtoinen Näkymä
Video: Etiikkaa 2024, Saattaa
Anonim

Mitä vahvempi tekoäly tulee jokapäiväiseen elämäämme, sitä useammin sen on kohdattava monimutkaisia moraalisia ja eettisiä ongelmia, joita elävän ihmisen ei joskus ole niin helppo ratkaista. MIT: n tutkijat yrittivät ratkaista tämän ongelman ja antoivat koneelle kyvyn ajatella moraalia useimpien elävien ihmisten mielipiteiden perusteella.

Jotkut asiantuntijat uskovat, että paras tapa kouluttaa tekoälyä käsittelemään moraalisesti vaikeita tilanteita on "väkijoukkokokemuksen" käyttö. Toiset väittävät, että tämä lähestymistapa ei ole ilman ennakkoluuloja, ja erilaiset algoritmit voivat tehdä erilaisia johtopäätöksiä saman tietojoukon perusteella. Kuinka koneet voivat olla tällaisessa tilanteessa, jonka on luonnollisesti tehtävä vaikeita moraalisia ja eettisiä päätöksiä työskennellessään todellisten ihmisten kanssa?

Äly ja moraali

Tekoälyjärjestelmien (AI) kehittyessä asiantuntijat yrittävät yhä enemmän ratkaista ongelman siitä, miten parhaiten antaa järjestelmälle eettinen ja moraalinen perusta tiettyjen toimien toteuttamiselle. Suosituin idea on tekoälyn tehdä johtopäätöksiä tutkimalla ihmisen päätöksiä. Tämän oletuksen testaamiseksi Massachusettsin teknillisen instituutin tutkijat loivat moraalikoneen. Sivuston kävijöitä pyydettiin tekemään valintoja siitä, mitä autonomisen ajoneuvon pitäisi tehdä, kun he joutuvat kohtaamaan melko vaikean valinnan. Esimerkiksi tämä on tuttu ongelma mahdollisesta onnettomuudesta, jolla on vain kaksi vaihtoehtoa tapahtumien kehittymiselle: auto voi lyödä kolme aikuista kahden lapsen hengen pelastamiseksi tai päinvastoin. Mikä vaihtoehto sinun pitäisi valita? Ja onko mahdollista esimerkiksiuhrata vanhuksen elämä raskaana olevan naisen pelastamiseksi?

Tämän seurauksena algoritmi kootti testituloksiin perustuvan valtavan tietokannan, ja Ariel Procaccia Carnegie Mellonin yliopiston tietojenkäsittelytieteen osastolta päätti käyttää niitä koneen älykkyyden parantamiseen. Uudessa tutkimuksessa hän ja yksi projektin tekijöistä, Iyad Rahwan, latasivat Moral Machine -projektin täydellisen perustan tekoälyyn ja pyysivät järjestelmää ennustamaan, kuinka autopilotilla varustettu auto reagoisi vastaaviin, mutta silti hieman erilaisiin tilanteisiin. Procaccia halusi osoittaa, kuinka äänestyspohjainen järjestelmä voi olla ratkaisu”eettiselle” tekoälylle.”Teoksen kirjoittaja itse myöntää, että tällaista järjestelmää on tietysti vielä liian aikaista soveltaa käytännössä, mutta se osoittaa erinomaisesti juuri sen käsitteen, että on mahdollista.

Risti moraali

Mainosvideo:

Ajatus kahden moraalisesti negatiivisen lopputuloksen valitsemisesta ei ole uusi. Etiikassa käytetään sille erillistä termiä: kaksoisvaikutuksen periaate. Mutta tämä on bioetiikan ala, mutta kukaan ei ole aiemmin soveltanut tällaista järjestelmää autoon, ja siksi tutkimus herätti erityistä kiinnostusta asiantuntijoiden keskuudessa ympäri maailmaa. OpenAI: n yhteispuheenjohtaja Elon Musk uskoo, että "eettisen" tekoälyn luominen on selkeiden ohjeiden tai politiikkojen kehittäminen ohjelmasuunnittelun ohjaamiseksi. Poliitikot kuuntelevat häntä vähitellen: esimerkiksi Saksa loi maailman ensimmäiset eettiset periaatteet autonomisille autoille. Jopa Googlen aakkoset AI DeepMindillä on nyt etiikka- ja julkisen moraalin osasto.

Muut asiantuntijat, mukaan lukien Duke-yliopiston tutkijaryhmä, uskovat, että paras tapa edetä on luoda "yleinen kehys", joka kuvaa kuinka tekoäly tekee eettisiä päätöksiä tietyssä tilanteessa. He uskovat, että kollektiivisten moraalisten näkemysten yhdistäminen, kuten samassa Moraalikoneessa, tekee tekoälystä tulevaisuudessa vieläkin moraalisempaa kuin moderni ihmisyhteiskunta.

"Moraalikoneen" kritiikki

Oli miten on, tällä hetkellä "enemmistön mielipiteen" periaate on kaukana luotettavasta. Esimerkiksi yhdellä vastaajaryhmällä voi olla ennakkoluuloja, jotka eivät ole yhteisiä kaikille muille. Tuloksena on, että tekoälyt, joille on annettu täsmälleen sama tietojoukko, voivat tehdä erilaisia johtopäätöksiä kyseisen tiedon eri otosten perusteella.

Professori James Grimmelmannille, joka on erikoistunut ohjelmistojen, vaurauden ja vallan väliseen dynamiikkaan, jo julkisen moraalin idea näyttää olevan virheellinen. "Se ei kykene opettamaan tekoälyn etiikkaa, vaan antaa hänelle vain näennäisen eettisen standardin, joka on ominaista tietylle osalle väestöä", hän sanoo. Ja Procaccia itse, kuten edellä mainittiin, myöntää, että heidän tutkimuksensa ei ole muuta kuin onnistunut todiste konseptista. Hän on kuitenkin varma, että tällainen lähestymistapa voi tuoda menestystä koko kampanjalle erittäin moraalisen tekoälyn luomiseksi tulevaisuudessa. "Demokratialla on epäilemättä useita puutteita, mutta yhtenäisenä järjestelmänä se toimii - vaikka jotkut ihmiset tekisivätkin päätöksiä, joihin enemmistö ei ole samaa mieltä."

Vasily Makarov