Onko Tekoäly Aina Objektiivinen Ja Haluaa Miellyttää Ihmistä - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Onko Tekoäly Aina Objektiivinen Ja Haluaa Miellyttää Ihmistä - Vaihtoehtoinen Näkymä
Onko Tekoäly Aina Objektiivinen Ja Haluaa Miellyttää Ihmistä - Vaihtoehtoinen Näkymä

Video: Onko Tekoäly Aina Objektiivinen Ja Haluaa Miellyttää Ihmistä - Vaihtoehtoinen Näkymä

Video: Onko Tekoäly Aina Objektiivinen Ja Haluaa Miellyttää Ihmistä - Vaihtoehtoinen Näkymä
Video: Mitä on tekoäly? FabricAI 2024, Saattaa
Anonim

Kuinka tietokoneet tekevät outoja päätöksiä

Keinotekoinen äly kehittyy niin nopeasti, että monet alkavat tuntea ahdistusta: jos se pian kokee tunteita ja tekee omat päätöksensä. Olipa kyse robotista, itsenäisestä ajoneuvosta tai päättäjästä kaupassa ja tieteessä: tekoäly tunkeutuu elämämme ja yhteiskunnan kaikkiin alueisiin. Koneen aivoja pidetään loogisina, tunteettomina ja puolueettomina, mutta käytäntö osoittaa, että ne eivät aina päätä kaikkea avoimesti.

Image
Image

Keinotekoinen älykkyys on välttämätöntä, kun on tärkeää tunnistaa suurten tietomäärien mallit ja tehdä niiden perusteella päätöksiä. Mutta tulevaisuudessa tekoälyjärjestelmiä voidaan käyttää myös alueilla, joilla hyvinvointimme ja jopa elämämme ovat suoraan riippuvaisia päätelmistä - lääketieteessä, työpaikkojen valinnassa, lainojen myöntämisessä ja oikeudenmukaisuudessa.

Kuinka objektiivisesti ja moraalisesti oikein tekoäly tekee päätöksen? Voimmeko todella luottaa koneaivoihin tällaisten mahdollisesti tärkeiden päätösten tekemisessä?

Keinotekoista älykkyyttä käytetään kaikilla alueilla

Jo nyt mukautuvia algoritmeja käytetään monilla arkipäivän alueilla. Äänikomentojen ja kysymysten ymmärtämiseen on olemassa digitaalisia avustajia. Internetissä web-robotit auttavat ylläpitämään ja hallitsemaan verkkosivustoja siten, että niitä on vaikea erottaa ihmisistä. Vaikka vääriä uutisia ja kuvankäsittelyjä havaitaan, tekoälyjärjestelmät ovat mukana.

Mainosvideo:

Image
Image

AI-järjestelmät tekevät työnsä myös teollisuudessa, liike-elämässä ja jopa hallituksessa. Ne optimoivat ja hallitsevat tuotantoprosesseja, säätelevät konttisatamien ja suurten varastojen logistiikkaa tai pitävät kirjanpitoa. Vakuutusyhtiöillä ja pankeilla on jo ensimmäiset älykkäät ohjelmat toimitettujen hakemusten tarkistamiseksi tai maksujen ratkaisemiseksi. Ikeassa, Deutsche Telekomissa ja monissa muissa yrityksissä, UNICEF: ssä tai kirjastoissa, virtuaaliassistentit ovat mukana asiakaspalvelussa.

Suuri määrä tietoa käsitellään koulutusta varten

Kaikki tämä on mahdollista ansiosta AI-järjestelmien kyky analysoida nopeasti valtavia määriä tietoja, tunnistaa malleja ja korrelaatioita. Esimerkiksi algoritmi oppii lukemattomista valokuvista lemmikkeistä, joilla on vastaavat nimet. Harjoittelujakson jälkeen järjestelmä voi valita täysin uusia valokuvia halutuista lajeista. Se tunnistaa erot yksinään.

Image
Image

Monet muut AI-järjestelmät käyttävät tekstiä oppimisen perustana. He arvioivat sanan tilannetta ja tutkivat sen semanttista merkitystä sekä suhteita vastaaviin sanoihin tai synonyymeihin. Nämä semanttiset suhteet kääntävät ohjelmat matemaattisiksi lausekkeiksi ja oppivat siten jopa monimutkaisia semanttisia konteksteja.

Vain tämän kyvyn ansiosta tekoäly voi esimerkiksi arvioida lääketieteellisiä tietoja ja potilastietoja ja päätellä niistä kliinisten kuvien ominaisuudet. Näiden tulosten perusteella AI-järjestelmiä käytetään jo diagnostisina apuvälineinä, ja ne tunnistavat erilaisia syöpätyyppejä, Alzheimerin taudin merkkejä, itsemurhaolosuhteet ja diabeteksen vaaralliset sokeripitoisuudet.

Mutta niin houkuttelevalta kuin miltä se kuulostaa, yhä useammalla AI: llä on iso haittapuoli. Mitä enemmän tekoäly tunkeutuu käytännössä kaikkiin yhteiskuntiemme piireihin, sitä suurempia sen päätösten mahdolliset seuraukset ovat. Henkilön taloudellinen tai ammatillinen tulevaisuus tai jopa hänen elämänsä riippuu hänen arvostuksestaan.

AI-ratkaisut, jotka voivat maksaa ihmishenkiä

Esimerkiksi, jos AI-diagnoosi diagnosoidaan lääketieteessä väärin tutkimatta, potilas voi mennä väärään hoitoon tai jopa kuolla. Armeija käyttää itsenäistä asejärjestelmää, joka tekee vääriä päätöksiä. Esimerkiksi AI ei voi erottaa pakenevaa ystävää vihollisesta, viattomasta kuolemasta.

Image
Image

AI-algoritmeja käytetään jo Yhdysvaltojen tuomioistuimissa. He ennustavat rikoksentekijöiden uusiutumisen todennäköisyyden tuomioistuimessa. Heidän arviointi vaikuttaa usein tuomioistuimen päätökseen ja siten tuomitun tuomioon.

Jos AI päättää lainoista

Samoin rahoitus- ja vakuutuspäätös voi vaikuttaa siihen, saako henkilö lainaa vai ei. Nämä järjestelmät koulutetaan yleensä tietokantoja käyttämällä.

Image
Image

Ja täällä AI etsii malleja: mitkä ihmiset yleensä maksavat takaisin lainansa ja mitkä eivät? Hän kehittää arviointimenettelyjään ja tekee asianmukaiset päätökset. Tämä tarkoittaa erityisesti sitä, että väärässä asuinpaikassa tai ammatissa olevat ihmiset eivät saa lainoja huolimatta siitä, kuinka paljon he ovat valmiita maksamaan näistä olosuhteista huolimatta.

Tällaisella vastuunjaolla tietokoneiden kanssa henkilö on vain avustaja verkkoaivojen päätösten toteuttamisessa. Ja tämä tapahtuu jo.

Kuka on vastuussa virheistä?

Toinen ongelma AI: n kehittämisessä: mitä monimutkaisempia päätöksenteon periaatteet, sitä vaikeampi ihmisillä on niiden ymmärtäminen. Se herättää myös kysymyksen siitä, kuka on vastuussa virheistä.

Onnettomuustapauksia, kun autolla ajetaan autopilotilla, on yleistynyt: kuka on syyllinen siihen, että joitain tilanteita ei ole tallennettu muistiin tai AI tekee väärät johtopäätökset. Tai ehkä hän tekee omat päätelmänsä? Tällaisia esimerkkejä on jo olemassa.

Pelaavat robotit ovat kehittäneet omat säännöt pelin aikana

Tätä tutkimusta varten tutkijat antoivat 100 älykkäälle robotille olla vuorovaikutuksessa keskenään käyttöoikeuspelissä. Jokaisen heistä on päätettävä, lahjoittavatko he jotakin joukkueestaan tai pelin osanottajalle ulkopuolelta.

Image
Image

Yllättäen ajan myötä robotit ovat poistuneet yhä enemmän ulkopuolisista ryhmistä ja lahjoittavat vain joukkueen jäsenille.

Image
Image

Syynä tähän: älykkäät robotit mukauttivat pelistrategiaansa kopioimalla eniten rahaa keränneiden ja menestyneimpien tovereiden käyttäytymistä. Siten syntyi bottiryhmiä, jotka käyttäytyivät samalla tavalla ja sulkivat jatkuvasti pois etuyhteydettömät peliin osallistujat. Luomalla jatkuvasti jotain, joka laskee, analysoi ja tekee päätöksiä nopeammin kuin se, ihmiskunta menettää jonain päivänä hallinnan luomisestaan, minkä toimiin se ei pysty seuraamaan.

Tutkijoiden mukaan tämä on ilmeistä: tekoäly ei tarvitse keinotekoista tietoa olla puolueellinen, riittää, että sen ympärillä on muita koneita. Koska jopa tämä voi luoda ryhmämielen, joka tunnetaan ihmisyhteisöistä. Siksi AI: n avulla ihmisten tulisi jättää päätös itse.

Vasilik Svetlana