Vaarallinen Ihmiskunta: Miksi Tarvitsemme älykästä Tekoälyä? - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Vaarallinen Ihmiskunta: Miksi Tarvitsemme älykästä Tekoälyä? - Vaihtoehtoinen Näkymä
Vaarallinen Ihmiskunta: Miksi Tarvitsemme älykästä Tekoälyä? - Vaihtoehtoinen Näkymä

Video: Vaarallinen Ihmiskunta: Miksi Tarvitsemme älykästä Tekoälyä? - Vaihtoehtoinen Näkymä

Video: Vaarallinen Ihmiskunta: Miksi Tarvitsemme älykästä Tekoälyä? - Vaihtoehtoinen Näkymä
Video: Tarvitsenko tekoälyä 2024, Saattaa
Anonim

Kun kybernetiikan isä Norbert Wiener kirjoitti vuonna 1950 kirjaansa Ihmisten käyttötarkoitukset, tyhjiöputket olivat edelleen tärkeimmät elektroniset rakennuspalikat, ja tosiasiassa työssä oli vain muutama tietokone. Hän kuitenkin kuvasi tulevaisuutta, jonka näemme nyt ennennäkemättömällä tarkkuudella, erehtyen vain pieniin yksityiskohtiin.

Ennen muita keinotekoisen älykkyyden filosofeja hän tajusi, että AI ei vain jäljittele ja korvaa ihmisiä monenlaisessa älyllisessä toiminnassa, vaan muuttaa myös ihmisiä prosessissa. "Olemme vain porealtaita jatkuvasti virtaavan veden joessa", hän kirjoitti. "Emme ole jotain, joka vain elää, olemme malleja, jotka säilyttävät itsensä."

Esimerkiksi, kun monia houkuttelevia mahdollisuuksia syntyy, olemme valmiita maksamaan ja hyväksymään pienet kustannukset, jotka aiheutuvat yrityksen johtamisesta uusien mahdollisuuksien hyödyntämiseksi. Ja hyvin pian olemme riippuvaisia uusista työkaluista, menetämme kyvyn olemassaoloon ilman niitä. Vaihtoehtoja tarvitaan.

Tämä on hyvin vanha evoluutiohistoria, ja monet sen luvut ovat meille hyvin tunnettuja. Useimmat nisäkkäät voivat syntetisoida oman C-vitamiininsa, mutta hedelmäsyövät kädelliset ovat menettäneet tämän sisäisen kykynsä. Itse toistuvat mallit, joita kutsumme ihmisiksi, luottavat nyt vaatteisiin, jalostettuihin elintarvikkeisiin, vitamiineihin, ruiskuihin, luottokortteihin, älypuhelimiin ja Internetiin. Ja huomenna, jos ei tänään, keinoälystä.

Wiener ennusti useita ongelmia tässä tilanteessa, jotka Alan Turing ja muut varhaisen AI-optimistit huomiotta jäivät. Hänen mukaansa todellinen uhka oli:

… on se, että ihmiset voivat käyttää sellaisia koneita, vaikka ne ovatkin avuttomia, tai käyttää niitä estämään ihmisiä hallinnan lisäämiseksi muun rodun suhteen, tai poliittiset johtajat voivat yrittää hallita väestöään poliittisilla menetelmillä koneiden itsensä sijaan, niin kapea ja välinpitämätön ihmisen suhteen, kuin ne olisi keksitty mekaanisesti.

On selvää, että nämä vaarat ovat nyt erittäin merkityksellisiä.

Esimerkiksi mediassa digitaalisen äänen ja videon innovaatioiden ansiosta voimme maksaa pienen hinnan (äänitiedostojen ja elokuvantekijöiden silmissä) siirtyäksemme analogisista muodoista ja vastaanottaa vastineeksi erittäin yksinkertaisen - liian yksinkertaisen - tavan soittaa nauhoituksia melkein ilman rajoituksia.

Mainosvideo:

Image
Image

Mutta siellä on valtavia piilokustannuksia. Orwellin totuudenhallinnasta on tullut todellinen mahdollisuus. AI: n tekniikat käytännössä erottamattomien väärennettyjen "tietueiden" luomiseksi tekevät tutkimuksille käyttämämme työkalut vanhentuneiksi viimeisen 150 vuoden ajan.

Meidän on vain hylättävä lyhyt valokuvausnäytös ja palattava vanhaan maailmaan, jossa ihmisen muisti ja luottamus olivat kultaiset normit. Tai voimme kehittää uusia puolustus- ja hyökkäysmenetelmiä totuuden taistelussa. Yksi viime aikojen jännittävimmistä esimerkeistä on se, että maineen tuhoaminen on paljon halvempaa kuin ansaita ja suojata sama maine. Wiener näki tämän ilmiön hyvin laajasti: "Pitkällä aikavälillä ei ole eroa aseistamisen ja vihollisen aseistamisen välillä." Tiedon aikakaudesta on tullut myös väärien tietojen aikakausi.

Mitä voimme tehdä? Tärkeintä on Wienerin sama havainto, että "nämä koneet" ovat "itse avuttomia". Luomme työkaluja, emme kollegoita, ja todellinen uhka on, että emme näe eroa.

Keinotekoinen äly on nykyisessä muodossaan parasiittinen ihmisen älykkyydelle. Hän ottaa erittäin epämiellyttävästi hallussaan kaiken, mitä ihmisen luojat ovat luoneet, ja piirtää malleja - mukaan lukien salaisimmat tottumuksemme. Näillä koneilla ei ole vielä tavoitteita tai strategioita, ne eivät kykene itsekritiikkiin ja innovaatioihin, he vain tutkivat tietokantojamme, ilman omia ajatuksiaan ja tavoitteitaan.

He ovat, kuten Wiener sanoo, avuttomia siinä mielessä, että he ovat ketjutettuja tai liikkumattomia, ei, he eivät ole ollenkaan edustajia - heillä ei ole kykyä toimia syistä, kuten Kant sanoisi.

Pitkällä aikavälillä”vahva AI” tai yleinen tekoäly on periaatteessa mahdollista, mutta ei toivottavaa. Vielä rajoitetumpi AI, joka on nykyään käytännössä mahdollista, ei ole paha. Mutta se aiheuttaa uhan - osittain siksi, että se voidaan erehtyä voimakkaaseen AI: hen.

Kuinka vahva on tekoäly tänään?

Kuilu nykypäivän järjestelmien ja suosittua mielikuvitusta tulvavien scifi-järjestelmien välillä on edelleen valtava, vaikka monet ihmiset, niin amatöörit kuin ammattilaisetkin, yleensä aliarvioivat sitä. Katsotaanpa IBM: n Watsonia, joka voi hyvinkin olla kunnioitettava tänä päivänä.

Tämä supertietokone on tulosta erittäin laaja-alaisesta tutkimus- ja kehitysprosessista (tutkimus ja kehitys), johon osallistui monia ihmisiä ja suunnitteluälyt useiden vuosisatojen ajan, ja se käyttää tuhansia kertoja enemmän energiaa kuin ihmisen aivot. Hänen voitto Jeopardyssa! oli todellinen voitto, jonka mahdollistivat Jeopardy!: n sääntöjen muodolliset rajoitukset, mutta jopa näitä sääntöjä oli muutettava, jotta hän voisi osallistua. Minun piti luopua pienestä monipuolisuudesta ja lisätä ihmisyyttä näyttelyn tekemiseen.

Watson on huono yritys huolimatta IBM: n harhaanjohtavista ilmoituksista, jotka lupaavat AI: n keskustelukyvyn molemmilla tasoilla. Watsonin muuttaminen uskottavaksi monitahoiseksi edustajaksi olisi kuin laskimen muuttaminen Watsoniksi. Watson voi olla hyvä laskentatapaus tällaiselle aineelle, vaan pikemminkin pikkuaivo tai amygdala kuin mieli - parhaimmillaan tueksi toimiva erityiskäyttöön tarkoitettu alijärjestelmä, mutta ei läheskään järjestelmä suunnitelmille ja tavoitteiden asettamiselle saadun keskustelukokemuksen perusteella.

Miksi haluaisimme luoda ajattelevan ja luovan agentin Watsonista? Ehkä Turingin loistava idea - kuuluisa Turingin testi - houkutteli meidät ansaan: meille pakkomielle luomalla ainakin illuusion näytön edessä istuvasta todellisesta henkilöstä ohittamalla "pahaenteinen laakso".

Vaarana on, että sen jälkeen kun Turing esitti tehtävänsä - joka oli ensisijaisesti tehtävä pettää tuomaria - AI: n luojat ovat yrittäneet suorittaa sen käyttämällä hauskoja humanoidisia nukkeja, "sarjakuva" -versioita, jotka kiehtovat ja riisuttavat aloittamattomat. Ensimmäinen chatbotti, Joseph Weisenbaumin ELIZA, oli erinomainen esimerkki tällaisen illuusion luomisesta, mutta erittäin yksinkertaisella algoritmilla, joka pystyi vakuuttamaan ihmiset siitä, että he keskustelevat vilpittömästi ja vilpittömästi muiden ihmisten kanssa.

Hän oli huolissaan siitä, kuinka helposti ihmiset ovat valmiita uskomaan tähän. Ja jos me oivalimme jotain vuosittaisesta Lebner-palkinnon rajoitetusta Turing-testistä, on niin, että jopa fiksimmat ihmiset, jotka eivät ole perehtyneet tietokoneohjelmointiin, putoavat helposti näihin yksinkertaisiin temppuihin.

AI: n ihmisten asenne tällaisiin tekniikoihin vaihtelee arvioinnista palkitsemiseen, ja yksimielisyys on, että nämä temput eivät ole kovin syviä, mutta voivat olla hyödyllisiä. Asennuksen muutos, joka olisi erittäin tervetullut, olisi vilpitön myöntäminen, että nukkemaalatut androidit ovat vääriä mainoksia, jotka olisi tuomittava, ei kannustettava.

Kuinka tämä voidaan saavuttaa? Kun ymmärrämme, että ihmiset alkavat tehdä elämää ja kuolemaa koskevia päätöksiä noudattamalla AI-järjestelmien "neuvoja", joiden sisäiset toiminnot ovat melkein käsittämättömiä, näemme hyvän syyn niille, jotka kehottavat ihmisiä luottamaan tällaisiin järjestelmiin, luottamaan moraalin ja lain normeihin.

Keinotekoiset älykkyysjärjestelmät ovat erittäin tehokkaita työkaluja. Niin voimakas, että jopa asiantuntijoilla on hyvä syy olla luottamatta omaan tuomioonsa, kun on olemassa "tuomioita", joita nämä välineet edustavat. Mutta jos nämä työkalujen käyttäjät hyötyvät näiden työkalujen popularisoinnista taloudellisesti tai muulla tavalla, heidän on varmistettava, että he tietävät miten se tehdään täydellä vastuulla, parhaalla mahdollisella hallinnalla ja perustelulla.

Tällaisten järjestelmien käyttäjien lisensointi ja hyväksyminen - samoin kuin lisenssimme apteekkereita, nosturinkäyttäjiä ja muita ammattilaisia, joiden virheillä ja väärillä päätöksillä voi olla vakavia seurauksia - ehkä pakottaa vakuutusyhtiöiden ja muiden organisaatioiden tuella AI-järjestelmien luojat menemään pitkälle etsimässä tuotteidensa heikkouksia ja puutteita, ja kouluttamalla myös niitä, jotka aikovat työskennellä heidän kanssaan.

Voidaan kuvitella eräänlainen käänteinen Turing-testi, jossa tuomari arvioidaan; kunnes hän havaitsee heikkouden, rajojen rikkomisen, järjestelmän aukkoja, hän ei saa lisenssiä. Tällainen tuomari vaatii vakavaa koulutusta todistuksen saamiseksi. Tarve osoittaa esineelle ihmisen ajattelukyky, kuten me yleensä tapaamme älykkään agentin kanssa, on erittäin vahva.

Itse asiassa kyky vastustaa tarvetta nähdä jotain humanisoitua on outo asia. Monien mielestä tällaisen kykyjen vaaliminen on kyseenalaista, koska jopa järjestelmän käytännöllisimmät käyttäjät ovat toisinaan ystävällisiä työkaluilleen.

Riippumatta siitä, kuinka huolellisesti AI-suunnittelijat päättävät eliminoida vääriä "ihmisen" päällekkäisyyksiä tuotteissa, meidän on odotettava etikettien, kiertotapojen ja hyväksyttävien vääristymien molemmat järjestelmien ja niiden käyttäjien todellisesta "ymmärryksestä". Samoin kuin televisiossa mainostetaan huumeita, joilla on pitkä luettelo sivuvaikutuksista, tai alkoholia mainostetaan runsaalla pienellä painotuotteella kaikilla lain edellyttämillä varoituksilla, joten tekoälyn kehittäjät noudattavat lakia, mutta ne ovat hienostuneita varoituksissa.

Miksi tarvitsemme tekoälyä?

Emme tarvitse keinotekoisia tietoisia aineita. On joukko luonnollisia tietoisia aineita, jotka ovat riittäviä suorittamaan kaikki tehtävät ammattilaisille ja etuoikeutetuille henkilöille. Tarvitsemme älykkäitä työkaluja. Työkaluilla ei ole oikeuksia, eikä niillä saa olla tunteita, jotka voivat loukkaantua tai käyttää väärin.

Yksi syy olla tekemättä tietoisia tekijöitä on se, että vaikka heistä voi tulla itsenäisiä (ja periaatteessa ne voivat olla yhtä itsenäisiä, itseparantavia tai itsensä luomisia kuin kuka tahansa henkilö), heidän ei pitäisi - ilman erityistä lupaa - jakaa meidän luonnolliset tietoiset tekijät, haavoittuvuutemme tai kuolleisuutemme.

Tufts-yliopiston filosofian professori Daniel Dennett haastoi opiskelijat kerran keinotekoisia aineita ja autonomiaa käsittelevässä työpajassa: Anna minulle robotin tekniset tiedot, joka voi allekirjoittaa sopimuksen kanssasi - ei toisen henkilön omistama korvike, vaan itse. Kyse ei ole syiden ymmärtämisestä tai kynän manipuloinnista paperilla, vaan oikeudellisen aseman ja moraalisen vastuun omistamisesta ja hyvin ansaitusta omistamisesta. Pienet lapset eivät voi allekirjoittaa tällaisia sopimuksia, samoin kuin vammaiset, joiden oikeudellinen asema velvoittaa heitä olemaan huoltajuudessa ja asettaa vastuun huoltajille.

Robottien, jotka saattavat haluta saavuttaa tällainen ylennetty tila, ongelma on, että Supermanin tavoin he ovat liian haavoittuvia esittämään tällaisia väitteitä. Jos he kieltäytyvät, mitä tapahtuu? Mikä on rangaistus lupauksen rikkomisesta? Lukitaanko ne häkkiin tai puretaanko ne? Keinotekoisen älykkyyden vankila ei ole hankalaa, ellei ensin laittaa jano vapauteen, jota AI ei voi sivuuttaa tai estää. AI: n purkaminen ei tapaa levylle ja ohjelmistoon tallennettuja tietoja.

Tiedon digitaalisen tallennuksen ja siirron helppous - läpimurto, joka mahdollisti ohjelmistojen ja datan saavuttamisen, itse asiassa kuolemattomuuden - tekee robotista haavoittumattoman. Jos se ei näytä itsestään selvältä, ajatelkaa kuinka ihmisten moraali muuttuisi, jos voisimme tukea ihmisiä joka viikko. Sillasta hyppääminen pois ilman kuminauhaa sunnuntaina perjantaina tehdyn varmuuskopion jälkeen voi olla vaikea päätös, niin voit katsoa ajoissa tapahtuvan kuoleman jälkeisiä otoksia.

Siksi emme luo tietoisia - haluaisimme luoda - humanoidisia aineita, vaan pikemminkin täysin uuden tyyppisiä olentoja, joitain oraakkeja, tajuttomia, pelkäämättä kuolemaa, ilman rakkauden ja vihan häiritsemistä, ilman persoonallisuutta: totuuden peilit, jotka ihminen lähes varmasti tartuttaa valheita.

Ihmisten käyttö ihmisissä muuttuu pian - jälleen kerran - ikuisesti, mutta jos otamme vastuun evoluutiopolustamme, voimme välttää tarpeettomia vaaroja.

Ilja Khel