Kaikki Tietomme Tekoälystä On Vain Harhaa - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Kaikki Tietomme Tekoälystä On Vain Harhaa - Vaihtoehtoinen Näkymä
Kaikki Tietomme Tekoälystä On Vain Harhaa - Vaihtoehtoinen Näkymä

Video: Kaikki Tietomme Tekoälystä On Vain Harhaa - Vaihtoehtoinen Näkymä

Video: Kaikki Tietomme Tekoälystä On Vain Harhaa - Vaihtoehtoinen Näkymä
Video: Hardtalk: AI - tekoälyn hyödyntäminen muuttaa jo bisnestä Suomessa (Tj. Pasi Tuominen, Wapice) 2024, Saattaa
Anonim

Ehkä yksi vaikeimmista konetiedon testeistä oli lähes 20 vuotta sitten Deep Blue -tietokoneen ja shakin maailmanmestarin Garry Kasparovin välinen shakki. Auto voitti. Tällä hetkellä go-logiikkapelin pelisarja on päättynyt, jossa kilpailivat DeepMindin (Googlen omistaja) AI AlphaGo ja legendaarinen go-mestari Kiinasta Li Si Dol. Neljässä viidestä pelistä kone voitti, mikä osoittaa paremmuutensa ihmiseen nähden tässä pelissä. Ihmisen ja tekoälyn uskomattoman monimutkainen peli osoittaa, että koneen älykkyys on kehittynyt erittäin voimakkaasti tänä aikana. Vaikuttaa siltä, että kohtalokas päivä, jolloin koneista tulee todella älykkäämpiä kuin ihmiset, on nyt lähempänä kuin koskaan. Näyttää kuitenkin siltä, että monet eivät ymmärrä ollenkaan, vaan ovat jopa väärässä seurauksista, jotka saattavat odottaa meitä tulevaisuudessa.

Aliarvioimme joitakin tekoälyn kehityksen erittäin vakavia ja jopa vaarallisia seurauksia. Viime vuonna SpaceX: n perustaja Elon Musk antoi lausunnon, jossa hän ilmaisi huolensa keinotekoisen älykkyyden mahdollisesta orjuuttamisesta maailmassa, mikä puolestaan sai aikaan valtavan määrän kommentteja sekä tämän mielipiteen kannattajilta että vastustajilta.

Image
Image

Tällaisen pohjimmiltaan vallankumouksellisen tulevaisuuden kannalta, joka voi odottaa meitä, on yllättävää, että nykyään on niin paljon erimielisyyksiä siitä, tapahtuuko se ollenkaan ja mistä se lopulta osoittautuu. On erityisen outoa kieltää uskomattomat edut, joita voimme saada todella älykkään tekoälyn luomisesta, tietysti ottaen huomioon kaikki mahdolliset riskit. Kaikkia näitä kysymyksiä on uskomattoman vaikea saada tarvitsemasi vastaukset, koska tekoäly, toisin kuin muut ihmiskunnan keksinnöt, voi todella "nuorentaa" tätä ihmiskuntaa tai tuhota sen kokonaan.

Nyt on vaikea ymmärtää, mihin uskoa ja mihin toivoa. Tietotekniikan edelläkävijöiden, neurotieteilijöiden ja tekoälyn kehittämisen teoreetikoiden ansiosta selkeä kuva on kuitenkin alkamassa hämärtyä. Alla on luettelo yleisimmistä tekoälyä koskevista väärinkäsityksistä ja myytteistä.

Emme koskaan luo tekoälyä humanoidisella älykkyydellä

Todellisuus puolestaan viittaa siihen, että meillä on jo tietokoneita, jotka vastaavat ja jopa ylittävät ihmisen kyvyt joillakin alueilla. Ota shakki tai sama peli, kaupankäynti pörsseissä tai virtuaalisen keskustelukumppanin rooli. Tietokoneet ja niitä ohjaavat algoritmit paranevat vain ajan myötä, ja on vain ajan kysymys, kunnes niistä tulee samanarvoisia ihmisen kykyjen kanssa.

Mainosvideo:

Image
Image

New Yorkin yliopiston tutkija Gary Marcus sanoi kerran, että "käytännöllisesti katsoen kaikki", jotka työskentelevät tekoälyssä, ajattelevat, että koneet jonain päivänä ylittävät meidät:

"Ainoa kiista kannattajien ja epäilijöiden välillä on tämän tapahtuman ajoitus."

Futuristit, kuten Ray Kurzweil, uskovat, että tämä voi tapahtua tulevina vuosikymmeninä, kun taas toiset sanovat, että se kestää useita vuosisatoja.

Tekoälyn skeptikot eivät ole vakuuttavia todisteissaan siitä, että tekoälyn luominen jotain ainutlaatuista ja teknologisesti hyvin samanlaista kuin todelliset elävät ihmisen aivot ovat todellisuuden ulkopuolella. Aivomme ovat myös koneita. Biologinen kone. Se on olemassa samassa maailmassa ja noudattaa samoja fysiikan lakeja kuin kaikki muu. Ja ajan myötä selvitämme täysin sen työn periaatteen.

Tekoälyllä on tietoisuus

Koneen älykkyys on tietoista siitä, että kone on älykäs. Toisin sanoen tekoäly ajattelee samalla tavalla kuin ihminen. Lisäksi jotkut kriitikot, kuten Microsoftin perustaja Paul Allen, uskovat, että puutteellisen teoreettisen perustan vuoksi, joka kuvaa itsetuntemuksen mekanismeja ja periaatteita, emme ole vielä luoneet edes yleistä tekoälyä, toisin sanoen älyä, joka kykenee suorittamaan mitään älyllisiä tehtäviä, joiden kanssa henkilö voi käsitellä. Imperial College Londonin kognitiivisen robotiikan laitoksen apulaisprofessori Murray Shanahanin mukaan meidän ei kuitenkaan pidä rinnastaa näitä kahta.

Image
Image

"Itsetietoisuus on ehdottomasti erittäin mielenkiintoinen ja tärkeä tutkimuksen aihe, mutta en usko, että itsetuntemuksen pitäisi olla pakollinen ominaisuus ihmisen kaltaisessa tekoälyssä", Shanahan sanoo.

"Yleensä käytämme termiä" itsetietoisuus "vain osoittamaan useita psykologisia ja kognitiivisia ominaisuuksia, jotka yleensä liittyvät ihmiseen.

On mahdollista kuvitella erittäin älykäs auto, josta puuttuu yksi tai useampi näistä ominaisuuksista. Jonain päivänä voimme rakentaa todella uskomattoman älykkään tekoälyn, mutta samalla vailla kykyä itsetietoisuuteen sekä subjektiivista ja tietoista ymmärrystä ympäröivästä maailmasta. Shanahan huomauttaa, että älykkyyden ja itsetuntemuksen yhdistäminen koneessa on silti mahdollista, mutta emme saa jättää huomiotta sitä, että nämä ovat kaksi täysin erillistä käsitettä.

Ja vaikka yksi "Turingin testin" muunnoksista, joissa kone osoitti, että se ei eroa ihmisestä, hyväksyttiin, se ei tarkoita lainkaan, että tällä koneella on tajunta. (Inhimillisestä) näkökulmasta edistynyt tekoäly saattaa tuntua meille jotain, jolla on itsetietoisuutta, mutta itse kone ei ole tietoinen itsestään kuin sama kivi tai laskin.

Meidän ei pitäisi pelätä tekoälyä

Tämän vuoden tammikuussa Facebookin perustaja Mark Zuckerberg jakoi ajatuksensa siitä, kuinka meidän ei pitäisi pelätä tekoälyä, ja lisäsi, että tämä tekniikka voi tuoda valtavia etuja ympäri maailmaa. Totuus on, että hän on vain osittain oikeassa. Pystymme todellakin saamaan hämmästyttäviä etuja käytössämme olevan tekoälyn avulla (itse ajavista autoista uusiin lääketieteellisiin löytöihin), mutta kukaan ei voi taata, että jokainen tekoälyn käyttö tuo välttämättä etuja.

Erittäin älykäs järjestelmä ehkä tietää kaiken tarvittavan tiettyihin tehtäviin (esimerkiksi monimutkaisen globaalin taloudellisen tilanteen ratkaisemiseen tai vihollisen tietojärjestelmien hakkerointiin), mutta erittäin erikoistuneiden tehtävien ulkopuolella tekoälyn potentiaali on edelleen täysin epäselvä ja siksi mahdollisesti vaarallinen. Esimerkiksi DeepMindin järjestelmä on erikoistunut go-peliin, mutta sillä ei ole kykyä (ja syytä) tutkia tämän alueen ulkopuolisia alueita.

Flame-tietokonevirus, jonka tehtävänä oli seurata Lähi-idän maita

Image
Image

Monet näistä järjestelmistä voivat aiheuttaa vakavia turvallisuusriskejä. Hyvä esimerkki on voimakas ja erittäin ovela Stuxnet-virus, militarisoitu mato, jonka Yhdysvaltain ja Israelin armeija on luonut tunkeutua Iranin ydinvoimaloihin ja hyökätä niihin. Vain tämä haittaohjelma jotenkin (vahingossa tai tahallaan) tartunnan sai myös yhden Venäjän ydinvoimaloista.

Toinen esimerkki on Flame-virus, joka on kehitetty kohdennetulle vakoilulle Lähi-idässä. On helppo kuvitella, kuinka Stuxnet- ja Flame-virusten "tulevat versiot" ylittävät itsenäisesti niille osoitetut tehtävät ja pystyvät tartuttamaan melkein koko maan infrastruktuurin. Ja he tekevät sen hyvin hiljaa ja huomaamattomasti.

Keinotekoinen supertieto on liian älykäs virheiden tekemiseksi

Richard Luzmore, matemaatikko, tekoälyn tutkija ja robotiikkayrityksen Surfing Samurai Robots perustaja, uskoo, että useimmat tekoälyn tuomiopäivän skenaariot näyttävät epätodennäköisiltä, koska ne kaikki perustuvat laajasti siihen, mitä tekoäly jonain päivänä sanoo: "Ymmärrän tuhon ihmiset ovat virhe ohjelmakoodissani, mutta minun on silti noudatettava tehtävää."

Image
Image

Luzmore uskoo, että jos tekoäly käyttäytyy tämän skenaarion mukaisesti, sillä on loogisia ristiriitoja, jotka kyseenalaistavat sen koko kertyneen tietopohjan ja johtavat lopulta omaan tietoisuuteen tyhmyydestään ja hyödyttömyydestään.

Tutkija uskoo myös, että ihmiset, jotka sanovat, että "tekoäly tekee vain sen, mikä sisältyy sen ohjelmaan", ovat väärässä, aivan kuten ihmiset, jotka sanoivat kerran samat sanat, mutta kohti tietokoneita, julistamalla, että tietokonejärjestelmillä ei koskaan ole universaalisuutta.

Peter McIntyre ja Stuart Armstrong, molemmat Oxfordin yliopiston ihmiskunnan tulevaisuuden instituutissa, ovat puolestaan eri mieltä tästä mielipiteestä väittäen, että tekoälyn käyttäytyminen on pakollista ja pitkälti perusteltavaa ohjelmakoodilla. Tutkijat eivät usko, että tekoäly ei koskaan tee virheitä tai päinvastoin on liian tyhmä ymmärtääkseen mitä haluamme heiltä.

"Määritelmän mukaan keinotekoinen älykkyys (ISI) on agentti, jonka älykkyys ylittää monta kertaa ihmiskunnan parhaat mielet melkein kaikilla alueilla", McIntyre sanoo.

"Hän varmasti ymmärtää, mitä me haluamme häneltä."

McIntyre ja Armstrong uskovat, että tekoäly hoitaa vain ne tehtävät, joille se on ohjelmoitu, mutta jos se jotenkin kehittyy itsestään, todennäköisesti yrittää selvittää, kuinka paljon sen toiminta eroaa ihmisen tehtävistä ja liittyy siihen. lait.

McIntyre vertaa ihmisten tulevaa tilannetta hiirten tilanteeseen. Hiirillä on voimakas vaisto löytää ruokaa ja suojaa, mutta heidän tavoitteensa ovat usein ristiriidassa sellaisen henkilön kanssa, joka ei halua nähdä heitä kotonaan.

"Kuten tiedämme hiiristä ja heidän toiveistaan, myös supertietojärjestelmä voi tietää kaiken meistä ja tietää mitä haluamme, mutta samalla se on täysin välinpitämätön toiveidemme suhteen."

Yksinkertainen ratkaisu poistaa tekoälyn hallinnan ongelman

Kuten elokuvasta "From the Machine" näkyy, tekoälyä on hyvin vaikea hallita, mikä on paljon älykkäämpi kuin me

Image
Image

Jos oletamme, että jonain päivänä luomme superälyä, joka on älykkäämpi kuin ihmiset, meidän on kohdattava vakava ongelma, hallinnan ongelma. Futuristit ja tekoälyn teoreetikot eivät ole vielä kyenneet selittämään, kuinka voimme hallita ja hillitä ISI: tä sen luomisen jälkeen. On myös epäselvää, miten voimme varmistaa, että hän on ystävällinen ihmisiä kohtaan. Viime aikoina Georgian teknillisen instituutin (USA) tutkijat ehdottivat naiivisti, että tekoäly voi oppia ja omaksua inhimilliset arvot ja tiedon sosiaalisista normeista yksinkertaisesti lukemalla yksinkertaisia satuja. Kyllä, kyllä, yksinkertaisia lasten tarinoita ja tarinoita, jotka vanhemmat lukivat meille lapsuudessa. Mutta todellisuudessa kaikki osoittautuu paljon monimutkaisemmaksi kuin tämä kaikki.

"Tekoälyn hallintaan on ehdotettu monia ns." Ratkaisuja ", Stuart Armstrong sanoo.

Yksi esimerkki tällaisista ratkaisuista voi olla ISI: n ohjelmointi siten, että se yrittää jatkuvasti miellyttää tai miellyttää henkilöä. Vaihtoehtona olisi integroida käsitteet, kuten rakkaus tai kunnioitus, lähdekoodiin. Ja jotta vältetään sellainen skenaarion kehitys, jonka mukaan tekoäly voi yksinkertaistaa kaikkia näitä käsitteitä ja havaita tämän maailman näiden super yksinkertaistettujen käsitteiden prisman kautta jakamalla sen vain mustavalkoiseksi, se voidaan ohjelmoida ymmärtämään ja hyväksymään henkinen, kulttuurinen ja sosiaalinen monimuotoisuus.

Isaac Asimovin luomat kolme robotiikan lakia sopivat täydellisesti fiktiokäsitteeseen, mutta todellisuudessa tarvitsemme jotain kattavampaa hallinnan kysymyksen käsittelemiseksi

Image
Image

Valitettavasti nämä ratkaisut ovat liian yksinkertaisia ja näyttävät yritykseltä sovittaa kaikki ihmisten tykkäysten ja inhoamisten monimutkaisuus yhteen yleiseen määritelmään tai käsitteeseen tai yrittää sovittaa koko inhimillisten arvojen monimutkaisuus yhteen sanaan, lauseeseen tai ideaan. Yritä esimerkiksi sovittaa näihin puitteisiin johdonmukainen ja riittävä määritelmä sellaiselle, mitä kunnioitetaan.

”Ei tietenkään pidä ajatella, että tällaiset yksinkertaiset vaihtoehdot ovat täysin hyödyttömiä. Monet heistä tarjoavat loistavan syyn ajatella ja ehkä kannustavat etsimään ratkaisua lopulliseen ongelmaan”, Armstrong sanoo.

"Mutta emme voi luottaa yksinomaan niihin ilman monimutkaisempaa työtä, ilman selkeää tutkimusta ja etsimällä tiettyjen ratkaisujen käytön seurauksia."

Keinotekoinen älykkyys tuhoaa meidät

Kukaan ei voi taata, että tekoäly jonain päivänä tuhoaa meidät, samoin kuin kukaan ei voi sanoa varmuudella, ettemme pysty löytämään keinoja hallita ja käyttää tekoälyä omiin tarkoituksiimme. Kuten tekoälyn amerikkalainen asiantuntija Eliezer Yudkowski sanoi kerran: "Tekoäly ei voi rakastaa tai vihata sinua, mutta olet valmistettu atomeista, joita se voisi käyttää mihinkään muuhun."

Oxfordin filosofi Nick Bostrom kirjassaan "Superintelligence: Ways, Dangers and Strategies" kirjoittaa, että todellinen supertieto voi jonain päivänä toteuttaa itsensä, mikä tekee siitä vaarallisemman kuin mikään ihmisen koskaan keksimä keksintö. Tunnetut nykyaikaiset ajattelijat, kuten Elon Musk, Bill Gates ja Stephen Hawking (joista monet uskovat, että "tekoäly voi olla ihmiskunnan historian pahin virhe") ovat todennäköisesti samaa mieltä tämän mielipiteen kanssa ja ovat jo hälyttäneet.

Peter McIntyer uskoo, että useimmissa tehtävissä, jotka huipputiede voi asettaa itselleen, ihmiset näyttävät ylimääräiseltä linkiltä.

"Tekoäly voi jonain päivänä päätellä - ja on huomattava, että se laskee tämän hyvin oikein - että ihmiset eivät halua käyttää sitä maksimoimaan minkä tahansa yrityksen kannattavuutta millä hyvänsä, riippumatta seurauksista kuluttajille, ympäristölle ja eläville olennoille. Siksi hänellä on valtava kannustin suunnitelman ja strategian kehittämiseen, minkä ansiosta henkilö ei voi puuttua tehtävän ratkaisuun muuttamalla sitä tai jopa sammuttamalla tekoälyä."

MacIntyerin mukaan, jos tekoälyn tehtävät ovat suoraan päinvastaisia kuin omamme, se antaa hänelle hyvät syyt olla antamatta meidän pysäyttää häntä. Ja jos katsomme, että hänen älykkyytensä on paljon korkeampi kuin meidän, on todella, hyvin vaikeaa pysäyttää häntä, jos se on mahdollista.

On kuitenkin mahdotonta sanoa mitään varmuudella tällä hetkellä, eikä kukaan voi sanoa, minkä tekoälyn muodon meidän on kohdeltava ja miten se voi uhata ihmiskuntaa. Kuten Elon Musk kerran sanoi, tekoälyä voidaan todella käyttää muiden tekoälyjen ohjaamiseen, seuraamiseen ja ohjaamiseen. Ja ehkä siihen tuodaan inhimilliset arvot ja alkuperäinen ystävällisyys ihmisille.

Keinotekoinen supertieto on ystävällistä

Filosofi Immanuel Kant uskoi, että älykkyys on vahvasti yhteydessä moraalin periaatteisiin. Teoksessa Singularity: A Philosophical Analysis neurotieteilijä David Chalmers otti Kantin kuuluisan idean perustaksi ja yritti soveltaa sitä keinotekoisen supertieteen muodostumisen analysointiin.

Image
Image

”Jos tässä artikkelissa kuvatut periaatteet ovat oikeita, tekoälyn jyrkän kehityksen ohella pitäisi odottaa moraalisten periaatteiden voimakasta kehitystä. Jatkokehitys johtaa sellaisten ISI-järjestelmien syntymiseen, joilla on supermoraali ja superintelligence. Siksi meidän pitäisi odottaa heidän puolestaan vain hyväntahtoisia ominaisuuksia."

Totuus on, että ajatus edistyneestä tekoälystä, jolla on moraaliset periaatteet ja poikkeuksellinen hyve, ei pidä vettä. Kuten Armstrong huomauttaa, maailma on täynnä älykkäitä sotarikollisia. Esimerkiksi äly ja moraali ihmisessä eivät ole millään tavalla yhteydessä toisiinsa, joten tutkija kyseenalaistaa tällaisen suhteen olemassaolon muissa älykkyyden muodoissa.

”Älykkäät ihmiset, jotka käyttäytyvät moraalittomasti, aiheuttavat yleensä paljon enemmän ongelmia ja kipuja kuin vähemmän älykkäät kollegansa. Älykkyys antaa heille mahdollisuuden olla kehittyneempiä huonoissa kuin hyvissä toimissaan”, Armstrong sanoo.

McIntyre selittää, että agentin kyvyllä suorittaa tietty tehtävä ei ole mitään tekemistä sen kanssa, mikä tehtävä on.

Meillä on suuri onni, jos tekoälymme muuttuvat moraalisemmiksi, ei vain älykkeiksi. Onneen turvaaminen on tietysti viimeinen asia tässä asiassa, mutta kenties se on onni, joka määrää asemamme tulevaisuudessa”, tutkija sanoo.

Tekoälyyn ja robotiikkaan liittyvät riskit ovat samat

Tämä on erityisen yleinen väärinkäsitys, jota käytetään sekä tiedotusvälineissä että Hollywoodin menestystuotteissa, kuten The Terminator.

Image
Image

Jos esimerkiksi Skynetin kaltainen keinotekoinen tiedustelupalvelu todella haluaa tuhota koko ihmiskunnan, on epätodennäköistä, että hän käyttää puolisotilaallisia androideja, joissa on konekiväärit kummassakin kädessä. Hänen ovela ja tehokas ajattelunsa antaa hänen ymmärtää, että olisi paljon mukavampaa käyttää esimerkiksi uuden tyyppistä biologista ruttoa tai esimerkiksi jotakin nanoteknistä katastrofia. Tai ehkä hän vain ottaa ja tuhoaa planeettamme ilmakehän. Tekoäly on mahdollisesti vaarallinen paitsi siksi, että sen kehitys liittyy läheisesti robotiikan kehitykseen. Syy potentiaaliseen vaaraan on menetelmissä ja keinoissa, joiden avulla hän voi ilmoittaa läsnäolonsa maailmalle.

Tieteiskirjallisuudessa esitelty tekoäly heijastaa tulevaisuuttamme

Epäilemättä monien vuosien ajan kirjailijat ja tieteiskirjallisuuden kirjoittajat ovat käyttäneet tieteiskirjallisuusympäristöä ponnahduslautana spekuloimaan todellisesta tulevaisuudestamme, mutta ISI: n varsinainen luominen ja tämän todelliset seuraukset ovat edelleen todellisen tietämyksemme ulottumattomissa. Lisäksi tekoälyn tällainen keinotekoinen ja selvästi epäinhimillinen luonne ei edes salli minkään tarkkuuden olettaa, mikä tämä tekoäly todella on.

Image
Image

Useimmissa sci-fi-teoksissa tekoäly on mahdollisimman lähellä ihmistä.

”Ennen meitä on koko joukko monipuolisimpia mielentyyppejä. Vaikka ottaisimme vain ihmisen muodon. Esimerkiksi mielesi ei ole läheskään identtinen naapurin kanssa. Mutta tämä vertailu on vain pisara kaiken mahdollisen mielen monimuotoisuuden meressä, McIntyre sanoo.

Suurin osa scifi-fiktioista on tietysti luotu ensisijaisesti kertomaan tarina sen sijaan, että ne olisivat mahdollisimman tieteellisesti vakuuttavia. Jos se olisi päinvastoin (tiede on tärkeämpää kuin juoni), ei olisi mielenkiintoista seurata tällaisia teoksia.

Kuvittele vain, kuinka tylsät kaikki nämä tarinat olisivat, missä tekoäly tuhoaa kaikki ihmiset ilman itsetuntemusta kykyä iloita, rakastaa tai vihata käytännössä ilman mitään vastarintaa tavoitteen saavuttamiseksi, mikä ei muutenkaan ole kovin mielenkiintoista. lukijalle tai katsojalle”, kommentoi Armstrong.

Tekoäly ottaa työpaikkamme

Tekoälyn kyky automatisoida prosessit, jotka teemme manuaalisesti, ja sen mahdollisuudet tuhota koko ihmiskunta eivät ole sama asia. Kirjan Rise of the Robots: Technology and the Threat of Jobless Future kirjoittajan Martin Fordin mukaan näitä käsitteitä yritetään kuitenkin usein verrata ja yhdistää yhtenäiseksi kokonaisuudeksi. On tietysti hienoa, että yritämme ennakoida tekoälyn luomisen seuraukset tähän mennessä, mutta vain, jos tämä ponnistelu ei häiritse meitä ongelmista, joita voimme kohdata parin vuosikymmenen aikana, jos emme tee mitään. Ja yksi suurimmista ongelmista on massa-automaatio.

Image
Image

Harvat väittävät, että tekoälyn yhtenä haasteena on löytää tapa automatisoida monia työpaikkoja tehdaspaikoista joihinkin toimihenkilöihin. Jotkut asiantuntijat ennustavat, että puolet kaikista työpaikoista, ainakin Yhdysvalloissa, voidaan automatisoida lähitulevaisuudessa.

Mutta tämä ei tarkoita lainkaan, ettemme voi hyväksyä tällaisia muutoksia. On tärkeää ymmärtää, että halu vapauttaa itsensä tarpeettomasta fyysisestä ja psyykkisestä stressistä työpaikalla on ollut unelmamme ihmislajistamme jo pitkään.

”Muutaman vuosikymmenen kuluttua tekoäly korvaa ihmiset monissa työpaikoissa. Ja tämä on todella hyvä. Esimerkiksi itse ajavat autot korvaavat kuorma-autot, mikä puolestaan alentaa paitsi tavaroiden lähetyskustannuksia myös itse tavaroiden kustannuksia. Jos työskentelet kuorma-auton kuljettajana, sinä tietysti pysyt äärimmäisenä, mutta kaikki muut tässä tapauksessa saavat todennäköisemmin korotuksia palkoistaan. Ja mitä enemmän rahaa voidaan säästää, sitä enemmän tämä raha voidaan käyttää muihin tavaroihin ja palveluihin, joihin ihmiset osallistuvat työpaikallaan."

Todennäköisesti tekoäly etsii uusia hyvinvointitapoja ja ruokkii ihmisiä samalla kun he tekevät muita asioita. Tekoälyn kehittämiseen liittyy menestystä muilla alueilla. Erityisesti valmistussektorilla. Tulevaisuudessa tämä kaikki todennäköisesti pikemminkin yksinkertaistaa kuin vaikeuttaa perustarpeidemme tyydyttämistä.