Keinotekoinen äly: Vaarallinen Vihollinen Tai Ystävällinen Auttaja - Vaihtoehtoinen Näkymä

Keinotekoinen äly: Vaarallinen Vihollinen Tai Ystävällinen Auttaja - Vaihtoehtoinen Näkymä
Keinotekoinen äly: Vaarallinen Vihollinen Tai Ystävällinen Auttaja - Vaihtoehtoinen Näkymä

Video: Keinotekoinen äly: Vaarallinen Vihollinen Tai Ystävällinen Auttaja - Vaihtoehtoinen Näkymä

Video: Keinotekoinen äly: Vaarallinen Vihollinen Tai Ystävällinen Auttaja - Vaihtoehtoinen Näkymä
Video: PT Barnumin rahan saamisen taite-TÄYSIN SUOMEN ÄÄNIKIRJA 2024, Saattaa
Anonim

Tekoälyn käyttö päivittäisessä elämässä on nousussa nopeasti, mutta tämä suuntaus herättää yhä enemmän asiantuntijoita. New Yorkin yliopiston henkilökunta laati varoittavan huomautuksen I. I: n käytön riskeistä. Suurin osa kirjoittajista keskittyi eettisiin ja sosiaalisiin kysymyksiin sekä sääntelyn puuttumiseen. AI Now -ryhmän raportissa sanotaan vähän uutta, mutta maailman käytännössä kysymys keinotekoisen ajattelun työn rajoittamisen tarpeesta otetaan yhä enemmän esiin.

Lähes kaikki teknologisen kehityksen visionäärit puhuivat mahdollisista uhkista AI: lle. Stephen Hawking ilmaisi viime vuoden marraskuussa tärkeimmät pelot, jotka liittyivät tekniikan kehitykseen liittyviin pohdintoihin. Hänen mukaansa tietokoneet oppivat ennemmin tai myöhemmin lisääntymään. Biologiset olennot menettävät todennäköisesti piintellektion sekä henkisten kykyjen että ympäristöön sopeutumisen kannalta, etenkin toisella planeetalla. Ennemmin tai myöhemmin älykkäät robotit pitävät ihmisiä vanhentuneina ja haluavat päästä eroon niistä.

Hawkingin sanat kuulostavat edelleen kauhu tarinalla, jota on kymmeniä kertoja pelattu elokuvissa ja kirjoissa, mutta jopa älykkäiden järjestelmien toteuttamiseen pyrkivät ovat pelkänneet tulevaisuuden AI: n kanssa yhä enemmän, vaikka on myös niitä, jotka pitävät tällaista pelkoa ennenaikaisena. "Pelätä AI: n kehitystä nykyään on kuin huolestua Marsin yliväestöstä", sanoi Google Brainin johtaja Andrew Ng. Hän ei kuitenkaan rauhoittanut kaikkia.

Image
Image

Suurimmista fobioista, jotka liittyvät tietokoneen käyttöönottoon kaikilla elämänalueilla, on kolme. Ensinnäkin tietokonemieliä käytetään sota-aseena, joka ylittää merkittävästi jopa tuhovoiman ydinaseet. Toinen on, että AI orjuuttaa ihmiset. Kolmanneksi, kuten mikä tahansa ihmisen luominen, tietokone on virhealtista. Kaikista kolmesta kohdasta voidaan keskustella yksityiskohtaisemmin.

Teknisen älykkyyden tutkimuksen ja toteutuksen alan johtavat asiantuntijat, mukaan lukien SpaceX: n ja Deep Mind -yritysten johtajat, lähettivät 21. elokuuta 2017 YK: lle avoimen kirjeen. He varoittivat tekstissä maailman yhteisöä tappavien itsenäisten aseiden kehittämisestä, olivatpa ne robotteja tai muita vihollisen tappamiseen tarkoitettuja mekanismeja. Asiakirjan laatijat kiinnittivät huomiota tällaisten aseiden käytön kohtalokkaisiin seurauksiin. Ilmiömäisellä tehokkuudellaan on oikeudenmukaista kysyä, kenen käsiin se tulee. Sitä voivat käyttää sekä kapea eliitti- että terroristiryhmä.

Kirjeen kirjoittajat kehottivat valvontaorganisaatiota ja sen kanssa tiedeyhteisöä määrittelemään AI: n haitallisen käytön laajuuden. Ihmisen vastuu omasta luomuksestaan velvoittaa hänet tekemään vakavaa työtä riskien estämiseksi. Lakien lisäksi niiden luojien on myös rajoitettava robottien tehoa. Heidän on päätettävä, kuinka koneet sammutetaan ääritapauksissa.

Image
Image

Mainosvideo:

Sähköisten järjestelmien poliittinen väärinkäyttö on jo osoitettu sosiaalisten verkostojen ja data-analyysialgoritmien avulla. Tämän vuoden keväällä maailmassa upposi skandaali Cambridge Analytican kanssa. Sen asiantuntijat tekivät perusteellisen analyysin käyttäjätiedoista ja sijoittivat mainoksia Facebookiin, joka oli räätälöity jokaiselle henkilölle.

Yhtiön työntekijät eivät vain ylittäneet eettisiä puitteita, vaan myös soveltaneet moderneja tekniikoita, joiden työtä oli mahdotonta analysoida. Koneoppimisen tehokkuus on toistuva teema johtavien matemaatikkojen keskuudessa. He myöntävät yksimielisesti, että he ovat hämmästyneitä tietokoneohjelmien poikkeuksellisesta menestyksestä, mutta he eivät täysin pysty ymmärtämään monimutkaisen järjestelmän työtä. Myanmarissa tämän vuoden huhtikuussa Facebook-viestit aiheuttivat myös levottomuuksia joukkojen keskuudessa, mutta toisin kuin Yhdysvalloissa, joissa mielenosoituksia tehtiin, Aasian valtiossa tapahtui joukkomurha, joka tappoi useita satoja ihmisiä. Valtavan määrän ihmisten manipulointi on todellisuutta ja robotit voivat täällä pelata julmaa vitsiä.

Image
Image

On syytä muistaa sama Facebook, jossa AI-pohjaiset chatbotit käynnistettiin. Virtuaaliassistentit koulutettiin pitämään vuoropuhelua keskustelukumppanin kanssa. Ajan myötä robotit tulivat erottamattomiksi oikeista ihmisistä, ja sitten kirjoittajat päättivät yhdistää robotit. Ajan myötä robotit alkoivat lyhentää leksisia rakenteita ja vaihtaa juurtumista. Tiedotusvälineet paisuttivat sensaation uutisista, he sanoivat "koneet kapinoivat" Mutta jättämättä syrjään toimittajien liioittelu, on kohtuullista myöntää, että jos koneet alkavat kommunikoida keskenään, henkilö ei ehkä huomaa tätä. Ja kuinka he elävät siellä oman elämänsä - kukaan ei tiedä.

Tietokonemielen yhä monimutkaisempi rakenne päivittäin vie meidät tietämättä sen toiminnan periaatteita. Mutta vaikka suurin osa algoritmeista hoitaa tehtävänsä, monimutkaiset koneet ovat nykyäänkin kaukana ideaaleista ja tekevät virheitä. AI: n edelleen kehittämiseksi on tärkeää ymmärtää ei niinkään sen vahvuuksia, kuin sen haavoittuvuuksia. Juuri tähän on keskittynyt suuri joukko tieteellisiä ryhmiä, joissa yhdessä on asiantuntija MIT Anish Atalista. Vain muutama päivä sitten hän kertoi toimittajille yleisimmistä virheistä kuvan tunnistusjärjestelmissä.

Hänen kollegansa esittelivät esineitä koneelle ja havaitsivat, että elektroninen visio havaitsi usein yksittäiset esineet väärin. Tietokone voi kutsua baseballia kupin kahvia ja 3D-painettu kilpikonna armeijan koneeksi. Ryhmä on jo kerännyt noin 200 kohdetta, jotka ovat harhaanjohtavia algoritmeja.

Image
Image

Keinotekoinen älykkyys keskittyi sen sijaan, että havaittaisiin esine kokonaisuutena, sen yksittäisille parametreille. AI: lla on taipumus oppia "täydellisestä" näytteestä. Kohdatessaan sääntöjenvastaisia ilmiöitä hän ei voi aina luopua tavanomaisesta käsittelyprosessista. Sen sijaan, että tunnustaa kyvyttömyytensä käsitellä kuvaa, hän jatkaa kuvan lukemista ja tämä johtaa joskus hauskoihin tuloksiin. Kilpikonnan muodon sijasta elektroniset aivot yrittivät lukea sen tekstuurin, samanlaisena kuin naamiointi. Lähes samasta syystä e-auton autopilotit eivät ole vielä 100% luotettavia. Auton on vaikea nähdä siluetti ja olettaa, että se koostuu erillisistä elementeistä.

Ja jos joitain puutteita voidaan tulevina vuosina korjata, ei ole mitään takeita siitä, että hakkerit eivät hyödyntäisi haavoittuvuutta. Elektroniikkalaitteiden hakkerit ovat nykyään melkein suurin pelon syy. Pieni ohjelmoijajoukkue ei voi päästä käsiksi henkilökohtaisiin tietoihin, vaan myös konfiguroida itsenäiset järjestelmät hallitsemalla kolosiaalisen voiman työkalut. Ja sitten olemme kaikki vaikeuksissa. Mutta päätelmä, jonka voidaan tehdä, on ehkä perinteinen - sinun ei pitäisi pelätä autoja, vaan ihmisiä.

Aleksanteri Lavrenov