Kuinka Huijata Tekoälyn Algoritmia Ja Mikä Se On? Vaihtoehtoinen Näkymä

Kuinka Huijata Tekoälyn Algoritmia Ja Mikä Se On? Vaihtoehtoinen Näkymä
Kuinka Huijata Tekoälyn Algoritmia Ja Mikä Se On? Vaihtoehtoinen Näkymä

Video: Kuinka Huijata Tekoälyn Algoritmia Ja Mikä Se On? Vaihtoehtoinen Näkymä

Video: Kuinka Huijata Tekoälyn Algoritmia Ja Mikä Se On? Vaihtoehtoinen Näkymä
Video: Kuinka Convolutional Neural Network toimii? 2024, Syyskuu
Anonim

Ikkunan ulkopuolella on 2022. Ajat itse ajavaa autoa, kuten tavallista, kaupungin läpi. Auto lähestyy stop-merkkiä, jonka se on ohittanut monta kertaa, mutta tällä kertaa se ei pysähdy sen edessä. Sinulle tämä stop-merkki on kuin muut. Mutta autossa se on täysin erilainen. Muutamaa minuuttia aiemmin, ilman että ketään varoittaisi, hyökkääjä oli liittänyt pienen kilven kylttiin, näkymätön ihmissilmälle, mutta jota tekniikka ei voi huomaamatta. Toisin sanoen pieni kyltti merkissä muutti stop-merkin jotain täysin erilaista kuin stop-merkki.

Kaikki tämä voi tuntua uskomattomalta. Mutta kasvava tutkimusalue todistaa, että tekoäly voidaan huijata tällaisiksi, jos siinä nähdään jokin pieni yksityiskohta, joka on ihmisille täysin näkymätön. Kun koneoppimisalgoritmit ilmestyvät yhä enemmän teillemme, talouksemme, terveydenhuoltojärjestelmämme, tietotekniikan tutkijat toivovat oppivan lisää siitä, kuinka suojata heitä tällaisilta hyökkäyksiltä - ennen kuin joku todella yrittää huijata niitä.

Image
Image

"Tämä on kasvava huolenaihe koneoppimisessa ja AI-yhteisössä, varsinkin kun näitä algoritmeja käytetään yhä enemmän", sanoo Oregonin yliopiston tietokone- ja informaatiotieteiden laitoksen apulaisprofessori Daniel Lode.”Jos roskapostia läpäisee tai se estyy useiden sähköpostien kautta, tämä ei ole maailman loppu. Mutta jos luotat itseohjautuvassa autossa olevaan visiojärjestelmään, joka kertoo autolle, kuinka ajaa ilman, että törmää mihinkään, panokset ovat paljon korkeammat."

Hajoaako kone hakkerointiin tai hakkerointiin, kärsivät koneen oppimisalgoritmit, jotka "näkevät" maailman. Ja niin autolle, panda näyttää kuin hiukka, ja koulubussi näyttää strutilta.

Yhdessä kokeessa tutkijat Ranskasta ja Sveitsistä osoittivat, kuinka tällaiset häiriöt saattavat aiheuttaa tietokoneen erehdyttämään oravan harmaaksi kettuksi ja kahvipannun papukaijaan.

Kuinka tämä on mahdollista? Ajattele, kuinka lapsesi oppii tunnistamaan numerot. Kun tarkastellaan symboleja yksitellen, lapsi alkaa huomata joitain yleisiä ominaisuuksia: jotkut ovat pitempiä ja ohuempia, kuusi ja yhdeksän sisältävät yhden suuren silmukan ja kahdeksan sisältävät kaksi jne. Kun he näkevät tarpeeksi esimerkkejä, he tunnistavat nopeasti uudet numerot nelinkertaisiksi, kahdeksasiksi tai kolmoisiksi - vaikka fontti tai käsinkirjoitus ansiosta ne eivät näyttäisi täsmälleen millään muilla nelinpelin, kahdeksan tai kolmoisilla, joita heillä koskaan on. nähty aiemmin.

Koneoppimisen algoritmit oppivat lukemaan maailmaa jonkin verran samanlaisella prosessilla. Tutkijat syöttävät tietokoneelle satoja tai tuhansia (yleensä merkittyjä) esimerkkejä siitä, mitä he haluaisivat löytää tietokoneelta. Kun kone selaa tietoja - tämä on numero, tämä ei ole, tämä on numero, tämä ei ole -, se alkaa huomata ominaisuuksia, jotka johtavat vastaukseen. Pian hän voi katsoa kuvaa ja sanoa: "Se on viisi!" erittäin tarkasti.

Mainosvideo:

Siten sekä ihmislapset että tietokoneet voivat oppia tunnistamaan suuren joukon esineitä, numeroista kissoihin, veneistä yksittäisiin ihmisen kasvoihin.

Mutta toisin kuin ihmisen lapsi, tietokone ei kiinnitä huomiota korkean tason yksityiskohtiin - kuten kissojen karvaisiin korviin tai niiden neljään erottuvaan kulmamuotoon. Hän ei näe koko kuvaa.

Sen sijaan se tarkastelee kuvan yksittäisiä pikseliä - ja nopein tapa erottaa objektit. Jos ylivoimaisella enemmistöllä yksiköillä on musta pikseli tietyssä pisteessä ja muutama valkoinen pikseli muissa pisteissä, kone oppii nopeasti määrittelemään ne muutamalla pikselillä.

Nyt takaisin stop-merkkiin. Korjaamalla kuvan pikseliä huomaamattomasti - asiantuntijat kutsuvat tätä häiriötä "häiriöiksi" - voit huijata tietokoneen ajattelemaan, että lopetusmerkkiä ei oikeastaan ole.

Image
Image

Samankaltaiset tutkimukset Wyomingin yliopiston ja Cornellin yliopiston Evolutionary Artificial Intelab -laboratoriosta ovat tuottaneet melko monia optisia illuusioita tekoälylle. Nämä psykedeeliset kuvat abstrakteista kuvioista ja väreistä eivät eroa millään ihmisille, mutta tietokone tunnistaa ne nopeasti käärmeiksi tai kivääreiksi. Tämä viittaa siihen, kuinka AI voi katsoa jotain eikä nähdä objektia tai nähdä jotain muuta sen sijaan.

Tämä heikkous on yleinen kaikentyyppisissä koneoppimisalgoritmeissa. "Voitaisiin odottaa, että jokaisessa algoritmissa on reikä panssariin", sanoo Vanderbiltin yliopiston tietotekniikan ja tietojenkäsittelyn apulaisprofessori Jevgeny Vorobeichik. "Elämme hyvin monimutkaisessa moniulotteisessa maailmassa, ja algoritmit vaikuttavat luonteeltaan vain pieneen osaan siitä."

Sparrow on "erittäin varma", että jos näitä haavoittuvuuksia esiintyy, joku selvittää, kuinka niitä hyödyntää. Todennäköisesti joku on jo tehnyt tämän.

Harkitse roskapostisuodattimia, automaattisia ohjelmia, jotka suodattavat kaikki hankalit sähköpostit. Roskapostittajat voivat yrittää kiertää tämän esteen muuttamalla sanojen oikeinkirjoitusta (Viagra - vi @ gra: n sijasta) tai lisäämällä luettelo "hyvistä sanoista", jotka löytyvät yleensä normaaleista kirjaimista: kuten "aha", "minä", "iloinen". Samaan aikaan roskapostittajat voivat yrittää poistaa roskapostissa usein esiintyviä sanoja, kuten "mobiili" tai "voittaa".

Mistä huijarit pääsevät yhteen päivään? Pysäytyskyltitarrat pettävät itse ajava auto on klassinen skenaario, jonka alan asiantuntijat ajattelivat. Lisätiedot voivat auttaa pornografiaa liikkumaan turvallisten suodattimien läpi. Toiset voivat yrittää lisätä tarkastusten määrää. Hakkerit voivat säätää haittaohjelmien koodia kiertääkseen lainvalvontaa.

Hyökkääjät voivat selvittää, miten puuttuvaa tietoa luodaan, jos he saavat kopion koneoppimisalgoritmista, jota he haluavat huijata. Mutta sen ei tarvitse olla käydä läpi algoritmi. Sen voi yksinkertaisesti rikkoa raa'alla voimalla heittämällä siihen hiukan erilaisia versioita sähköpostista tai kuvista, kunnes ne ohittavat. Ajan myötä sitä voidaan käyttää jopa kokonaan uudelle mallille, joka tietää mitä hyvät kaverit etsivät ja mitä tietoja tuottaa hämäämiseksi.

"Ihmiset ovat manipuloineet koneoppimisjärjestelmiä niiden käyttöönoton jälkeen", sanoo Pennsylvanian yliopiston tietotekniikan ja tekniikan professori Patrick McDaniel. "Jos ihmiset käyttävät näitä menetelmiä, emme ehkä edes tiedä siitä."

Näitä menetelmiä eivät voi käyttää vain petokset - ihmiset voivat piiloutua modernin tekniikan röntgensäteiltä.

"Jos olet jonkinlainen poliittinen toisinajattelija repressiivisessä järjestelmässä ja haluat suorittaa tapahtumia tiedustelupalvelun tietämättä, saatat joutua välttämään koneoppimiseen perustuvia automaattisia tarkkailumenetelmiä", Lode sanoo.

Yhdessä lokakuussa julkaistussa projektissa Carnegie Mellon -yliopiston tutkijat loivat lasiparin, joka voi hienovaraisesti johtaa harhaan kasvojen tunnistusjärjestelmää, aiheuttaen tietokoneelle erehtyä näyttelijä Reese Witherspoon Russell Crowea varten. Se kuulostaa naurettavalta, mutta tällainen tekniikka saattaa olla hyödyllinen kenelle tahansa, joka haluaa välttää vallanpitäjien sensuuria.

Mitä tehdä kaikkeen tähän? "Ainoa tapa välttää tämä kokonaan on luoda täydellinen malli, joka on aina oikein", Lode sanoo. Vaikka voisimme luoda keinotekoisen älykkyyden, joka ylittää ihmisen kaikin tavoin, maailma voi silti liukastaa sian odottamattomaan paikkaan.

Koneoppimisalgoritmit arvioidaan yleensä niiden tarkkuuden perusteella. Ohjelma, joka tunnistaa tuolit 99% ajasta, on selvästi parempi kuin se, joka tunnistaa 6 tuolia kymmenestä. Mutta jotkut asiantuntijat ehdottavat toista tapaa arvioida algoritmin kykyä selviytyä hyökkäyksestä: mitä vaikeampi, sitä parempi.

Toinen ratkaisu voi olla, että asiantuntijat pystyvät asettamaan ohjelmien vauhdin. Luo omat esimerkit hyökkäyksistä laboratoriossa mielestänne rikollisten kykyjen perusteella ja näytä ne sitten koneoppimisalgoritmille. Tämä voi auttaa sitä tulemaan joustavammaksi ajan myötä - edellyttäen tietysti, että testihyökkäykset ovat sellaisia, joita testataan todellisessa maailmassa.

”Koneoppimisjärjestelmät ovat ajattelun työkalu. Meidän on oltava älykkäitä ja rationaalisia suhteessa siihen, mitä annamme heille ja mitä he kertovat meille”, McDaniel sanoi. "Meidän ei pitäisi pitää heitä täydellisinä totuuden oraakkeina."

ILYA KHEL

Suositeltava: