Kuinka Hermoverkot Opetettiin Väärentämään Uutiskuvaa - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Kuinka Hermoverkot Opetettiin Väärentämään Uutiskuvaa - Vaihtoehtoinen Näkymä
Kuinka Hermoverkot Opetettiin Väärentämään Uutiskuvaa - Vaihtoehtoinen Näkymä

Video: Kuinka Hermoverkot Opetettiin Väärentämään Uutiskuvaa - Vaihtoehtoinen Näkymä

Video: Kuinka Hermoverkot Opetettiin Väärentämään Uutiskuvaa - Vaihtoehtoinen Näkymä
Video: Mystiset aivomme | Onko meillä vapaata tahtoa? 2024, Huhtikuu
Anonim

Väärennösten luomiseen käytetään keinotekoisia älyjärjestelmiä ja tekniikoita video- ja ääni väärennösten tuottamiseksi.

Yhden ohjelmoijan ponnistelut riittävät nykyään luodakseen "yksilöllisen" uutiskuvan kenelle tahansa meistä ja vääriä siihen valittuja mediaraportteja. Tekoälyn ja kyberturvallisuuden asiantuntijat kertoivat Izvestialle tästä. Viime aikoina he arvioivat, että tämä vaatii useiden ryhmien työtä. Tällainen kiihtyminen tuli mahdolliseksi kehittämällä hermoverkkoihin kohdistuvia hyökkäyksiä koskevia tekniikoita ja tuottamalla ääni- ja videoväärennöksiä käyttämällä ohjelmia "syvien väärennösten" luomiseen. Izvestia-sanomalehti kärsi äskettäin samanlaisesta hyökkäyksestä, kun kolme Libyan uutisportaalia julkaisi kerralla viestin, jonka väitettiin esiintyneen yhdessä aiheesta. Asiantuntijoiden mukaan 3-5 vuoden kuluessa voidaan odottaa robottimanipulaattorien hyökkäystä, joka pystyy automaattisesti luomaan monia väärennöksiä.

Uusi uljas maailma

On ollut enemmän ja enemmän hankkeita, jotka mukauttavat tietokuvan tiettyjen käyttäjien näkemykseen. Yksi esimerkki heidän työstään oli kolmen Libyan portaalin äskettäinen toiminta, joka julkaisi uutiset, joiden väitettiin painettua Izvestian numeroon 20. marraskuuta. Väärennöksen tekijät muuttivat sanomalehden etusivua lähettämällä sille viestin kenttä marsalkka Khalifa Haftarin ja National Accordin (PNS) hallituksen pääministerin Fayez Sarrajin välisistä neuvotteluista. Väärennetty Izvestia-kirjasimella liitettiin valokuvaan kahdesta johtajasta toukokuussa 2017. Etiketti julkaisun logolla leikattiin varsinaisesta 20. marraskuuta ilmestyneestä numerosta ja kaikki muut sivun tekstit 23. lokakuuta ilmestyneestä numerosta.

Asiantuntijoiden näkökulmasta tällainen väärentäminen voidaan tehdä lähitulevaisuudessa automaattisesti.

Image
Image

"Keinotekoisen älykkyyden tekniikat ovat nyt täysin avoimia, ja tiedon vastaanotto- ja käsittelylaitteet ovat muuttumassa pienentyneiksi ja halvemmaksi", Fysiikan fyysisen ja matemaattisen tieteen tohtori, Venäjän tiedeakatemian professori, FSUE “GosNIIAS” -osaston päällikkö Juri Vilsiter kertoi Izvestijalle. - Siksi on erittäin todennäköistä, että lähitulevaisuudessa edes valtio ja suuret yritykset, mutta vain yksityishenkilöt pystyvät salakuuntelemaan ja vakoilemaan meitä sekä manipuloimaan todellisuutta. Tulevina vuosina on mahdollista analysoida käyttäjän mieltymyksiä vaikuttaa häneen uutissyötteiden ja erittäin taitavien väärennösten avulla.

Mainosvideo:

Juri Vilsiterin mukaan tekniikoita, joita voidaan käyttää sellaiseen mielenterveyden toimintaan, on jo olemassa. Teoriassa manipulaattoriohjelmien hyökkäyksen voidaan odottaa muutamassa vuodessa, hän sanoi. Rajoittava kohta voi tässä olla tarve kerätä suuria tietokantoja esimerkkejä todellisten ihmisten vastauksista keinotekoisiin ärsykkeisiin seuraamalla pitkäaikaisia seurauksia. Tällainen seuranta vaatii todennäköisesti vielä useita vuosia tutkimusta, ennen kuin kohdistettuja hyökkäyksiä saadaan jatkuvasti.

Näön hyökkäys

Aleksei Parfentiev, SearchInformin analytiikkaosaston päällikkö, on yhtä mieltä Juri Vilsiterin kanssa. Hänen mukaansa asiantuntijat ennustavat jo hyökkäyksiä hermoverkkoihin, vaikka tällaisia esimerkkejä ei käytännössä ole.

- Gartnerin tutkijat uskovat, että vuoteen 2022 mennessä 30% kaikista kyberhyökkäyksistä on suunnattu hermoverkon harjoittaman tiedon vioittamiseen ja valmiiden koneoppimismallien varastamiseen. Sitten esimerkiksi miehittämättömät ajoneuvot voivat yhtäkkiä sekoittaa jalankulkijoita muihin esineisiin. Emme puhu taloudellisista tai maineellisista riskeistä, vaan tavallisten ihmisten elämästä ja terveydestä, asiantuntija uskoo.

Tietokoneen visiojärjestelmien hyökkäyksiä tehdään nyt osana tutkimusta. Tällaisten hyökkäysten tarkoituksena on pakottaa hermoverkko havaitsemaan kuvasta mitä siellä ei ole. Tai päinvastoin, ei nähdä mitä oli suunniteltu.

Image
Image

"Yksi aktiivisesti kehittyvistä aiheista hermoverkkojen kouluttamisessa on ns kontraversiohyökkäykset (" kontraversiohyökkäykset "- Izvestia)", selitti Kaspersky Labin verkkoanalyytikko Vladislav Tushkanov. - Useimmissa tapauksissa ne on suunnattu tietokonenäköjärjestelmiin. Tällaisen hyökkäyksen suorittamiseksi useimmissa tapauksissa sinulla on oltava täysi pääsy hermoverkkoon (ns. White-box-hyökkäykset) tai sen työn tuloksiin (black-box-hyökkäykset). Ei ole menetelmiä, jotka voisivat pettää minkä tahansa tietokoneen visiojärjestelmän 100-prosenttisesti. Lisäksi on jo luotu työkaluja, joiden avulla voit testata hermoverkkojen vastustuskykyä vastustajan hyökkäyksille ja lisätä niiden vastustuskykyä.

Tällaisen hyökkäyksen aikana hyökkääjä yrittää jollain tavalla muuttaa tunnistettua kuvaa niin, että hermoverkko ei toimi. Usein valokuvan päälle on asetettu melu, joka on samanlainen kuin melu, kun kuvataan huonosti valaistuissa huoneissa. Henkilö ei yleensä huomaa tällaista häiriötä, mutta hermoverkko alkaa toimia. Mutta hyökkäyksen suorittamiseksi hyökkääjä tarvitsee pääsyn algoritmiin.

Neuroset Ashmanovin pääjohtajan Stanislav Ashmanovin mukaan tällä hetkellä ei ole menetelmiä tämän ongelman ratkaisemiseksi. Lisäksi tämä tekniikka on kaikkien saatavilla: tavallinen ohjelmoija voi käyttää sitä lataamalla tarvittavat avoimen lähdekoodin ohjelmistot Github-palvelusta.

Image
Image

- Hyökkäys hermoverkkoon on hermoverkon pettämiseen tarkoitettu tekniikka ja algoritmit, joiden ansiosta se tuottaa vääriä tuloksia ja itse asiassa rikkoa sen kuin oven lukko - Ashmanov uskoo. - Esimerkiksi, nyt on melko helppoa saada kasvojentunnistusjärjestelmä ajattelemaan, että et ole sinä, vaan sen edessä Arnold Schwarzenegger - tämä tehdään sekoittamalla ihmisen silmälle havaitsemattomia lisäaineita hermoverkkoon tuleviin tietoihin. Samat hyökkäykset ovat mahdollisia puheen tunnistus- ja analysointijärjestelmille.

Asiantuntija on varma, että se vain pahenee - nämä tekniikat ovat menneet joukkoille, petostekijät käyttävät niitä jo nyt, eikä heiltä ole suojaavia keinoja. Koska video- ja ääni väärennösten automaattista luomista ei ole suojattu.

Syvät väärennökset

Deepfake-tekniikat, jotka perustuvat syvään oppimiseen (hermoverkkojen syvän oppimisen tekniikat. - Izvestia), aiheuttavat jo todellisen uhan. Video- tai ääni väärennökset luodaan muokkaamalla tai peittämällä kuuluisien ihmisten kasvoja, jotka väitetään lausuttavan tarvittavan tekstin ja pelaavat tarvittavaa roolia juoni.

”Deepfake antaa sinun korvata huulten liikkeet ja ihmisen puheen videolla, mikä luo tunteen realismista tapahtumassa”, sanoo Andrey Busargin, Group-IB: n innovatiivisen tuotemerkkisuojan ja immateriaalioikeuden osaston johtaja. - Väärennetyt kuuluisuudet "tarjoavat" käyttäjille sosiaalisissa verkostoissa osallistua arvokkaiden palkintojen (älypuhelimet, autot, rahasummat) piirtämiseen jne. Näiden videoiden linkit johtavat usein vilpillisiin ja kalastelusivustoihin, joihin käyttäjiä pyydetään antamaan henkilökohtaisia tietoja, mukaan lukien pankkikorttitiedot. Tällaiset järjestelmät uhkaavat sekä tavallisia käyttäjiä että mainosteksteissä mainittuja henkilöitä. Tällaisten shenaniganien takia julkkiskuvat yhdistetään huijauksiin tai mainostettuihin tavaroihin.ja tässä kohtaamme henkilökohtaista tuotemerkkivahinkoa”, hän sanoo.

Image
Image

Toinen uhka liittyy”väärennettyjen äänien” käyttöön puhelinpetoksissa. Esimerkiksi Saksassa verkkorikolliset käyttivät ääni-syvällisyyttä saadakseen Yhdistyneen kuningaskunnan tytäryhtiön päällikön kiireellisesti siirtämään 220 000 euroa unkarilaisen toimittajan tilille puhelinkeskusteluissa nimittäen yrityksen johtajaksi. Brittiläisen yrityksen päällikkö epäili temppua, kun hänen "pomo" pyysi toista rahanmääräystä, mutta puhelu tuli itävaltalaiselta numerolta. Siihen mennessä ensimmäinen erä oli jo siirretty Unkarin tilille, josta rahat nostettiin Meksikoon.

Osoittautuu, että nykyiset tekniikat mahdollistavat yksittäisen uutiskuvan, joka on täynnä vääriä uutisia. Lisäksi pian on mahdollista erottaa väärennökset todellisesta videosta ja äänestä vain laitteiston avulla. Asiantuntijoiden mukaan toimenpiteet, jotka kieltävät hermoverkkojen kehittymisen, eivät todennäköisesti ole tehokkaita. Siksi elämme pian maailmassa, jossa on tarpeen tarkistaa jatkuvasti kaikki.

"Meidän on varauduttava tähän ja meidän on hyväksyttävä se", korosti Juri Vilsiter. - Ihmiskunta ei ole ensimmäinen kerta siirtyä todellisuudesta toiseen. Maailma, elämäntapa ja arvot eroavat radikaalisti maailmasta, jossa esi-isämme asuivat 60 000 vuotta sitten, 5000 vuotta sitten, 2000 vuotta sitten ja jopa 200–100 vuotta sitten. Lähitulevaisuudessa henkilöllä on suurelta osin yksityisyyden suoja, joten hänet pakotetaan olemaan piilottamatta mitään ja toimimaan rehellisesti. Samaan aikaan mitään ympäröivään todellisuuteen ja omaan persoonallisuuteensa ei voida ottaa uskoon, kaikki on kyseenalaistettava ja tarkistettava jatkuvasti. Mutta onko tulevaisuuden todellisuus huono? Ei. Se on yksinkertaisesti täysin erilainen.

Anna Urmantseva