Kuinka Robotit Tappavat Demokratian Ja Julkisen Keskustelun Verkossa - Vaihtoehtoinen Näkymä

Kuinka Robotit Tappavat Demokratian Ja Julkisen Keskustelun Verkossa - Vaihtoehtoinen Näkymä
Kuinka Robotit Tappavat Demokratian Ja Julkisen Keskustelun Verkossa - Vaihtoehtoinen Näkymä

Video: Kuinka Robotit Tappavat Demokratian Ja Julkisen Keskustelun Verkossa - Vaihtoehtoinen Näkymä

Video: Kuinka Robotit Tappavat Demokratian Ja Julkisen Keskustelun Verkossa - Vaihtoehtoinen Näkymä
Video: Tietoisuus, tekoäly ja robotit 2024, Syyskuu
Anonim

Yhdysvaltojen presidentinvaalien kampanja on virallisesti alkanut, mikä puolestaan tarkoittaa runsaasti outoja ja salaperäisiä tapoja, joilla tekniikka vääristää politiikkaa. Yksi suurimmista uhista on keinotekoisia persoonallisuuksia, jotka ovat intohimoisesti mukana poliittisissa kiistoissa. Toisaalta tekoälyyn perustuvan tekstin tuotantoteknologia kehittyy nopeammin kuin koskaan, toisaalta sosiaalisten verkostojen chatbotit ovat melkein saavuttaneet täydellisyyden. Nämä tietokoneella luodut "ihmiset" hukuttavat pian todellisia ihmiskeskusteluja verkossa.

Tekstinluontiohjelmisto on riittävän hyvin kehitetty huijaamaan ketään. Tietokone on erinomainen uutisten kirjoittamiseen, etenkin urheilu- ja finanssialalla, neuvoessaan asiakkaita sijoitussivustoilla, kirjoittamalla vakuuttavia artikkeleita muista uutisaiheista (vaikkakin rajoitukset).

Samanaikaisesti jo on olemassa algoritmeja, jotka voivat tuottaa sisältöä, jota ei voida erottaa tavallisten käyttäjien viesteistä. Vuonna 2017 FCC kävi julkisen keskustelun suunnitelmistaan lopettaa verkon neutraliteetti. Aiheesta saatiin uskomatonta 22 miljoonaa kommenttia. Monet heistä - ehkä puolet - olivat vääriä, ja hyökkääjät käyttivät varastettuja henkilötodistuksia. Jotkut kommentit olivat töykeitä, 1,3 miljoonaa syntyi samasta mallista - niissä joitain sanoja muutettiin viestien ainutlaatuiseksi tekemiseksi.

Ja tämän alan tekniikat kehittyvät aktiivisesti. Harvardin tutkija Max Weiss käytti kokeilussaan tekstiä tuottavaa ohjelmistoa luomaan 1 000 kommenttia vastauksena hallituksen Medicaid-aloitteeseen. Kaikki nämä kommentit olivat ainutlaatuisia ja näyttivät siltä, että ne olisivat kirjoittaneet oikeita ihmisiä, jotka tukivat tiettyä poliittista asemaa. He onnistuivat huijaamaan Medicaid.govin ylläpitäjät ajattelemaan olevansa todellisten ihmisten todellisia pelkoja. Tutkimuksensa aikana Weiss paljasti myöhemmin kommentit vääriä ja pyysi niitä poistamaan. Mutta toinen henkilö tai tunkeilijaryhmä, joka seuraa tätä polkua, ei todennäköisesti ole yhtä moraalinen.

Chatbotit ovat olleet esillä sosiaalisen median keskusteluissa monien vuosien ajan. Yhden arvion mukaan noin viidesosa kaikista vuoden 2016 presidentinvaaleja koskevista tweeteistä julkaistiin botteilla ja noin kolmannes Brexitin äänestyksestä samana vuonna. Oxfordin yliopiston viime vuoden raportissa tutkijat löysivät todisteita siitä, että robotteja käytetään levittämään propagandaa 50 maassa. Pääsääntöisesti nämä olivat yksinkertaisia ohjelmia, joissa toistettiin ajatuksettomasti iskulauseita: esimerkiksi neljäsosa miljoonasta Saudi-Arabian tweetistä "Me kaikki uskomme Mohammed bin Salmaniin" Jamal Khashoggin salamurhan jälkeen vuonna 2018. Parempien bottien löytäminen on paljon vaikeampaa. Ja näiden bottien tehokkuuden mittaaminen on vaikeaa. Ne kaikki vääristävät yleistä mielipidettä ja uskoa perustelluissa poliittisissa keskusteluissa. Itse asiassa,olemme kaikki keskellä uutta sosiaalista kokeilua.

Vuosien varrella algoritmiset robotit ovat kehittäneet kokonaisia persoonallisuuksia. Heillä on vääriä nimiä, vääriä elämäkertoja ja vääriä valokuvia, toisinaan tietokoneella. Sen sijaan, että levittäisivät propagandaa loputtomasti, he lähettävät viestejä vain satunnaisesti. Tutkijat saattavat huomata, että ne ovat robotteja eivätkä ihmisiä lähettämiskuvioiden perusteella, mutta robotti tekniikka paranee koko ajan, ylittäen yritykset niiden jäljittämiseen. Tulevaisuuden robotit naamioidaan paremmin sosiaalisiksi ihmisryhmiksi, propaganda kudotaan hienovaraisesti tweetteihin näihin sosiaalisiin ryhmiin liittyvistä aiheista.

Pian ohjelman hallitsemat Simsit voivat kirjoittaa henkilökohtaisia kirjeitä sanomalehdille, pääministerien jäsenille valituille virkamiehille, tarjota henkilökohtaisia kommentteja julkisen päätöksenteon prosesseille ja puhua älykkäästi poliittisissa kysymyksissä sosiaalisessa mediassa. He voivat kommentoida viestejä sosiaalisissa verkostoissa, uutissivustoissa jne. Luodaan pysyviä hahmoja, jotka vaikuttavat todellisilta jopa niitä tutkiville. Hän osaa esitellä itsensä sosiaalisessa mediassa ja lähettää henkilökohtaisia tekstejä. Ne replikoituvat miljoonissa ja lähettävät miljardeja viestejä, pitkiä ja lyhyitä, ympäri vuorokauden. Yhdessä he voivat hukuttaa kaiken todellisen keskustelun Internetistä. Ei vain sosiaalisessa mediassa, mutta missä tahansa on kommentteja.

Ehkä näitä hahmoja hallitsevat ulkomaiset tunkeilijat. Ehkä nämä ovat sisäisiä poliittisia ryhmiä. Ehkä se on ehdokkaat itse. Todennäköisesti kaikki käyttävät sitä. Vuoden 2016 vaalien tärkein oppitieto desinformaatiosta ei ole se, että desinformaatio julkaistiin; mutta se on halpaa ja helppoa vääristää ihmisiä. Tuleva teknologinen kehitys tekee tästä kaikesta entistä edullisemman.

Mainosvideo:

Tulevaisuutemme on väkivaltainen poliittinen keskustelu, jossa botit kiistelevät enimmäkseen muiden botien kanssa. Tätä ei kuvailla, kun ylistämme ideoiden markkinoita tai mitä tahansa demokraattista poliittista prosessia. Jotta demokratia toimisi kunnolla, tarvitaan kaksi asiaa: tiedotus ja edustus. Keinotekoiset hahmot osuivat molempiin.

Ratkaisu ongelmaan ei ole vielä ilmeinen. Voimme yrittää säännellä robotien käyttöä - Kalifornian lakiehdotus edellyttää, että robotit tunnistavat itsensä - mutta tämä on tehokasta vain laillisiin influenssakampanjoihin, kuten mainoksiin. Piilotettu vaikutus on huomattavasti vaikeampi havaita. Selvin puolustus on parempien todennusmenetelmien kehittäminen ja standardisointi. Jos sosiaaliset verkostot ovat vakuuttuneita siitä, että kunkin tilin takana on todellinen henkilö, he pystyvät paremmin kitkemään vääriä henkilöitä. Mutta vääriä tilejä luodaan jo säännöllisesti todellisten ihmisten tietojen perusteella ilman heidän tietämistään tai suostumustaan. Meillä ei ole todennusjärjestelmää, joka suojaa yksityisyyttä ja voi tavoittaa miljardeja käyttäjiä.

Voimme vain toivoa, että kykymme tunnistaa keinotekoiset persoonallisuudet saavuttaa kykymme peittää ne. Mutta toistaiseksi hyökkääjät ovat aina askeleen edellä.

Päivän lopussa kaikkien päätösten on oltava ei-teknisiä. Meidän on tunnustettava Internetissä käydyn poliittisen keskustelun rajoitukset ja asetettava jälleen etusijalle kasvokkainen viestintä. On vaikeampaa automatisoida ja tiedämme, että ihmiset, joiden kanssa puhumme, ovat oikeita ihmisiä. Mutta toistaiseksi tämä kulttuurimuutos vaikuttaa täysin epärealistiselta ratkaisulta, ja desinfiointiyritykset ovat yleisiä kaikkialla maailmassa ja niitä toteutetaan yli 70 maassa. Tämä on normaali tapa propagandaa maissa, joissa on autoritaarisia hallintojärjestelmiä, ja siitä tulee tapa harjoittaa poliittista kampanjaa.

Keinotekoiset hahmot ovat propagandan tulevaisuutta. Ja vaikka he voivat olla tehottomia johtamaan keskustelua tiettyyn nimittäjään, he voivat helposti hukuttaa keskustelun kokonaan.

BRUCE SCHNEIER on tutkija ja luennoitsija Harvard Kennedy koulussa.