Keinotekoinen äly On Oppinut Näkemään Verkkopeitot - Vaihtoehtoinen Näkymä

Keinotekoinen äly On Oppinut Näkemään Verkkopeitot - Vaihtoehtoinen Näkymä
Keinotekoinen äly On Oppinut Näkemään Verkkopeitot - Vaihtoehtoinen Näkymä

Video: Keinotekoinen äly On Oppinut Näkemään Verkkopeitot - Vaihtoehtoinen Näkymä

Video: Keinotekoinen äly On Oppinut Näkemään Verkkopeitot - Vaihtoehtoinen Näkymä
Video: 10 MERKKIÄ SIITÄ, ETTÄ OLET ÄLYKÄS 2024, Saattaa
Anonim

Keinotekoinen äly lukee Redditin käyttäjien aggressiivisia kommentteja ja ymmärsi, kuinka toiset ihmiset vihaavat ihmiset puhuvat. Häntä on vaikeampi pettää kuin tavallinen botin valvoja.

Internetissä asuu rasvaa ja ohut peikko, ja vain töykeät ihmiset, jotka eivät mene taskuunsa sanojen vuoksi. Internetin manuaalinen hallinta on vaikeaa ja kiitollista työtä. Botit, jotka on ohjelmoitu etsimään sanoja "kielletystä luettelosta", tekevät paremmin, mutta he eivät voi tietää milloin kaustinen kommentti koodisanoilla on vaaraton vitsi ja milloin se on paha sanallinen hyökkäys.

Kanadan tutkijat ovat opettaneet tekoälyn erottamaan raa'at vitsit vahingollisista vitseistä ja siitä, mitä sosiologit kutsuvat "vihapuheeksi".

Dana Wormsley, yksi AI: n luojaista, toteaa, että "vihapuhetta" on vaikea muotoilla. Itse asiassa muodollisesti loukkaavia sanoja voidaan käyttää sekä ironisesti että niiden miedommassa merkityksessä; vain jotkut tällaisia sanoja sisältävät tekstit yllyttävät ja nöyryyttävät vakavasti. Emme anna esimerkkejä, koska Venäjän internetiä säätelevillä hallitusjärjestöillä ei vielä ole tekoälyä).

Neuraaliverkko koulutettiin näytteistä sellaisten yhteisön jäsenten lausunnoista, jotka tunnetaan vihamielisyydestään väestön eri ryhmille. Neuraaliverkko oppinut Reddit-sivuston viesteistä - foorumi, josta löydät monenlaisia sidosryhmiä kansalaisoikeusaktivisteista radikaaleihin misogynisteihin. Järjestelmään ladatut tekstit loukkasivat useimmiten afrikkalaisia amerikkalaisia, ylipainoisia ihmisiä ja naisia.

Tällä tavalla koulutettu hermoverkko antoi vähemmän vääriä positiivisia kuin ohjelmat, jotka määrittelevät "vihapuheen" avainsanoilla. Järjestelmä tarttui rasismiin, jossa indikaattorisanoja ei ollut ollenkaan. Hyvästä suorituskyvystä huolimatta AI-moderaattorin luojat eivät ole varmoja siitä, että heidän kehitystyötään käytetään laajasti. Toistaiseksi hän on onnistuneesti löytänyt vihapuheen Redditistä, mutta onnistuiko hän tekemään saman Facebookissa ja muilla alustoilla, ei tiedetä. Lisäksi järjestelmä on epätäydellinen, joskus kaipaamatta monia näennäisesti töykeitä rasistisia lausuntoja, joita avainsanahakukone ei jättäisi väliin. Ainoa, joka pystyy erottamaan loukkauksen viattomasta vitsistä, kun henkilö pysyy.