Keinotekoinen äly On Opetettu Pettämään Muita Tekoälyjä - Vaihtoehtoinen Näkymä

Keinotekoinen äly On Opetettu Pettämään Muita Tekoälyjä - Vaihtoehtoinen Näkymä
Keinotekoinen äly On Opetettu Pettämään Muita Tekoälyjä - Vaihtoehtoinen Näkymä

Video: Keinotekoinen äly On Opetettu Pettämään Muita Tekoälyjä - Vaihtoehtoinen Näkymä

Video: Keinotekoinen äly On Opetettu Pettämään Muita Tekoälyjä - Vaihtoehtoinen Näkymä
Video: Etkö älyä tekoälyä? Kohta älyät! 2024, Syyskuu
Anonim

Massachusetts Institute of Technology (MIT) -tutkijat ovat kehittäneet tekniikan tekstin analysoivan tekoälyn (AI) huijaamiseen, Wired kertoi 23. helmikuuta.

Tutkijat ovat huomanneet, että henkilölle ymmärrettävän lauseen pieni muutos voi johtaa harhaan AI: ta. He kehittivät algoritmin korvata sanat synonyymeillä ja huijaamaan AI: n tunnistustekstin. Vivahteena on, että hyökkäävä algoritmi käyttää itse AI: ta synonyymien valitsemiseksi.

Esimerkiksi lause "Mahdollisesti hahmoissa tilanteissa valetut hahmot ovat täysin vieraantuneita todellisuudesta." ("Uskomattoman haastavissa tilanteissa pelatut hahmot ovat täysin ulottumattomissa todellisuuteen"), joka on negatiivinen arvostelu elokuvalle.

Jos korvaamme siinä olevat sanat synonyymeillä, ilmaus”Mahdollisesti muokattuihin olosuhteisiin valetut hahmot ovat täysin vieraantuneet todellisuudesta” (”Uskomattoman taitavissa olosuhteissa pelatut hahmot ovat täysin erillään todellisuudesta”), AI pitää katsausta positiivisena.

Muun tyyppisiä AI-järjestelmiä voidaan myös harhauttaa, tässä tapauksessa haavoittuvuudet osoitettiin pääasiassa kuva- ja puheentunnistusjärjestelmissä.

Tutkijat huomauttivat, että tällaiset hienovaraiset tietojen vahingoittuminen voivat johtaa AI: n harhaan ja käyttää järjestelmien hyökkäykseen, mikä on tulossa merkittäväksi, kun AI leviää rahoituksen, terveydenhuollon ja muiden aloilla.