Maailman Vaarallisin Tekoäly On Kehitetty: Mitä Se Voi Tehdä? - Vaihtoehtoinen Näkymä

Maailman Vaarallisin Tekoäly On Kehitetty: Mitä Se Voi Tehdä? - Vaihtoehtoinen Näkymä
Maailman Vaarallisin Tekoäly On Kehitetty: Mitä Se Voi Tehdä? - Vaihtoehtoinen Näkymä

Video: Maailman Vaarallisin Tekoäly On Kehitetty: Mitä Se Voi Tehdä? - Vaihtoehtoinen Näkymä

Video: Maailman Vaarallisin Tekoäly On Kehitetty: Mitä Se Voi Tehdä? - Vaihtoehtoinen Näkymä
Video: Tekoäly nyt: Mitä tekoäly osaa ja mihin sen kehitys on menossa? | Jaakko Lehtinen 2024, Saattaa
Anonim

OpenAI-yritys, jonka perustajista Elon Musk on, ilmoitti edistyneen tekoälyn luomisesta alkuperäisten tekstien kirjoittamiseksi tietystä aiheesta. Sen piti kääntää tekstit muille kielille, vastata kysymyksiin ja suorittaa muita hyödyllisiä tehtäviä, mutta tutkimukset ovat osoittaneet, että se voi olla erittäin vaarallinen ja tietoverkkorikolliset voivat käyttää sitä maskelemaan ihmisiä massiivisesti. Tältä osin yritys päätti näyttää yleisölle vain rajoitetun version ja pitää alkuperäisen luottamusluoteessa.

Tietokonemalli nimettiin GPT-2 ja sitä koulutettiin kahdeksalta miljoonalta verkkosivulta. Niille kirjoitetut tekstit muodostavat perustan uutta materiaalia ihmisen asettamasta aiheesta: esimerkiksi tekoäly voi laatia kokonaisen esseen jätteiden kierrätyksen positiivisista näkökohdista tai fantasiakertomuksen, jonka tyyli on "Renkaat-herra". Tutkijat havaitsivat kuitenkin myös, että järjestelmä tekee erinomaista työtä kirjoittamalla vääriä uutisia kuuluisuuksista, katastrofeista ja jopa sodista.

Tällä hetkellä tekstinluontityökalun täysversio on saatavana vain kehittäjille ja joillekin MIT-teknologiakatsauksen avustajille. Koska sitä voidaan käyttää väärennettyjen uutisten ja julkaisujen hallitsemattomaan luomiseen sosiaalisissa verkostoissa, päätettiin olla julkaisematta niitä julkisesti ja pitämään ne salassa.

ScienceAlert jakoi esimerkin väärennöistä:

Voit lukea lyhyen esseen tekstistä jätteiden kierrätyksestä OpenAI-blogissa.

Kehittäjät myöntävät, että kielimalli ei ole tällä hetkellä ihanteellinen: järjestelmä sallii joskus toistaa tiettyjä tekstipalasia, luonnotonta teemavaihtoa ja maailmanmallinnusvirheitä. Esimerkiksi yhdessä testausvaiheessa järjestelmä kirjoitti tulipalosta, joka palaa veden alla.

Mainosvideo:

Avoimen AI-politiikan johtajan Jack Clarken mukaan tällainen algoritmi voi parin vuoden kuluttua muuttua vaaralliseksi ihmisten harhaanjohtamisen aseeksi. Jotkut kriitikot ovat vakuuttuneita siitä, että tekniikka ei ole millään tavalla vaarallinen, ja yritys vain kiinnittää huomiota itseensä.