Tutkijat Ovat Ehdottaneet Tapaa Estää Tulevaisuuden Robottien Aiheuttama Maailman Loppuminen - Vaihtoehtoinen Näkymä

Tutkijat Ovat Ehdottaneet Tapaa Estää Tulevaisuuden Robottien Aiheuttama Maailman Loppuminen - Vaihtoehtoinen Näkymä
Tutkijat Ovat Ehdottaneet Tapaa Estää Tulevaisuuden Robottien Aiheuttama Maailman Loppuminen - Vaihtoehtoinen Näkymä

Video: Tutkijat Ovat Ehdottaneet Tapaa Estää Tulevaisuuden Robottien Aiheuttama Maailman Loppuminen - Vaihtoehtoinen Näkymä

Video: Tutkijat Ovat Ehdottaneet Tapaa Estää Tulevaisuuden Robottien Aiheuttama Maailman Loppuminen - Vaihtoehtoinen Näkymä
Video: 19.10.2020 Espoon valtuuston kokous / Esbo fullmäktiges möte 2024, Huhtikuu
Anonim

Monet ihmiset pelkäävät tulevaisuudessa robotin kapinaa ja vaativat keinotekoisen älykkyyden kehityksen lopettamista, jotta tulevaisuuden kielteinen tilanne voidaan välttää. Mutta robotiikan kehittämiseen liittyvässä teollisuudessa on mukana valtava määrä ihmisiä ja rahaa, joten kukaan ei aio pysäyttää tällaisen tekniikan kehitystä. Voisimmeko kohdata apokalypsin luomuksemme vuoksi, ja onko keino estää koneiden kapina?

Jokin aika sitten Science Alert julkaisi tiedemaailman asiantuntijoiden artikkelin, jossa keskusteltiin erityisen algoritmin kehittämisestä, joka auttaa estämään keinotekoisella älykkyydellä toimivien robotien hallitsematonta käyttäytymistä tulevaisuudessa. Tutkijoiden mukaan robotit eivät yksinkertaisesti voi vahingoittaa ihmisiä tämän menetelmän takia.

Tutkijat itse kutsuivat algoritmiaan Seldonian. Mutta mikä sen merkitys on? Algoritmit kykenevät analysoimaan koneiden hyväksyttävää käyttäytymistä ja suojaavat ihmisiä maksimaalisesti robottien kielteisiltä vaikutuksilta, mutta algoritmit eivät sisällä hyvän ja pahan käyttäytymisen käsitettä, joten kaikki asiantuntijat eivät usko algoritmien suojaustoimintoihin.

Uuden järjestelmän kehittäjät kertoivat algoritmin toiminnasta käyttämällä yhtä esimerkkejä, eli insuliinipumpun ohjaamista automatisoidulla järjestelmällä. Jos potilaan veressä olevan insuliinin määrä laskee erittäin alhaiselle tasolle, algoritmit ehdottavat tarvittavia toimenpiteitä ihmisen pelastamiseksi.

Jokin aika sitten monet tutkijat ilmaisivat huolensa keinotekoiseen älykkyyteen perustuvien ydinaseiden kehittämisestä. Jos tällaiset järjestelmät tekevät omat päätöksensä, se voi aiheuttaa maapallon apokalypsin. Älä unohda hakkereiden toimia, jotka voivat hakkeroida tällaisia järjestelmiä. Mikään suojaava algoritmi ei auta tässä tapauksessa. Siksi voidaan katsoa, että robottien ja tekoälyn kehittämisen alalla ei ole ihanteellista suojaa nykymaailman uhilta.