Tappajarobotit - Se Ei Ole Enää Fantasia, Vaan Todellisuus - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Tappajarobotit - Se Ei Ole Enää Fantasia, Vaan Todellisuus - Vaihtoehtoinen Näkymä
Tappajarobotit - Se Ei Ole Enää Fantasia, Vaan Todellisuus - Vaihtoehtoinen Näkymä

Video: Tappajarobotit - Se Ei Ole Enää Fantasia, Vaan Todellisuus - Vaihtoehtoinen Näkymä

Video: Tappajarobotit - Se Ei Ole Enää Fantasia, Vaan Todellisuus - Vaihtoehtoinen Näkymä
Video: Angst - Kierkegaards begreb som tegnefilm 2024, Saattaa
Anonim

On myönnettävä, että robotti on edistynyt melkoisesti viime vuosina. Puolustusyritysten luomat aseet ovat älykkäämpiä, tekoälyjärjestelmät on kytketty niihin, robotit saavat täyden autonomian jne. Tämä tarkoittaa, että tappajarobotista voi tulla todellisuutta nopeammin kuin luulemme. Ainakin niin ajattelevat RAH: n, Alankomaissa toimivan voittoa tavoittelemattoman organisaation, joka puolustaa maailmanrauhaa, edustajat. He ilmoittivat tästä Quartz-lehdessä julkaistussa raportissa.

Miksi rakentaa tappajarobotteja?

Tappajarobotit on suunniteltu tekemään päätöksiä itsensä ottamisesta tai säilyttämisestä ilman ihmisen hallintaa. Venäjän taiteen akatemian asiantuntijat kutsuivat tätä hälyttävää merkkiä "kolmanneksi sotavallankumoukseksi" ampuma-aseen ja atomipommin keksimisen jälkeen. Sekä aktivistit että valtiot vaativat sellaisten aseiden luomista koskevien kansainvälisten sääntöjen luomista tai jopa niiden käytön kieltämistä kokonaan. Mutta jotkut maat, kuten Yhdysvallat, Kiina ja Venäjän federaatio, eivät ole vielä ryhtyneet toimiin tässä asiassa.

RAX-asiantuntijat ovat tunnistaneet vähintään 30 maailmanlaajuista asevalmistajaa, joilla ei ole politiikkaa edellä mainittujen asejärjestelmien kehittämistä vastaan. Näihin kuuluvat amerikkalaiset puolustusyritykset Lockheed Martin, Boeing ja Raytheon, Kiinan hallituksen ryhmittymät AVIC ja CASC, Israelin yritykset IAI, Elbit ja Rafael, Venäjän Rostec ja Turkin STM.

Samalla aktivistit eivät usko, että yhden tai toisen tekoälyn järjestelmän sotilaallinen käyttö on ongelma. Ongelmana on juuri se, että tällaiset järjestelmät voivat tulla ihmisen hallitsemattomiksi.

Esimerkiksi Yhdysvaltain armeija kehittää jo tykkiä, jolla on tekoäly, joka valitsee itsensä ja osuu kohteisiin, sekä säiliöitä, joilla on älykkyys, joka pystyy "tunnistamaan ja lyömään kohteita kolme kertaa nopeammin kuin kukaan". Ja STM, Turkin valtion puolustusyritys, valmistaa jo AI-moottorilla varustettua robottia KARGU täydessä vauhdissa. Kasvojentunnistusominaisuuksilla varustettu KARGU voi itsenäisesti valita ja hyökätä kohteisiin käyttäjän ennalta valitsemien koordinaattien avulla. Raportoidaan, että Turkki aikoo käyttää KARGUa Syyriassa.

PAX on eniten huolissaan AI: n mahdollisesta käytöstä loukkaavissa järjestelmissä, jotka valitsevat ja hyökkäävät kohteita yksinään ilman ihmisen valvontaa. Ryhmä ihmettelee, kuinka nämä aseet erottavat toisistaan sotilaat ja siviilit. Lisäksi lakimiehet eivät vieläkään tiedä kuka vastaa, jos itsenäiset aseet rikkovat kansainvälistä lakia.

Mainosvideo:

Turkkilainen drone KARGU jäljittää kohteen ja tuhoaa sen, pudoten ylhäältä kuin kamikaze
Turkkilainen drone KARGU jäljittää kohteen ja tuhoaa sen, pudoten ylhäältä kuin kamikaze

Turkkilainen drone KARGU jäljittää kohteen ja tuhoaa sen, pudoten ylhäältä kuin kamikaze.

Toisin kuin Google tai Amazon, jotka ovat joutuneet vastaamaan sekä julkisiin että sisäisiin reaktioihin sotilasjärjestelmiä koskevassa työssään, Lockheed Martinin ja Raytheonin kaltaiset yritykset käsittelevät yksinomaan armeijaa, joten niiden kumppaneiden reaktio on vähäinen. samoin kuin tavalliset ihmiset, koska suurin osa kehityksestä on luokiteltu tiettyyn pisteeseen saakka.

Samalla kun itsenäisten aseiden kehittäminen jatkuu, RAX uskoo, että mahdollisella katastrofilla on edelleen tapa estää. Ryhmä sanoi, että tuotantoyrityksillä voi olla kriittinen rooli tässä, ja niiden on vastustettava täysin itsenäisten tappavien aseiden tuotantoa. PA: n virkamiesten mukaan puolustusyritysten on noudatettava joukko sääntöjä, joita ei ole vielä kehitetty, AI: n käyttöön otettavien asejärjestelmien osalta. Mutta kukaan ei vaadi AI: n luopumista kokonaan.

Vladimir Kuznetsov