Miksi Rikollisten Tuomitseminen On Tekoälyä Vaarallista? - Vaihtoehtoinen Näkymä

Sisällysluettelo:

Miksi Rikollisten Tuomitseminen On Tekoälyä Vaarallista? - Vaihtoehtoinen Näkymä
Miksi Rikollisten Tuomitseminen On Tekoälyä Vaarallista? - Vaihtoehtoinen Näkymä

Video: Miksi Rikollisten Tuomitseminen On Tekoälyä Vaarallista? - Vaihtoehtoinen Näkymä

Video: Miksi Rikollisten Tuomitseminen On Tekoälyä Vaarallista? - Vaihtoehtoinen Näkymä
Video: Miksi tekoäly, miksi nyt? 2024, Saattaa
Anonim

Tekoäly auttaa jo määrittelemään tulevaisuutesi jollakin tavalla. Kun haet jotain hakukoneesta, käytä Netflixin kaltaista palvelua, tai pankki arvioi soveltuvuutesi kiinnitykseen. Mutta mitä tapahtuu, jos tekoälyn on ratkaistava, oletko syyllinen vai ei, tuomioistuimessa? Kummallista kyllä, joissakin maissa tämä voi jo tapahtua. Äskettäin Yhdysvaltain korkeelta oikeusministeriltä John Robertsilta kysyttiin, voisiko hän kuvitella päivän, jolloin "tekoälyn ohjaamat älykkäät koneet auttavat todisteiden löytämisessä tai jopa oikeudellisten päätösten tekemisessä". Hän vastasi: "Tämä päivä on jo tullut, ja hän auttaa merkittävästi oikeusviranomaisia prosessissa."

Ehkä Roberts viittasi äskettäiseen tapaukseen Eric Loomis, joka tuomittiin kuudeksi vuodeksi vankeuteen yksityisen yrityksen salaisen ohjelmiston suosituksesta. Loomis, jolla oli jo rikoshistoria ja tuomittu pakenemisesta poliisin varkaalla autolla, väittää nyt, että hänen oikeuttaan menettelyyn on loukattu, koska hän eikä hänen edustajansa eivät pystyneet tarkistamaan tai haastamaan suositusalgoritmia.

Raportin on laatinut Compas-ohjelmisto, jonka Notrpointe myy aluksille. Ohjelma ilmentää tekoälyn tutkimuksen uutta suuntausta: auttaa tuomareita tekemään "parempia" (tai ainakin enemmän tietoihin perustuvia) päätöksiä tuomioistuimessa.

Vaikka Loomis-tapauksen yksityiskohdat pysyvät suljettuina, se sisältää varmasti kaavioita ja numeroita, jotka määrittelevät Loomiksen elämän, käyttäytymisen ja uusiutumisen todennäköisyyden. Näitä ovat ikä, rotu, sukupuoli-identiteetti, tavat, selaimen historia ja jotkut kallon mittaukset. Kukaan ei tiedä tarkemmin.

Tiedetään, että tapauksen syyttäjä kertoi tuomarille, että Loomis osoitti "suuren riskin uusinta-, väkivalta- ja oikeudenkäyntimenettelyissä". Tämä on vakio tuomitsemisessa. Tuomari suostui ja kertoi Loomikselle, että "Compas tunnisti hänet yhteiskunnalle erittäin riskialttiiksi henkilöksi".

Wisconsinin korkein oikeus tuomitsi Loomisen ja lisäsi, että Compasin raportti lisäsi arvokasta tietoa hänen päätökseensä, mutta totesi, että ilman häntä hän antoi saman tuomion. Et tietenkään voi tarkistaa tätä varmasti. Mitä kognitiivisia ennakkoluuloja voi olla, kun Compasin kaltainen kaikkivoipa "älykäs" järjestelmä on mukana tuomareiden neuvonnassa mitä tehdä?

Tuntematon käyttö

Mainosvideo:

Olkaamme rehellisiä, Wisconsinin tuomioistuimen toiminnassa ei ole mitään "laitonta" - tämä on vain esimerkki. Muut tuomioistuimet voivat ja tekevät saman.

Valitettavasti emme tiedä missä määrin tekoälyä ja muita algoritmeja käytetään tuomitsemisessa. Uskotaan, että jotkut tuomioistuimet "testaavat" Compasin kaltaisia järjestelmiä suljetussa oikeudenkäynnissä, mutta eivät voi vaatia kumppanuutta. On myös käsitys, että useat tekoälyn aloittavat yritykset kehittävät tällaisia älykkäitä järjestelmiä.

Image
Image

Tekoälyn käyttö lainsäädännössä ei kuitenkaan ala tai päädy lauseella, se alkaa tutkimuksella. Iso-Britannia on jo kehittänyt VALCRI-järjestelmän, joka tekee aikaa vievää analyyttistä työtä muutamassa sekunnissa - hiipii läpi tonnia tietoja, kuten tekstejä, laboratorioraportteja ja poliisin asiakirjoja, jotta voidaan eristää asioita, jotka saattavat edellyttää lisätutkimuksia.

Ison-Britannian West Midlandsin poliisi testaa VALCRI: ta seuraavien kolmen vuoden aikana käyttämällä anonyymejä tietoja, jotka sisältävät yli 6,5 miljoonaa tietuetta. Samanlaisen testin suorittaa Antwerpenin poliisi Belgiassa. Aiemmin tekoäly ja syvälliset oppimisprojektit, joihin liittyy massiivisia aineistoja, ovat olleet ongelmallisia.

Edut harvoille

Teknologia on tarjonnut monia hyödyllisiä apuvälineitä oikeussaliin kopiointikoneista DNA: n poimintaan sormenjäljistä kehittyneisiin valvontatekniikoihin. Mutta tämä ei tarkoita, että mikä tahansa tekniikka on parannus.

Vaikka tekoälyn käyttö tutkimuksissa ja tuomioissa voi säästää aikaa ja rahaa, se aiheuttaa akuutteja ongelmia. ProPublican Compasin raportti teki selväksi, että mustia pidettiin ohjelmassa virheellisesti toistuvampana kuin valkoisia. Jopa kehittyneimmät tekoälyjärjestelmät voivat periä niiden luojien rodulliset ja sukupuoliset puolueet.

Lisäksi mitä järkeä on siirtää (ainakin osittain) ihmisille ainutlaatuisissa asioissa algoritmille? Yhdysvalloissa on tietty vaikeus, kun tuomaristo kokeilee ikäisensä. Oikeudelliset standardit eivät ole koskaan olleet vertailukohtana, minkä vuoksi näitä tuomaristokokeita pidetään demokraattisimpina ja tehokkaimpina vakaumusjärjestelminä. Teemme virheitä, mutta ajan myötä keräämme tietoa siitä, miten niitä ei tehdä, puhdistamalla järjestelmää.

Kompassit ja vastaavat järjestelmät edustavat mustaa laatikkoa oikeusjärjestelmässä. Niiden ei pitäisi olla. Oikeusjärjestelmät riippuvat tietojen jatkuvuudesta, avoimuudesta ja kyvystä tarkistaa. Yhteiskunta ei halua järjestelmää, joka kannustaa kilpailuun rakentamaan tekoälyn aloittavia yrityksiä, jotka tekevät nopeita, halpoja ja eksklusiivisia ratkaisuja. Hätäisesti tehty tekoäly on kauheaa.

Päivitetty avoimen lähdekoodin versio Compasista olisi parannus. Mutta ensin oikeusjärjestelmän standardeja on nostettava, ennen kuin aloitamme vastuun siirtämisen algoritmien hyväksi.

ILYA KHEL