Quis custodiet ipsos custodes? Kuka valvoo valvojia? 

Quis custodiet ipsos custodes? Kuka valvoo valvojia? 

Suomalaiselle aseteollisuusyhtiö Patrialle myönnettiin hiljattain 45 miljoonaa euroa sotilaallisen tekoälyn kehittämiseen. Hanke on osuvasti nimetty kuin suoraan tekoälyllä varustettujen ampiaisparvien piinaamasta scifi-maailmasta: AI-WASP (wasp on suomeksi ampiainen). Tappajarobotit eivät kauan enää ole vain Terminaattori-elokuvasta tai Black Mirror -tv-sarjasta tuttua ihmiskunnan selviytymisen kannalta epäonnistunutta teknologiaa. Kilpavarustelu sotilaallisesta tekoälystä on alkanut – ja se tapahtuu sääntelyn ulkopuolella. 

Suuret teknologiayhtiöt ovat kaikessa hiljaisuudessa luopuneet eettisistä ohjeistuksistaan pidättäytyä kehittämästä ihmistä vahingoittavia järjestelmiä. Microsoft on syventänyt yhteistyötään Israelin armeijan tiedustelupalvelun kanssa. Myös Google ja Amazon kilpailevat tekoälytyökalujen myynnistä maan sotilastarkoituksiin. Trumpin hallintoon sidoksissa oleva startup-yhtiö Anduril kertoo valmistautuvansa kehittämään massoittain autonomisia asejärjestelmiä.   

Patrian johtama hanke ei tule yllätyksenä. Ulko- ja turvallisuuspoliittisessa selonteossa vielä vannottiin, että päätös tappavan voiman käytöstä halutaan säilyttää ihmisellä. Uuden puolustusselonteon mukaan vaatimuksesta voidaan kuitenkin luopua, ”mikäli vastuullinen toiminta on muutoin varmistettu”, ja kerrotaan Suomen kehittävän uutta teknologiaa hyödyntäviä miehittämättömiä ja autonomisia järjestelmiä. Mitä vastuullisuus tarkoittaa järjestelmässä, jota ei voida täysin ymmärtää tai hallita? Tätä ei selonteko kerro. 

Edes aseen suunnittelijalla ei ole mahdollisuutta ymmärtää, miksi koneoppiva järjestelmä toimii tietyllä tavalla tietyssä tilanteessa. Jos emme ymmärrä koneen toimintaa, kuka on vastuussa robotin tekemästä sotarikoksesta. Ohjelmoija, valmistaja, komentaja?

Itsenäisesti päätöksiä tekevien asejärjestelmien ongelma on, ettei tekoäly ajattele kuten ihminen. Se pelkistää ihmisen ykkösiksi ja nolliksi. Käytännössä meistä internetissä kerätty tieto voisi ratkaista, olemmeko hyväksyttävä hyökkäyskohde. Algoritmi voisi päättää, oletko ystävä vai vihollinen pelkän verkkosivuhistoriasi, ostotietojesi tai sosiaalisen median tykkäysten perusteella.

Meillä on mahdollisuus kääntää teknologian kehityksen suunta ennen kuin teemme painajaismaisista dystopioista totta. Suurin osa valtioista ymmärtää, ettei hallitsematon sodankäynnin tehostaminen ole kestävää ja tukee sopimusta autonomisten aseiden kieltämiseksi. Emme voi elää perusteettomassa toivossa, että hyvät valtiot voivat vastuullisesti käyttää näitä aseita. Suomi voi vielä olla historian oikealla puolella ja vaatia tappajarobottien kieltoa. Säätelyn aika on nyt.

Kaisu Kinnunen on autonomisten aseiden sääntelyä ajavan Suomen Stop Killer Robots -verkoston koordinaattori.