Tekoälyn tulevaisuus – Algoritmit saattavat kohta päättää elämästä ja kuolemasta 

Tekoälyn tulevaisuus – Algoritmit saattavat kohta päättää elämästä ja kuolemasta 

Tekoäly on vasta aloitteleva teknologiasektorin trendi. Sen hehkutus on johtanut harvinaiseen tilanteeseen, jossa sotateollisuus haluaa soveltaa siviilissä kehitettyä tekniikkaa omaan käyttöönsä. Vailla sääntöjä seuraukset saattavat olla kohtalokkaita.

 

Pentagon julkisti hiljattain uuden hirvittävän projektinsa nimeltään Replicator. Osuva nimi tuo oitis mieleen K. Eric Drexlerin kuvaileman harmaan mönjän. Se on skenaario, jossa itseään replikoivat (eli kopioivat) nanobotit syövät kaiken olemassa olevan biomassan ja tuhoavat maailman eksponentiaalisella nopeudella. Nimestään huolimatta Pentagonin päämäärä tuskin on harmaa mönjä, vaan halvat autonomisesti toimivat lennokkiparvet, jotka voivat itsenäisesti aiheuttaa massiivista tuhoa. Pentagon on virallisesti sanonut, että aseet ovat varmoja käyttää ihan näinä vuosina. Tekoälyasiantuntijat eivät tätä usko. Pentagon on luvannut, että viime kädessä aseiden käyttö pysyisi ihmisen kontrollissa. On kuitenkin epäselvää, mikä on sen lupaama ihmiskontrollin määrä. Saako kone esimerkiksi itsenäisesti tehdä tappavan päätöksen?

Tappajaroboteista on keskusteltu myös Suomen hallituksessa. Atte Harjanne ja Antti Kaikkonen tekivät lokakuussa eduskunnalle kirjallisen kysymyksen aiheesta ”Tuleeko Suomi tukemaan työtä autonomisten aseiden sääntelyyn tähtäävän kansainvälisen sopimuksen aikaansaamiseksi?”. Elina Valtosen vastauksen keskeiset huomiot ovat seuraavat:

”Pitkällä aikavälillä tavoitteena tulee olla oikeudellisesti sitovan sopimuksen syntyminen autonomisista asejärjestelmistä. Tällä hetkellä ei kuitenkaan vaikuta realistiselta saada aikaan kieltosopimusta, johon liittyisi laaja joukko valtioita. (– –) Tämän vuoden lokakuussa Suomi liittyi Yhdysvaltojen johdolla valmisteltuun poliittiseen julistukseen tekoälyn ja autonomian vastuullisesta sotilaallisesta kehittämisestä ja käytöstä.”

Huomioitavaa on, että Yhdysvaltojen julistus ei ole sopimus, ja se epäsuorasti jopa kannustaa ”hyviä valtioita” kehittämään autonomisia asejärjestelmiä.

Autonomiset aseet eli tappajarobotit ovat koneita, jotka itsenäisesti kohdistavat ihmiseen päätöksen tappaa tai olla tappamatta. Terminä tappajarobotti tuo herkästi mieleen kaukaisen tulevaisuuden vision terminaattoreista, mutta tosiasiassa tekoälyä sovelletaan perinteisempiin aseisiin, kuten vartiotykkeihin, tankkeihin tai lennokkeihin. Aseisiin liittyy monia riskejä, joiden ymmärtämiseksi on syytä avata tekoälyn toimintaa ja rajoitteita.

Tekoäly ei osaa ajatella

F-securen kybertiedustelupäällikkö Laura Kankaala hyökkää työkseen tietojärjestelmiin etsiäkseen niistä haavoittuvuuksia, jotta ne voidaan korjata. Hän huomauttaa, ettei tekoäly ole oikeastaan älykäs. Se ei osaa toimia kuten ihminen. Autonomisella aseella on sensorit, jotka muuttavat havaitsemansa asiat dataksi. Toisin sanoen se pelkistää ihmiset koodiksi, ykkösiksi ja nolliksi. Tätä kutsutaan digitaaliseksi dehumanisaatioksi.

Tekoälyyn perustuvista asejärjestelmistä tekee entistä vaarallisemman niiden haavoittuvuus. Kuten muitakin aseita, niitä kehitetään kansallisen turvallisuuden nimissä salassa. Toisin kuin avoimen lähdekoodin järjestelmissä, niiden haavoittuvuuksia ei voi etukäteen testata. Siksi on todennäköistä, että ne käännetään käyttäjiään vastaan.

Kankaala näkee muitakin ongelmia avoimuuden puutteessa: Tekoälyn koulutukseen käytettävää dataa voidaan peukaloida: data voi olla heikkolaatuista ja kerätty kyseenalaisin keinoin, esimerkiksi lataamalla ihmisten kuvia internetistä ilman heidän suostumustaan.

Konenäköä tutkiva Rune Saugmann kertoo, että data kerätään nimeämällä ja lokeroimalla kuvia ihmisvoimin. Yleisin ja käytetyin pankki ImageNet on 14 miljoonan kuvan pankki, jota käytetään harjoitteludatana. Muutama ihminen nimeää ja lokeroi kuvat. Lopputulosta kutsutaan perustotuudeksi. 14 miljoonaa kuvaa voi kuulostaa paljolta, mutta se ei välttämättä ole sitä. Ne ovat paikallaan olevia kuvia. Ihmisinä näemme liikkuvaa kuvaa liitettynä kaikkeen, mitä ymmärrämme sosiaalisesta todellisuudestamme. Tulkitsemme näkemäämme ja kokemaamme jatkuvasti, mihin kone ei pysty.

Konenäön kouluttamiseen käytetyt datajoukot perivät myös ennakkoluulomme. Kuvapankeissa ihmisten kuvia edustavat useimmiten valkoihoiset miehet, jotka konenäkö asettaa kategorisesti ihmisen mitaksi.

Ennakkoluuloinen ja vailla suostumusta kerätty data on jo todellisuutta. Olemme automatisoidun tai algoritmisen päätöksenteon kohteita jo nyt, emme vain aina tiedä sitä. Stop Killer Robots -verkoston tutkimusryhmän tutkimuspäällikkö Catherine Connolly kertoo esimerkin pandemia-ajoilta: Walesissä ja Englannissa käytettiin algoritmeja arvosanojen määrittämiseen, mikä sai hylkäämispäätöksen tuntumaan harvinaisen epäreilulta. Hyväksyminenkään ei tuntunut saavutukselta, koska algoritmi antoi arvosanat lähinnä kokeen suorittajan postinumeron perusteella, mikä onkin tutkimusten mukaan paras ennuste sosiaaliselle liikkuvuudelle.

Alankomaissa algoritmi oli tehnyt huostaanottopäätöksen yli 1000 lapselle merkittyään virheellisesti heidän vanhempansa sosiaalitukihuijareiksi. Eräässä toisessa tapauksessa automaattinen kirjanpito-ohjelma oli erheellisesti syyttänyt petoksesta 700 postitoimiston johtajaa, joista osa joutui syyttöminä vankilaan. Kun algoritmisessa päätöksenteossa jotain menee pieleen, kaipaamme kipeästi vastuuta kantavaa ihmistä.

Tekoäly on Pentagonin ulkopuolella tuskin kenenkään mielestä edes etäisesti valmis sotilaalliseen käyttöön. Puolustusministeriön tutkimusjohtaja Pekka Appelqvist ei myöskään usko teknologian ainakaan vielä soveltuvan sodankäyntiin. Hän ei kuitenkaan ole valmis täysin kieltämään tappajarobotteja. Liian tiukat säännöt voisivat rajoittaa liikaa lupaavaa teknologiaa. Appelqvist perääkin korkeampia kansainvälisen oikeuden periaatteita, joista on sovittava ja joita on seurattava.

Osa kieltosopimuksen kriitikoista vaatii sääntöihin yksiselitteisyyttä, ennen kuin se voidaan allekirjoittaa. Keskenään ristiriitaisissa kannoissa on riskinsä. Selkeissä säännöissä porsaanreikien käyttöä on helpompaa perustella. Laveat säännöt voivat jäädä sanahelinäksi. Connollyn mukaan selkeä raja voisi olla se, että kone ei saa koskaan päättää ihmisen elämästä ja kuolemasta.

Suomi ei uskalla ottaa kantaa

Stop Killer Robots haluaa saada aikaan sitovan sopimuksen, joka kieltäisi autonomisten aseiden käytön. 1. marraskuuta 2023 YK päätti ottaa virallisesti asialistalleen keskustelut tappajaroboteista päätöslauselman perusteella, jonka allekirjoitti 164 maata. Myös Suomi. Suomi ei kuitenkaan ole vielä virallisesti tappajarobotit kieltävän sopimuksen neuvottelujen aloittamista tukevien maiden joukossa, koska isot valtiot kuten Yhdysvallatkaan eivät ole.

Usein huomautetaan, että kansainvälisiä sopimuksia voi rikkoa. Tämä on totta. Toisaalta esimerkiksi joukkotuhoaseiden käyttäminen määritellään Geneven sopimuksen mukaan sotarikokseksi, mikä vähintään hillitsee niiden käyttöä.

Connolly on optimistinen, että tappajarobotit kieltävä sopimus saadaan aikaan. Useat Nato-maat haluavat kieltää täysin autonomiset aseet. Mitä tulee Suomeen, niin ääneen sanomaton konsensus näyttäisi olevan, että se ei uskalla ottaa kantaa vakaviin asioihin, ja se on noloa mutta ”realistista” vaatimattomalle maalle.

Teksti: Eetu Lehto
Kuva: Essi Rajamäki

* Juttu perustuu keskusteluun Stop Killer Robots -kampanjan järjestämässä paneelissa, jonka aihe oli Miten tekoäly muokkaa ihmiskuntaa. Asiantuntijoina paneelissa olivat F-securen kybertiedustelupäällikkö Laura Kankaala, akatemiatutkija ja kansainvälisen turvallisuuden lehtori Rune Saugmann ja puolustusministeriön tutkimusjohtaja Pekka Appelqvist. Alustuksen piti Stop Killer Robots -verkoston tutkimusjohtaja Catherine Connolly. Koko keskustelun voit katsoa Rauhanliiton Youtube-kanavalta otsikolla How Will AI Reshape Humanity?