SaferGlobe: Tekoälypohjaisten asejärjestelmien kilpavarustelu on jo käynnissä ja horjuttaa kansainvälistä turvallisuutta

Stop Killer Robots Finland -verkoston SaferGlobelta tilaama infopaperi varoittaa asekäyttöisen tekoälyn kilpavarustelusta, joka lisää sodan riskejä ja kasvattaa merkittävästi sotilasvoimien tuhopotentiaalia. 

SaferGlobe: Tekoälypohjaisten asejärjestelmien kilpavarustelu on jo käynnissä ja horjuttaa kansainvälistä turvallisuutta

Uusi infopaperi Autonomiset asejärjestelmät: tekoälyn kilpavarustelu ja asevalvonnan haasteet tarkastelee tekoälyn merkitystä ja ihmisen roolin pienenemistä taistelukentällä. Se pohtii sopimusvalvonnan kansainvälisiä haasteita ja käsittelee autonomisten asejärjestelmien vaikutuksia sodankäyntiin.

Tekoälyä, algoritmeja ja sensoritietoa päätöksenteossaan hyödyntävät autonomiset asejärjestelmät “toteuttavat aseellisia toimia tavoitteen saavuttamiseksi joko itsenäisesti tai vähäisen ihmiskontaktin kanssa.” Asejärjestelmä päättäisi siis ilman ihmisen osallistumista, missä ja milloin voimankäyttö tapahtuu. Tekoälyn ja koneoppimisen kehittyessä myös asejärjestelmien autonomiset kyvykkyydet lisääntyvät.

Tekoälyn kehittyessä valtiot investoivat yhä enemmän autonomisten aseiden kehittämiseen. Sotilaallista tekoälyä käytetään jo nyt taistelukentillä mm. autonomisesti ohjautuvissa lennokeissa ja kohteiden tunnistamisessa. Esimerkiksi Israel on käyttänyt todennäköisyyslaskentaan ja massadataan (big data) perustuvia ja tekoälyä kohteiden tunnistamiseen hyödyntäviä järjestelmiä Gazassa.

Ihmisen roolin pienenemisen arvioidaan lisäävän sotien todennäköisyyttä

Infopaperin mukaan usko tekoälyyn liitettyihin etuihin houkuttelee vähentämään ihmisen roolia voimankäytössä. Ilman ihmistä toimivien asejärjestelmien uhrattavuus “mahdollistaa massiivisen mittaluokan käytön, jonka torjuminen käy suhteessa kalliiksi eikä aiheuta hyökkääjälle ihmisuhreja.” Aseiden tuottajamaita kiinnostanee myös järjestelmien ylivoimainen reaktioaika ja nopeus. Aseteknologian kehitystä perustellaan niin ikään “tekoälyn mahdollistamalla tarkkuudella, joka voisi johtaa myös vähempiin sivullisiin uhreihin.” Kannustimet kilpavarustelun kiihtymiseen ovat valmiina.

Pintapuolisten sotilaallisten etujen korostaminen voi johtaa tekoälyn kehitykseen liittyvien riskien sivuuttamiseen, millä voi olla tuhoisia seurauksia. Jo ilmankin autonomiaa tekoälyvahvistetun sodankäynnin kehitys voi helposti madaltaa sodankäynnin kynnystä. Jos kehitys jatkuu tällaisenaan, sotien todennäköisyyden kasvaminen ja tekoälyn mahdollistama ”sotilasvoimien tuhopotentiaalin merkittävä kasvu” luovat edellytykset kansainvälisen turvallisuuden vaaraantumiselle. Kärsijöinä olisivat ensi sijassa sodan jalkoihin joutuvat siviilit.

Tekoälyn kehittyessä järjestelmistä tulee yhä vaikeampia ymmärtää ja ennustaa, jolloin ihmisten kyky arvioida ja kyseenalaistaa koneiden salamannopeita päätöksiä heikkenee entisestään. Jos korkea autonomian taso sallitaan, asejärjestelmä voi aiheuttaa valtavaa tuhoa ennen kuin ihminen ehtii reagoida siihen tai pysäyttää sitä. Tekoälyn mahdollistama tarkkuus ei poista sen kykenemättömyyttä ymmärtää kontekstia, mitä tarvitaan esimerkiksi siviili- ja sotilaskohteiden erotteluun.

Tavoitteena autonomisten asejärjestelmien säätely

Stop Killer Robots ajaa kansainvälistä sopimusta luomaan rajat sille, mikä on hyväksyttävää ja mikä ei. Kampanjan mukaan tekoälylle ei saa antaa lupaa päättää siitä, kenellä on oikeus elää tai kuolla.

Kampanjan Suomen koordinaattori Kaisu Kinnunen pitää kansainvälisen turvallisuuden jatkuvaa epävakautta ja asejärjestelmien autonomisten kyvykkyyksien lisääntymistä nykykonflikteissa osoituksena siitä, että kansainvälisesti sovittuja rajoja tarvitaan nopeasti:

”Sääntelyn on otettava kiinni teknologian kehitys. Israel käyttää jo nyt taistelukentällä järjestelmiä, joissa ihminen on vain nimellisesti mukana päätöksenteossa.”

Infopaperissa kuvataan, että sisäisten vuotojen mukaan Israelin asevoimissa “puoliautonominen tekoäly on ihmisen hallinnassa käytännössä vain periaatteen tasolla.” Sotilaiden on israelilaisen +972-lehden lähteiden mukaan raportoitu “priorisoineen eliminoitujen kohteiden määrää ja käyttäneen keskimäärin vain 20 sekuntia kunkin kohteen vahvistamiseksi.”

”Emme varmasti voi puhua riittävästä ihmisen osallistumisesta, jos koneen ehdottaman kohteen vahvistamiseen käytetään näin vähän aikaa korkeaksi tiedetystä virhemarginaalista huolimatta”, Kinnunen pohtii.

Suomen ulko- ja turvallisuuspoliittisessa selonteossa linjataan, että “Suomelle on tärkeää aikaansaada kansainvälistä sääntelyä, sopimuksia tai periaatteita uusien teknologioiden, erityisesti tekoälyn sekä autonomisten asejärjestelmien, vastuulliselle kehittämiselle ja käytölle. (- -) eikä kokonaan ihmisen ohjauksen ulottumattomissa olevia asejärjestelmiä tule kehittää jatkossakaan.”

Kinnusen mukaan asejärjestelmiä ei voi kehittää vastuullisesti:

”Järjestelmä voi kääntyä käyttäjäänsä vastaan tai toimia odottamalla tavalla. Selonteon huomio siitä, ettei täysin autonomisia asejärjestelmiä tule kehittää, on laiha lohtu. Suomen tulee edistää sopimusta autonomisten asejärjestelmien kieltämiseksi ja säätelemiseksi, kuten enemmistö valtioista.”

Uutta kansainvälistä sopimusta tukee yli 120 valtiota, Punaisen Ristin kansainvälinen komitea, lukuisat tieteilijät ja tekoälyn asiantuntijat, uskonnolliset johtajat, sotilasveteraanit, kansalaisyhteiskunnan jäsenet ja suurin osa ihmisistä. Suomi ei ole tukijoiden joukossa. YK:n pääsihteeri on viimeksi elokuussa julkaistussa raportissaan kehottanut valtioita solmimaan oikeudellisesti sitovan sopimuksen autonomisten asejärjestelmien säätelemiseksi vuoteen 2026 mennessä.

Autonomisista asejärjestelmistä keskustellaan parhaillaan käynnissä olevassa YK:n yleiskokouksen ensimmäisessä komiteassa. Valtioilla on mahdollisuus vastata lisääntyvän sotilaallisen tekoälyn aiheuttamiin riskeihin ja edetä kohti kansainvälistä lainsäädäntöä autonomisten asejärjestelmien säätelemiseksi.

Lisätietoja: Kaisu Kinnunen | Stop Killer Robots Finland | kaisu.kinnunen@sadankomitea.fi

Materiaali: Lataa infopaperi

  • Kuvat Stop Killer Robots / Clare Conboy