Stop Killer Robots -kampanja kommentoi tekoäly-yhtiö Anthropicin ja Pentagonin välistä kiistaa

Tekoäly-yhtiö Anthropicin ehdot linjaavat, että sen tekoälymallia ei saa käyttää täysin autonomisissa asejärjestelmissä. Anthropicin julkinen arvio teknologian epäluotettavuudesta on viesti, jota maailmalla ei ole varaa sivuuttaa.

Stop Killer Robots -kampanja kommentoi tekoäly-yhtiö Anthropicin ja Pentagonin välistä kiistaa

Kansainvälinen Stop Killer Robots -kampanja reagoi tietoihin, joiden mukaan Yhdysvaltain puolustusministeriö on painostanut tekoäly-yhtiö Anthropicia muuttamaan yhtiön suuren kielimallin Clauden käyttöehtoja. Kiista on saanut uuden ulottuvuuden, kun ChatGPT:stä tunnettu OpenAI ilmoitti tehneensä sopimuksen Pentagonin kanssa kilpailijansa kieltäydyttyä vaatimuksista.

Anthropicin nykyiset ehdot linjaavat, että sen tekoälymallia ei saa käyttää täysin autonomisissa asejärjestelmissä – eli järjestelmissä, jotka kykenevät valitsemaan ja tappamaan kohteita ilman ihmisen ohjausta. Stop Killer Robots korostaa, että Anthropicin julkinen arvio teknologian epäluotettavuudesta on viesti, jota maailmalla ei ole varaa sivuuttaa. Kyse on teknologiayhtiöstä, joka kertoo omalle hallitukselleen, ettei se voi vastuullisesti toimittaa pyydettyä teknologiaa, koska sitä ei voida toteuttaa turvallisesti. Ja vaikka tällainen kyky olisi, tarvittavia suojamekanismeja katastrofaalisen vahingon estämiseksi ei ole olemassa.

Yhtiö kieltäytyi taipumasta Pentagonin vaatimuksiin vedoten siihen, että ”huipputason tekoälyjärjestelmät eivät yksinkertaisesti ole riittävän luotettavia toimiakseen täysin autonomisten aseiden voimanlähteenä” ja että siviilien ja sotilaiden suojelemiseksi tarvittavia valvontamekanismeja ”ei tällä hetkellä ole olemassa”. Presidentti Trump kielsi vastatoimena Anthropicin teknologian käytön liittovaltiossa, ja pian tämän jälkeen OpenAI solmi sopimuksen Pentagonin kanssa. Tämä osoittaa, ettei tekoälyn sotilaskäyttöä voi jättää yksittäisten yritysten eettisten periaatteiden varaan. Tarvitaan kansainvälisesti sitovia sääntöjä, jotta kehitystä eivät ohjaa vain poliittiset ja kaupalliset intressit. Vaikka kiista koskee tässä tapauksessa suuria kielimalleja, samojen varausten tulisi koskea kaikkia tekoälypohjaisia kohdennusjärjestelmiä.

Jos, kuten Anthropic myöntää, autonomisia aseita varten ei ole olemassa riittäviä suojamekanismeja, sama pätee myös muihin tekoälypohjaisiin päätöksenteon tukijärjestelmiin, joiden osalta yhtiö ei ole vetänyt selvää rajaa. Kiistan keskittyminen vain autonomisiin aseisiin ohjaa huomion pois siitä todellisuudesta, miten armeijat ja yritykset hyödyntävät jo nyt tekoälyteknologiaa. Tekoälypohjaisissa päätöksenteon tukijärjestelmissä ihminen on usein vain nimellisesti mukana päättämässä. Ihmiset pelkistyvät datapisteiksi – painoksi, sukupuoleksi, iäksi, sosiaalisiksi yhteyksiksi jne. – joita koneet lajittelevat ja käsittelevät tuottaakseen suosituksia kohteista. Kun operoijat nojaavat näihin suosituksiin tai hyväksyvät ne hyvin lyhyissä aikarajoissa sen sijaan, että käyttäisivät itsenäistä harkintaa, raja iskua suosittelevan ja sen toteuttavan järjestelmän välillä hämärtyy vaarallisen paljon. Automaatiovinouma ei ole teoreettinen huoli, vaan käytännön todellisuus, joka heikentää inhimillistä päätöksentekoa ja vastuullisuutta.

Diplomaattisia keskusteluja autonomisista aseista on käyty yli vuosikymmenen ajan. Neuvottelut jatkuvat tänään Genevessä. Myöhemmin tänä vuonna YK:n Genevessä järjestetään eräitä tavanomaisia aseita koskevan yleissopimuksen (CCW) tarkistuskonferenssi. Siinä valtioilla on konkreettinen tilaisuus toimia ja aloittaa neuvottelut uudesta kansainvälisestä sopimuksesta, joka säätelee, kieltää ja rajoittaa tekoälyn käyttöä autonomisissa asejärjestelmissä. Tätä tilaisuutta ei saa hukata. Valtaosa valtioista tukee autonomisten asejärjestelmien oikeudellisesti sitovaa säätelyä, eikä etenemisen kiireellisyyttä voi liikaa korostaa. Suomen tulee liittyä näiden maiden joukkoon.

On myös välttämätöntä, että kansainvälinen yhteisö vetää selkeät rajat tekoälyn hyödyntämiseen voimankäytössä sen kaikissa muodoissa. Mikä tahansa vähempi jättäisi vaarallisimmat kehityssuunnat sääntelyn ulkopuolelle ja haavoittuvimmat ihmiset ilman suojaa.

Stop Killer Robots -verkoston toiminnanjohtaja Nicole van Rooijen toteaa:

– Elämme ihmiskunnan kannalta ratkaisevaa aikaa. Kun näitä teknologioita kehittävät yritykset itse kieltäytyvät ottamasta niitä käyttöön turvallisuussyistä, sen on soitettava hälytyskelloja hallituksissa ja kansalaisten keskuudessa kaikkialla. Ne standardit, joita Anthropic on päättänyt noudattaa, ovat vastuullisen toiminnan vähimmäistaso, eivät juhlan aihe. Silti jopa nämä perusstandardit ovat jo maailman vahvimman armeijan painostuksen kohteena.

– Teknologian kehitys ei odota diplomatian hitaampaa etenemistä. Jokainen vuosi ilman sitovaa sääntelyä kasvattaa kuilua sen välillä, mihin nämä järjestelmät kykenevät ja miten niitä hallitaan. Hinnan maksavat tavalliset ihmiset: konfliktialueiden siviilit ja niin autoritaaristen kuin demokraattisten valtioiden kansalaiset, jotka joutuvat kohtaamaan näitä epäinhimillistäviä teknologioita niiden käytön normalisoituessa ja ihmisoikeuksien sekä demokraattisten arvojen murentuessa.

– Nyt tarvitaan korkeimman tason poliittista ja moraalista johtajuutta. Valtioiden on tultava tänä vuonna neuvottelupöytään toimimaan, ei vain keskustelemaan. Aika lykätä päätöksiä tulevaisuuteen on ohi. Nyt tarvitaan uutta lainsäädäntöä.

Stop Killer Robots on yli 270 kansalaisjärjestön muodostama verkosto, joka toimii 70 maassa varmistaakseen ihmisen hallinnan voimankäytössä ja ehkäistäkseen tappamisen automatisoinnin. Tuemme valtioita uuden autonomisia asejärjestelmiä koskevan kansainvälisen sopimuksen neuvottelemisessa. Verkostossa toimii suomalaisia rauhanjärjestöjä, tutkijoita ja yksittäisiä aktiiveja. 

Median yhteydenotot:

  • Kuvat Miguel Á. Padriñán / pexels.com
Nyt kun olet täällä...

...meillä on pieni toivomus. Rauhanpuolustajat julkaisee aineistonsa verkossa kaikkien luettavaksi ilmaiseksi. Toimintamme rahoitus perustuu jäsenmaksuihin ja jäsentemme maksamiin tukimaksuihin. Liity sinäkin tukijoukkoihimme! Jäsenmaksun suuruus on 25 €. Maksamalla saat myös Rauhanpuolustaja-lehden kotiisi 4–5 kertaa vuodessa, ja loppuvuodesta postitamme aina seuraavan vuoden Solidaarisuuskalenterin lehden mukana.

Jäseneksi liittyminen onnistuu helposti täällä.