Tappajarobotit ovat autonomisia asejärjestelmiä, jotka tunnistavat kohteensa sensoritiedon perusteella ja käyttävät tuhovoimaa itsenäisesti.
Asejärjestelmä voi siis käyttää voimaa ihmisestä riippumatta. Tarkka hyökkäyskohde sekä hyökkäyksen aika ja paikka määrittyvät sensorisen prosessoinnin tuloksena sen sijaan, että käskyn takana olisi ihminen. Tämä tarkoittaa, että ihminen ei määritä tarkasti, missä, milloin tai ketä vastaan tuhovoimaa käytetään.
Tappajarobotteja ei voida käyttää lain ja eettisten normien mukaisesti, joten ne tulisi kieltää. Ne ovat järjestelmiä, joita ihminen ei riittävästi kontrolloi ja jotka kohdistavat hyökkäyksensä ihmisiin.
Näkemyksemme on, että on kaksi toimintoa, joiden tulee olla ihmisten hallinnassa: kohteen valinta ja voiman käyttö sitä kohtaan. Ihmisen tulee olla aidosti vastuussa ja päättämässä näistä asioista. Ei siis riitä, että ihminen ohjelmoi järjestelmän valitsemaan tietynlaisia kohteita, vaan kontrollin tulee säilyä yksittäisiin iskuihin asti.
Ihmisellä on myös oltava todellinen mahdollisuus varmistaa, että järjestelmän keräämät tiedot ovat riittävät kohteen valintaan ja siihen iskemiseen. Aitoa ihmiskontrollia ei siis ole se, että ihmisellä on pienen hetken aikaa kyky perua järjestelmän tekemä päätös.
Täydellä autonomialla asejärjestelmissä tarkoitetaan tilannetta, jossa ihmisen kontrolli kriittisistä toiminnoista ei ole riittävä tai merkityksellinen.
Tappajarobotit herättävät useita moraalisia, eettisiä ja oikeudellisia ongelmia, jotka haastavat ihmisen hallinnan voimankäytöstä ja siirtävät elämän ja kuoleman päätöksenteon koneille. Ne herättävät myös huolta digitaalisesta epäinhimillistämisestä, prosessista, jossa ihmiset pelkistetään datapisteiksi, joita sitten käytetään päätöksentekoon ja/tai toimiin, jotka vaikuttavat kielteisesti heidän elämäänsä.
Tällä tavalla toimivat järjestelmät uhkaavat kansainvälistä rauhaa, turvallisuutta ja vakautta. Asejärjestelmien autonomian myötä konfliktit eivät enää pysy ihmisten hallinnassa, vaan moraalinen vastuu ulkoistetaan koneille. Tämä voi Punaisen Ristin kansainvälisen komitean mukaan johtaa ihmisoikeusrikkomuksiin ja loukata kansainvälisen humanitaarisen oikeuden periaatteita, kuten erottelun periaatetta, suhteellisuusperiaatetta, ennalta varautumisen periaatetta ja mielivaltaisten hyökkäysten kieltoa.
Autonomisten aseiden käyttö muuttaisi perusteellisesti sotien luonnetta. Niiden käyttö voisi johtaa epäsymmetrisempään sodankäyntiin ja horjuttaa kansainvälistä turvallisuutta käynnistämällä uuden asevarustelukilvan. Seuraukset kohdistuisivat entistä enemmän siviileihin.
Tappajarobottien riskit eivät myöskään koske vain konfliktien keskellä eläviä ihmisiä. Niiden kehitys voi vaikuttaa mielenosoituksiin, rajavalvontaan, poliisitoimintaan ja valvontaan sekä laajemmin siihen, miten käytämme teknologiaa arjessa. Jos annamme koneelle päätösvallan elämästä ja kuolemasta, sillä on kauaskantoisia vaikutuksia siihen, millaiseksi yhteiskuntamme ja teknologiamme kehittyvät. Autonomisten aseiden kehittäminen ja käyttö vaikuttavat meihin kaikkiin.
Jotkut perustelevat tappajarobottien kehitystä sanomalla niiden olevan ihmissotilaita tehokkaampia, nopeampia ja tarkempia. Ne voisivat toimia pelotteena, osua kohteisiinsa tarkemmin ja toimia paikoissa, joissa sotilaiden on vaikea liikkua. Ne voisivat vähentää tarvetta lähettää sotilaita taistelukentälle ja siten säästää ihmishenkiä.
Samanlaisia asioita sanottiin aikanaan miinoista, rypäleammuksista ja ydinaseista, jotka umpimähkään tappoivat ja haavoittivat satojatuhansia ihmisiä ennen kuin ne kiellettiin.
Omaa toimintaansa ja ohjelmointiaan itsenäisesti muuttavia teknologioita ei voida kontrolloida. Myös muut teknologiat voivat muodostaa “mustan laatikon” ongelman eli tilanteen, jossa ihminen ei voi tietää, miksi ja miten kone päätyi kyseiseen lopputulokseen. Esimerkiksi autonominen ase voisi valita kohteen itsenäisesti, mutta sotilas ei voisi jäljittää sen päätöksen syitä. Tämä tekee eettisen ja laillisen vastuun arvioinnista mahdotonta.
Lain mukaan sotilasjohdon on kyettävä arvioimaan hyökkäyksen välttämättömyys ja suhteellisuus sekä erottamaan siviilit laillisista sotilaskohteista. Tämä tarkoittaa, että on ymmärrettävä sekä asejärjestelmä että konteksti, jossa sitä käytetään. Koneet eivät ymmärrä kontekstia tai seurauksia: ymmärtäminen on ihmisen kyky. Ilman sitä hylkäämme moraalisen vastuun ja heikennämme olemassa olevia oikeudellisia sääntöjä. Tappajarobottien uhkat ja riskit ovat paljon suuremmat kuin mahdolliset hyödyt.
Usein tappajarobotteja puolustetaan perustuen ajatukseen, että hyvin kehitetty asejärjestelmä voisi noudattaa humanitaarista oikeutta ihmisiä uskollisemmin. Ei ole kuitenkaan todistettu, että tällaisen asejärjestelmän kehittäminen olisi mahdollista. Kun nykyisiä autonomisia järjestelmiä on ohjelmoitu tunnistamaan kohteita, ne ovat tehneet huomattavia virheitä esimerkiksi kohteen ympäristön vaihtuessa. Jos kone on oppinut tunnistamaan vaikkapa panssaroidun ajoneuvon aavikolla, se ei välttämättä ole kyennyt tunnistamaan sitä metsän edustalla.
Vaikka tunnistuskyky hiottaisiin huippuunsa ja virheiden määrä minimoitaisiin, sodankäynti on kuitenkin liian muuttuvaa ja kontekstisidonnaista, jotta sitä voitaisiin typistää algoritmeihin. Sotilaat siviiliasuissa, antautuvat sotilaat ja siviilit sotilaspuvuissa tai aseiden kanssa voivat olla vaikeasti erotettavissa ihmisillekin. Kuinka tappajarobotti tekisi oikean päätöksen ilman ihmiselle mahdollista kulttuurista päättelyä ja empaattista ajattelua?
Toinen tappajarobottien puolustukseksi käytetty ajatus on skenaario, jossa sodat olisivat robottien välisiä. Eikö silloin säästettäisi ihmistaistelijoiden ja siviilien henkiä? Valitettavasti nykyinen sodankäynti on harvoin sellaista, että osapuolet voitaisiin lähettää muusta maailmasta eristetyille taistelukentille. Useimmiten sotaa käydään kaupungeissa ja kylissä, siviilien keskellä. Sodat ovat myös usein epäsymmetrisiä, ja niissä saattaa olla vastakkain vaikkapa hyvin aseistetut hallituksen joukot ja ei-valtiollisia ryhmittymiä. Todennäköistä olisikin, että tappajarobotteja käytettäisiin sekä ihmissotilaita että – tarkoittamatta tai tarkoituksella – siviilejä vastaan. Vaikka ideaalitilanne tapahtuisikin ja tappajarobotit sotisivat toisiaan vastaan etäisissä kohteissa, on myös muistettava, että asejärjestelmien vuorovaikutuksesta saattaisi syntyä odottamattomia yhteisvaikutuksia, joilla voisi olla tuhoisat vaikutukset.
Monissa järjestelmissä on erilaisia automatisoituja toimintoja, kuten automaattinen kohteen tunnistus, mutta ne eivät käytä voimaa hyökkäyskohteisiin sensoritiedon perusteella. Useimmissa automaattista kohteen tunnistusta käyttävissä asejärjestelmissä on tällä hetkellä ihmisoperaattori, jonka on hyväksyttävä kaikki hyökkäykset. On kuitenkin vaikea varmistaa, mikä autonomian taso järjestelmällä on minkäkin toiminnon suhteen. Lisätietoja löydät PAX-järjestön raportista.
Tällaiset järjestelmät herättävät myös moraalisia, oikeudellisia ja eettisiä kysymyksiä. Erityisesti huolta aiheuttaa se, pystyykö käyttäjä perustellusti arvioimaan, ovatko hyökkäyksen vaikutukset oikeudellisten ja eettisten normien mukaisia.
Kansainvälisen kampanjamme tutkimusryhmä Automated Decision Research on luonut seurantatyökalun, joka sisältää esimerkkejä asejärjestelmistä ja niiden ominaisuuksista. Esimerkit havainnollistavat huolia, joita liittyy asejärjestelmien autonomian lisääntymiseen.
Epävarmuudet asejärjestelmien ominaisuuksista ja autonomisista toiminnoista sekä suuntaus kohti yhä itsenäisemmin toimivia aseita nykyisissäkin konflikteissa korostavat sitä, miksi tarvitsemme uuden kansainvälisen sopimuksen, joka säätelee asejärjestelmien autonomiaa.
Tekoälyä kohteen tunnistamiseen tai suosittelemiseen hyödyntävät järjestelmät eivät välttämättä ole asejärjestelmiä. Ne ovat tietojenkäsittelyjärjestelmiä, jotka käsittelevät ja analysoivat suuria määriä dataa suurella nopeudella kohteiden luomiseksi ja suositusten tekemiseksi. Käytetty data voi sisältää esimerkiksi satelliittikuvia, televiestintää ja ilmakuvaa. Esimerkkejä tällaisista järjestelmistä ovat Israelin Habsora ja Lavender -järjestelmät sekä Yhdysvaltojen Project Maven, jota kehitetään ja käytetään taistelukentällä kohteiden tunnistamiseen.
Nämä järjestelmät suosittelevat kohteita ja toimivat päätöksentekoa tukevina järjestelminä. Ne eivät ole aseita, eivätkä sellaisina kuulu autonomisia asejärjestelmiä koskevan sopimuksen piiriin.
Vaikka ne eivät ole asejärjestelmiä, ne herättävät silti humanitaarisia, eettisiä, moraalisia ja oikeudellisia kysymyksiä. Siihen liittyy riskejä, jos ihmiset alkavat luottaa liikaa järjestelmän suosituksiin (automaatiovinouma) ymmärtämättä, miten suositukset on luotu. Tehokkuuden nimissä tapahtuva tekoälyn sotilaallinen hyödyntäminen, ihmisen hallinnan heikkeneminen ja ihmisten pelkistäminen dataksi aiheuttavat jo nyt tuhoisia seurauksia siviileille ja hämärtävät vastuun rajoja.
Lisätietoja tekoälyvahvisteisista järjestelmistä löydät SaferGloben Autonomiset asejärjestelmät: tekoälyn kilpavarustelu ja asevalvonnan haasteet -infopaperista.
On olemassa monenlaisia robotteja, joita voidaan käyttää muihin sotilastarkoituksiin, kuten pomminpurkuun, sotilasvarusteiden kuljetukseen, miinanraivaukseen, etsintä- ja pelastustehtäviin sekä valvontatarkoituksiin.
Jotkut robotit, kuten kauko-ohjattavat robottikoirat, ovat saaneet viime vuosina huomiota erityisesti siksi, että on herännyt huolta niiden mahdollisesta aseistamisesta ja käytöstä armeijassa ja poliisivoimissa. Kuten kaikkien asejärjestelmien kohdalla, näitä robotteja tulisi käyttää vain laillisten ja eettisten normien mukaisesti.
Tällaisten robottien käyttö sotilaallisiin tarkoituksiin ja epävarmuus niiden kyvyistä, autonomisten toimintojen laajuudesta ja mahdollisesta aseistamisesta korostavat entisestään sitä, miksi uutta kansainvälistä sopimusta asejärjestelmien autonomiasta tarvitaan kiireellisesti.
Vastaavasti tällaisten robottien käyttö sodan ulkopuolella, kuten poliisitoiminnassa ja rajavalvonnassa, herättää kysymyksiä ihmisoikeuksien suojelusta ja kansainvälisen ihmisoikeuslainsäädännön soveltamisesta.
Kuusi robotiikan alan yritystä on aiemmin luvannut olla sallimatta robottiensa aseistamista. Näiden järjestelmien jatkuva kehittäminen sotilaskäyttöön kuitenkin osoittaa, että itsesääntely ei riitä vastaamaan uusien teknologioiden siviilien suojelulle ja kansainväliselle humanitaariselle oikeudelle asettamiin haasteisiin.
Stop Killer Robots -kampanja on kansainvälinen kansalaisjärjestöjen verkosto, joka pyrkii torjumaan uhkia ihmiskunnalle ja ihmisarvolle edistämällä uutta kansainvälistä sopimusta autonomisten asejärjestelmien kieltämiseksi ja säätelemiseksi. Tuemme sellaisten oikeudellisten ja muiden normien kehittämistä, jotka varmistavat riittävän ihmisen hallinnan voimankäytössä, ehkäisevät digitaalista epäinhimillistämistä ja vähentävät automatisoitua vahinkoa.
Kampanjaan kuuluu yli 250 kansainvälistä ja kansallista kansalaisjärjestöä 70 maasta. Verkoston jäseniä Suomessa ovat Rauhanliitto, Sadankomitea, Rauhanpuolustajat, Tekniikka elämää palvelemaan, Naiset rauhan puolesta ja Aseistakieltäytyjäliitto.
Stop Killer Robots -kampanja vaatii uutta kansainvälistä lakia autonomisten asejärjestelmien säätelemiseksi. Tämän uuden sopimuksen tulisi kieltää autonomiset asejärjestelmät, jotka kohdistavat hyökkäyksensä ihmisiin, sekä autonomiset asejärjestelmät, joita ihminen ei voi merkittävissä määrin hallita (näitä kutsumme tappajaroboteiksi).
Sopimukseen tulisi sisällyttää myös positiivisia velvoitteita sen varmistamiseksi, että kaikkia muita järjestelmiä valvotaan tehokkaasti. Nämä ovat toimia ja rajoituksia, joilla varmistetaan sääntöjen noudattaminen ja estetään kansainvälisen oikeuden rikkomuksia. Näihin tulisi sisältyä erityisiä sääntöjä järjestelmien ennakoitavuudesta ja riittävästä ymmärrettävyydestä sekä niiden käyttöalueen ja keston rajoittamisesta.
Punaisen Ristin kansainvälinen komitea myös suosittelee, että ihmisiä kohteekseen ottavat ja ennalta-arvaamattomat autonomiset asejärjestelmät tulisi nimenomaisesti kieltää, ja että kaikki muut autonomiset asejärjestelmät tulisi asettaa positiivisten velvoitteiden alaisiksi.
Stop Killer Robots vaatii, samoin kuin Punaisen Ristin kansainvälinen komitea, uusia oikeudellisesti sitovia kansainvälisiä sääntöjä autonomisten asejärjestelmien kieltämiseksi ja säätelemiseksi täydellisen kiellon sijaan. Tämä johtuu siitä, että kieltoja ja säätelyä yhdistelevä sopimus olisi soveltamisalaltaan laajempi, kattaisi useampia huolenaiheita ja loisi mahdollisimman vahvan kansainvälisen sopimuksen. Sopimuksen ei tulisi rajoittua vain sellaisiin autonomisiin asejärjestelmiin, jotka ovat ylipäänsä mahdottomia hyväksyä. Sen tulisi myös sisältää säännöt, joilla varmistetaan muiden järjestelmien käyttö oikeudellisten ja eettisten periaatteiden mukaisesti.
Uudet oikeudellisesti sitovat säännöt loisivat kestävän ja tehokkaan kehyksen autonomisten asejärjestelmien kehittämisen ja käytön kieltämiselle ja sääntelylle. Laaja-alainen, looginen ja selkeä väline – kuten ihmisiin kohdistettavien iskujen kielto – asettaa vakuuttavan standardin jopa niille valtioille, jotka eivät liity siihen heti. Näin rakennettu sopimus ohjaisi myös tulevaisuuden teknologioiden kehitystä.
Kansainvälinen kampanja, Campaign to Stop Killer Robots, perustettiin vuonna 2012 edistämään tappajarobottien kieltämistä. Kampanjaan kuuluu yli 250 kansainvälistä ja kansallista kansalaisjärjestöä 70 maasta. Verkoston jäseniä Suomessa ovat Rauhanliitto, Sadankomitea, Rauhanpuolustajat, Tekniikka elämää palvelemaan, Naiset rauhan puolesta ja Aseistakieltäytyjäliitto. (Tilanne lokakuussa 2025)
Tappajarobotteja vastaan ovat puhuneet myös lukuiset robotiikan ja tekoälyn tutkijat, kehittäjät ja yrittäjät. Esimerkiksi jo vuonna 2015 tuhannet tekoälyn asiantuntijat allekirjoittivat autonomisia aseita koskevan avoimen kirjeen, joka varoittaa tekoälyn sotilaallisesta käytöstä ja vetoaa, että asevarustelukilpailu estetään kansainvälisellä autonomiset aseet kieltävällä sopimuksella. Lisäksi tuhannet tutkijat ovat allekirjoittaneet lupauksen, jossa he sitoutuvat olemaan osallistumatta tappajarobottien kehitykseen omalla tutkimuksellaan.
Kasvava ymmärrys autonomisten aseiden eettisistä, oikeudellisista ja humanitaarisista vaaroista on saanut yhä useamman kannattamaan tappajarobottien kieltoa. Vuonna 2023 YK:n yleiskokous hyväksyi kaikkien aikojen ensimmäisen autonomisia asejärjestelmiä koskevan päätöslauselmanja korosti, että näiden järjestelmien aiheuttamiin huolenaiheisiin on puututtava kiireellisesti. Toiminnan tarpeeseen vastatakseen valtiot ovat kutsuneet koolle alueellisia ja kansainvälisiä kokouksia ja esittäneet vahvoja alueellisia kannanottoja, joissa sitouduttiin neuvottelemaan oikeudellisesti sitovasta sopimuksesta. Itävalta järjesti kaiken tämän työn pohjalta vuonna 2024 "Humanity at the Crossroads" -konferenssin, joka oli kaikkien aikojen suurin YK:n ulkopuolinen kansainvälinen konferenssi autonomisista asejärjestelmistä.
Tällä hetkellä enemmistö valtioista tukee sopimusneuvottelujen aloittamista. YK:n pääsihteeri António Guterres ja Punaisen Ristin kansainvälisen komitean puheenjohtaja Mirjana Spoljaric ovat yhteisvetoomuksessaan kehottaneet valtioita neuvottelemaan uuden oikeudellisesti sitovan sopimuksen vuoteen 2026 mennessä.
Julkinen mielipide on tappajarobotteja vastaan. Vuosina 2018 ja 2021 kymmenissä maissa tehdyn tutkimuksen mukaan noin kaksi kolmasosaa vastaajista vastustaa autonomisten asejärjestelmien käyttöä. SPR:n kyselytutkimuksen mukaan kaksi kolmesta ei pidä koskaan hyväksyttävänä sitä, että sodissa ja aseellisissa selkkauksissa koneilla olisi valta riistää ihmishenkiä ilman ihmisen väliintuloa. Tiedebarometri 2024tulokset kertovat, että 75% suomalaisista suhtautuu kielteisesti tekoälyn hyödyntämiseen aseissa.
Tehokkain tapa puuttua asiaan olisi saada aikaan kansainvälinen sopimus, joka kieltäisi täysin autonomisten asejärjestelmien kehittämisen, valmistuksen ja käytön. Sopimus tarvitaan nyt, ennen kuin tappajarobotit yleistyvät taistelukentillä, ja mukaan tarvitaan kaikki valtiot. Vaikka sopimukseen eivät heti liittyisikään kaikki asemahdit, sen aikaansaama kansainvälinen normi hillitsisi autonomisten asejärjestelmien kehittämistä sekä sijoituksia tällaisten järjestelmien kehittämiseen.
Tällä hetkellä autonomisista asejärjestelmistä keskustellaan YK:n tavanomaisten aseiden kokouksessa, joka on nimittänyt erillisen asiantuntijaryhmän käsittelemään aihetta.
Tappajarobottien kehittämistä ja käyttöä voidaan säädellä myös kansallisesti sekä esimerkiksi EU:ssa. Joissain valtioissa eduskunta on äänestänyt tappajarobottien kieltämisen puolesta, ja Euroopan parlamentti on asettunut kiellon kannalle.
Robotiikan, tekoälyn, kansainvälisen oikeuden, etiikan, turvallisuuspolitiikan ja monien muiden alojen tutkijat voivat omalla työllään ja kannanotoillaan osoittaa, että täysin autonomisten asejärjestelmien kehittäminen on kestämätöntä. Yritykset voivat investoinneillaan ja yhteiskuntavastuupolitiikassaan päättää olla tukematta tappajarobottien kehittämistä, ja työntekijät voivat vaatia työnantajiltaan eettistä toimintaa. Kansalaisyhteiskunta voi lisätä tietoisuutta asiasta, mobilisoida tukea tappajarobottien kieltämiseksi ja järjestää tarvittaessa boikotteja tai muita toimia tappajarobotteja kehittäviä yrityksiä tai valtioita vastaan.
Suomen tulee liittyä valtioiden joukkoon, jotka kannattavat autonomisten asejärjestelmien kieltoa ja säätelyä oikeudellisesti sitovalla sopimuksella.
YK:ssa ja EU:ssa Suomen aktiivinen rooli tappajarobottien kiellon edistämiseksi. YK:ssa Suomen tulisi puolustaa täysin autonomisten asejärjestelmien kieltoa, ja EU:ssa edistää aloitteita, jotka hillitsisivät näiden asejärjestelmien kehittämistä.
Tarvitsemme toimia myös Suomessa. Eduskunnan on keskusteltava aiheesta ja annettava hallitukselle selkeä poliittinen viesti, että sen on toimittava autonomisten asejärjestelmien kieltämiseksi. On myös huolehdittava, etteivät suomalaisyritykset osallistu täysin autonomisten asejärjestelmien kehittämiseen.
Haluatko osallistua toiminnan suunnitteluun ja toteuttamiseen? Oletko hyvä kirjoittaja, viestinnästä innostunut tai kiinnostaisiko sinua tapahtuman järjestäminen? Jos kampanjointi kiinnostaa, ota meihin yhteyttä: info@stopkillerrobots.fi
Seuraa meitä sosiaalisessa mediassa ja allekirjoita vetoomus. Liity mukaan kampanjan kansainväliseen nuorisoverkostoon. Allekirjoita tekoälyn ja robotiikan tutkijoiden avoin kirje autonomisista aseista. Liity mukaan sotilashenkilöstön vaatimukseen autonomisten aseiden kieltämiseksi. Vaikuta yliopistossasi hankkimalla tietoa, lisäämällä tietoisuutta ja toimimalla.
Kerro ympärilläsi oleville ihmisille tappajaroboteista. Ymmärryksen lisääminen on ensimmäinen askel muutokseen, ja mitä enemmän viesti leviää, sitä todennäköisemmin pystymme vaikuttamaan.