Tappajarobotit ovat autonomisia asejärjestelmiä, jotka tunnistavat kohteensa sensoritiedon perusteella ja käyttävät tuhovoimaa itsenäisesti.
Asejärjestelmä voi siis käyttää voimaa ihmisestä riippumatta. Tarkka hyökkäyskohde sekä hyökkäyksen aika ja paikka määrittyvät sensorisen prosessoinnin tuloksena sen sijaan, että käskyn takana olisi ihminen. Tämä tarkoittaa, että ihminen ei määritä tarkasti, missä, milloin tai ketä vastaan tuhovoimaa käytetään.
Tappajarobotteja ei voida käyttää lain ja eettisten normien mukaisesti, joten ne tulisi kieltää. Ne ovat järjestelmiä, joita ihminen ei riittävästi kontrolloi ja jotka kohdistavat hyökkäyksensä ihmisiin.
Näkemyksemme on, että on kaksi toimintoa, joiden tulee olla ihmisten hallinnassa: kohteen valinta ja voiman käyttö sitä kohtaan. Ihmisen tulee olla aidosti vastuussa ja päättämässä näistä asioista. Ei siis riitä, että ihminen ohjelmoi järjestelmän valitsemaan tietynlaisia kohteita, vaan kontrollin tulee säilyä yksittäisiin iskuihin asti.
Ihmisellä on myös oltava todellinen mahdollisuus varmistaa, että järjestelmän keräämät tiedot ovat riittävät kohteen valintaan ja siihen iskemiseen. Aitoa ihmiskontrollia ei siis ole se, että ihmisellä on pienen hetken aikaa kyky perua järjestelmän tekemä päätös.
Täydellä autonomialla asejärjestelmissä tarkoitetaan tilannetta, jossa ihmisen kontrolli kriittisistä toiminnoista ei ole riittävä tai merkityksellinen.
Tappajarobotit herättävät useita moraalisia, eettisiä ja oikeudellisia ongelmia, jotka haastavat ihmisen hallinnan voimankäytöstä ja siirtävät elämän ja kuoleman päätöksenteon koneille. Ne herättävät myös huolta digitaalisesta epäinhimillistämisestä, prosessista, jossa ihmiset pelkistetään datapisteiksi, joita sitten käytetään päätöksentekoon ja/tai toimiin, jotka vaikuttavat kielteisesti heidän elämäänsä.
Tällä tavalla toimivat järjestelmät uhkaavat kansainvälistä rauhaa, turvallisuutta ja vakautta. Asejärjestelmien autonomian myötä konfliktit eivät enää pysy ihmisten hallinnassa, vaan moraalinen vastuu ulkoistetaan koneille. Tämä voi Punaisen Ristin kansainvälisen komitean mukaan johtaa ihmisoikeusrikkomuksiin ja loukata kansainvälisen humanitaarisen oikeuden periaatteita, kuten erottelun periaatetta, suhteellisuusperiaatetta, ennalta varautumisen periaatetta ja mielivaltaisten hyökkäysten kieltoa.
Autonomisten aseiden käyttö muuttaisi perusteellisesti sotien luonnetta. Niiden käyttö voisi johtaa epäsymmetrisempään sodankäyntiin ja horjuttaa kansainvälistä turvallisuutta käynnistämällä uuden asevarustelukilvan. Seuraukset kohdistuisivat entistä enemmän siviileihin.
Tappajarobottien riskit eivät myöskään koske vain konfliktien keskellä eläviä ihmisiä. Niiden kehitys voi vaikuttaa mielenosoituksiin, rajavalvontaan, poliisitoimintaan ja valvontaan sekä laajemmin siihen, miten käytämme teknologiaa arjessa. Jos annamme koneelle päätösvallan elämästä ja kuolemasta, sillä on kauaskantoisia vaikutuksia siihen, millaiseksi yhteiskuntamme ja teknologiamme kehittyvät. Autonomisten aseiden kehittäminen ja käyttö vaikuttavat meihin kaikkiin.
Jotkut perustelevat tappajarobottien kehitystä sanomalla niiden olevan ihmissotilaita tehokkaampia, nopeampia ja tarkempia. Ne voisivat toimia pelotteena, osua kohteisiinsa tarkemmin ja toimia paikoissa, joissa sotilaiden on vaikea liikkua. Ne voisivat vähentää tarvetta lähettää sotilaita taistelukentälle ja siten säästää ihmishenkiä.
Samanlaisia asioita sanottiin aikanaan miinoista, rypäleammuksista ja ydinaseista, jotka umpimähkään tappoivat ja haavoittivat satojatuhansia ihmisiä ennen kuin ne kiellettiin.
Omaa toimintaansa ja ohjelmointiaan itsenäisesti muuttavia teknologioita ei voida kontrolloida. Myös muut teknologiat voivat muodostaa “mustan laatikon” ongelman eli tilanteen, jossa ihminen ei voi tietää, miksi ja miten kone päätyi kyseiseen lopputulokseen. Esimerkiksi autonominen ase voisi valita kohteen itsenäisesti, mutta sotilas ei voisi jäljittää sen päätöksen syitä. Tämä tekee eettisen ja laillisen vastuun arvioinnista mahdotonta.
Lain mukaan sotilasjohdon on kyettävä arvioimaan hyökkäyksen välttämättömyys ja suhteellisuus sekä erottamaan siviilit laillisista sotilaskohteista. Tämä tarkoittaa, että on ymmärrettävä sekä asejärjestelmä että konteksti, jossa sitä käytetään. Koneet eivät ymmärrä kontekstia tai seurauksia: ymmärtäminen on ihmisen kyky. Ilman sitä hylkäämme moraalisen vastuun ja heikennämme olemassa olevia oikeudellisia sääntöjä. Tappajarobottien uhkat ja riskit ovat paljon suuremmat kuin mahdolliset hyödyt.
Usein tappajarobotteja puolustetaan perustuen ajatukseen, että hyvin kehitetty asejärjestelmä voisi noudattaa humanitaarista oikeutta ihmisiä uskollisemmin. Ei ole kuitenkaan todistettu, että tällaisen asejärjestelmän kehittäminen olisi mahdollista. Kun nykyisiä autonomisia järjestelmiä on ohjelmoitu tunnistamaan kohteita, ne ovat tehneet huomattavia virheitä esimerkiksi kohteen ympäristön vaihtuessa. Jos kone on oppinut tunnistamaan vaikkapa panssaroidun ajoneuvon aavikolla, se ei välttämättä ole kyennyt tunnistamaan sitä metsän edustalla.
Vaikka tunnistuskyky hiottaisiin huippuunsa ja virheiden määrä minimoitaisiin, sodankäynti on kuitenkin liian muuttuvaa ja kontekstisidonnaista, jotta sitä voitaisiin typistää algoritmeihin. Sotilaat siviiliasuissa, antautuvat sotilaat ja siviilit sotilaspuvuissa tai aseiden kanssa voivat olla vaikeasti erotettavissa ihmisillekin. Kuinka tappajarobotti tekisi oikean päätöksen ilman ihmiselle mahdollista kulttuurista päättelyä ja empaattista ajattelua?
Toinen tappajarobottien puolustukseksi käytetty ajatus on skenaario, jossa sodat olisivat robottien välisiä. Eikö silloin säästettäisi ihmistaistelijoiden ja siviilien henkiä? Valitettavasti nykyinen sodankäynti on harvoin sellaista, että osapuolet voitaisiin lähettää muusta maailmasta eristetyille taistelukentille. Useimmiten sotaa käydään kaupungeissa ja kylissä, siviilien keskellä. Sodat ovat myös usein epäsymmetrisiä, ja niissä saattaa olla vastakkain vaikkapa hyvin aseistetut hallituksen joukot ja ei-valtiollisia ryhmittymiä. Todennäköistä olisikin, että tappajarobotteja käytettäisiin sekä ihmissotilaita että – tarkoittamatta tai tarkoituksella – siviilejä vastaan. Vaikka ideaalitilanne tapahtuisikin ja tappajarobotit sotisivat toisiaan vastaan etäisissä kohteissa, on myös muistettava, että asejärjestelmien vuorovaikutuksesta saattaisi syntyä odottamattomia yhteisvaikutuksia, joilla voisi olla tuhoisat vaikutukset.
Monissa järjestelmissä on erilaisia automatisoituja toimintoja, kuten automaattinen kohteen tunnistus, mutta ne eivät käytä voimaa hyökkäyskohteisiin sensoritiedon perusteella. Useimmissa automaattista kohteen tunnistusta käyttävissä asejärjestelmissä on tällä hetkellä ihmisoperaattori, jonka on hyväksyttävä kaikki hyökkäykset. On kuitenkin vaikea varmistaa, mikä autonomian taso järjestelmällä on minkäkin toiminnon suhteen. Lisätietoja löydät PAX-järjestön raportista.
Tällaiset järjestelmät herättävät myös moraalisia, oikeudellisia ja eettisiä kysymyksiä. Erityisesti huolta aiheuttaa se, pystyykö käyttäjä perustellusti arvioimaan, ovatko hyökkäyksen vaikutukset oikeudellisten ja eettisten normien mukaisia.
Kansainvälisen kampanjamme tutkimusryhmä Automated Decision Research on luonut seurantatyökalun, joka sisältää esimerkkejä asejärjestelmistä ja niiden ominaisuuksista. Esimerkit havainnollistavat huolia, joita liittyy asejärjestelmien autonomian lisääntymiseen.
Epävarmuudet asejärjestelmien ominaisuuksista ja autonomisista toiminnoista sekä suuntaus kohti yhä itsenäisemmin toimivia aseita nykyisissäkin konflikteissa korostavat sitä, miksi tarvitsemme uuden kansainvälisen sopimuksen, joka säätelee asejärjestelmien autonomiaa.
Tekoälyä kohteen tunnistamiseen tai suosittelemiseen hyödyntävät järjestelmät eivät välttämättä ole asejärjestelmiä. Ne ovat tietojenkäsittelyjärjestelmiä, jotka käsittelevät ja analysoivat suuria määriä dataa suurella nopeudella kohteiden luomiseksi ja suositusten tekemiseksi. Käytetty data voi sisältää esimerkiksi satelliittikuvia, televiestintää ja ilmakuvaa. Esimerkkejä tällaisista järjestelmistä ovat Israelin Habsora ja Lavender -järjestelmät sekä Yhdysvaltojen Project Maven, jota kehitetään ja käytetään taistelukentällä kohteiden tunnistamiseen.
Nämä järjestelmät suosittelevat kohteita ja toimivat päätöksentekoa tukevina järjestelminä. Ne eivät ole aseita, eivätkä sellaisina kuulu autonomisia asejärjestelmiä koskevan sopimuksen piiriin.
Vaikka ne eivät ole asejärjestelmiä, ne herättävät silti humanitaarisia, eettisiä, moraalisia ja oikeudellisia kysymyksiä. Siihen liittyy riskejä, jos ihmiset alkavat luottaa liikaa järjestelmän suosituksiin (automaatiovinouma) ymmärtämättä, miten suositukset on luotu. Tehokkuuden nimissä tapahtuva tekoälyn sotilaallinen hyödyntäminen, ihmisen hallinnan heikkeneminen ja ihmisten pelkistäminen dataksi aiheuttavat jo nyt tuhoisia seurauksia siviileille ja hämärtävät vastuun rajoja.
Lisätietoja tekoälyvahvisteisista järjestelmistä löydät SaferGloben Autonomiset asejärjestelmät: tekoälyn kilpavarustelu ja asevalvonnan haasteet -infopaperista.
On olemassa monenlaisia robotteja, joita voidaan käyttää muihin sotilastarkoituksiin, kuten pomminpurkuun, sotilasvarusteiden kuljetukseen, miinanraivaukseen, etsintä- ja pelastustehtäviin sekä valvontatarkoituksiin.
Jotkut robotit, kuten kauko-ohjattavat robottikoirat, ovat saaneet viime vuosina huomiota erityisesti siksi, että on herännyt huolta niiden mahdollisesta aseistamisesta ja käytöstä armeijassa ja poliisivoimissa. Kuten kaikkien asejärjestelmien kohdalla, näitä robotteja tulisi käyttää vain laillisten ja eettisten normien mukaisesti.
Tällaisten robottien käyttö sotilaallisiin tarkoituksiin ja epävarmuus niiden kyvyistä, autonomisten toimintojen laajuudesta ja mahdollisesta aseistamisesta korostavat entisestään sitä, miksi uutta kansainvälistä sopimusta asejärjestelmien autonomiasta tarvitaan kiireellisesti.
Vastaavasti tällaisten robottien käyttö sodan ulkopuolella, kuten poliisitoiminnassa ja rajavalvonnassa, herättää kysymyksiä ihmisoikeuksien suojelusta ja kansainvälisen ihmisoikeuslainsäädännön soveltamisesta.
Kuusi robotiikan alan yritystä on aiemmin luvannut olla sallimatta robottiensa aseistamista. Näiden järjestelmien jatkuva kehittäminen sotilaskäyttöön kuitenkin osoittaa, että itsesääntely ei riitä vastaamaan uusien teknologioiden siviilien suojelulle ja kansainväliselle humanitaariselle oikeudelle asettamiin haasteisiin.
Stop Killer Robots -kampanja on kansainvälinen kansalaisjärjestöjen verkosto, joka pyrkii torjumaan uhkia ihmiskunnalle ja ihmisarvolle edistämällä uutta kansainvälistä sopimusta autonomisten asejärjestelmien kieltämiseksi ja säätelemiseksi. Tuemme sellaisten oikeudellisten ja muiden normien kehittämistä, jotka varmistavat riittävän ihmisen hallinnan voimankäytössä, ehkäisevät digitaalista epäinhimillistämistä ja vähentävät automatisoitua vahinkoa.
Kampanjaan kuuluu yli 250 kansainvälistä ja kansallista kansalaisjärjestöä 70 maasta. Verkoston jäseniä Suomessa ovat Rauhanliitto, Sadankomitea, Rauhanpuolustajat, Tekniikka elämää palvelemaan, Naiset rauhan puolesta ja Aseistakieltäytyjäliitto.
Stop Killer Robots -kampanja vaatii uutta kansainvälistä lakia autonomisten asejärjestelmien säätelemiseksi. Tämän uuden sopimuksen tulisi kieltää autonomiset asejärjestelmät, jotka kohdistavat hyökkäyksensä ihmisiin, sekä autonomiset asejärjestelmät, joita ihminen ei voi merkittävissä määrin hallita (näitä kutsumme tappajaroboteiksi).
Sopimukseen tulisi sisällyttää myös positiivisia velvoitteita sen varmistamiseksi, että kaikkia muita järjestelmiä valvotaan tehokkaasti. Nämä ovat toimia ja rajoituksia, joilla varmistetaan sääntöjen noudattaminen ja estetään kansainvälisen oikeuden rikkomuksia. Näihin tulisi sisältyä erityisiä sääntöjä järjestelmien ennakoitavuudesta ja riittävästä ymmärrettävyydestä sekä niiden käyttöalueen ja keston rajoittamisesta.
Punaisen Ristin kansainvälinen komitea myös suosittelee, että ihmisiä kohteekseen ottavat ja ennalta-arvaamattomat autonomiset asejärjestelmät tulisi nimenomaisesti kieltää, ja että kaikki muut autonomiset asejärjestelmät tulisi asettaa positiivisten velvoitteiden alaisiksi.
Stop Killer Robots vaatii, samoin kuin Punaisen Ristin kansainvälinen komitea, uusia oikeudellisesti sitovia kansainvälisiä sääntöjä autonomisten asejärjestelmien kieltämiseksi ja säätelemiseksi täydellisen kiellon sijaan. Tämä johtuu siitä, että kieltoja ja säätelyä yhdistelevä sopimus olisi soveltamisalaltaan laajempi, kattaisi useampia huolenaiheita ja loisi mahdollisimman vahvan kansainvälisen sopimuksen. Sopimuksen ei tulisi rajoittua vain sellaisiin autonomisiin asejärjestelmiin, jotka ovat ylipäänsä mahdottomia hyväksyä. Sen tulisi myös sisältää säännöt, joilla varmistetaan muiden järjestelmien käyttö oikeudellisten ja eettisten periaatteiden mukaisesti.
Uudet oikeudellisesti sitovat säännöt loisivat kestävän ja tehokkaan kehyksen autonomisten asejärjestelmien kehittämisen ja käytön kieltämiselle ja sääntelylle. Laaja-alainen, looginen ja selkeä väline – kuten ihmisiin kohdistettavien iskujen kielto – asettaa vakuuttavan standardin jopa niille valtioille, jotka eivät liity siihen heti. Näin rakennettu sopimus ohjaisi myös tulevaisuuden teknologioiden kehitystä.
Kansainvälinen kampanja, Campaign to Stop Killer Robots, perustettiin vuonna 2012 edistämään tappajarobottien kieltämistä. Kampanjaan kuuluu yli 250 kansainvälistä ja kansallista kansalaisjärjestöä 70 maasta. Verkoston jäseniä Suomessa ovat Rauhanliitto, Sadankomitea, Rauhanpuolustajat, Tekniikka elämää palvelemaan, Naiset rauhan puolesta ja Aseistakieltäytyjäliitto. (Tilanne lokakuussa 2025)
Tappajarobotteja vastaan ovat puhuneet myös lukuiset robotiikan ja tekoälyn tutkijat, kehittäjät ja yrittäjät. Esimerkiksi jo vuonna 2015 tuhannet tekoälyn asiantuntijat allekirjoittivat autonomisia aseita koskevan avoimen kirjeen, joka varoittaa tekoälyn sotilaallisesta käytöstä ja vetoaa, että asevarustelukilpailu estetään kansainvälisellä autonomiset aseet kieltävällä sopimuksella. Lisäksi tuhannet tutkijat ovat allekirjoittaneet lupauksen, jossa he sitoutuvat olemaan osallistumatta tappajarobottien kehitykseen omalla tutkimuksellaan.
Kasvava ymmärrys autonomisten aseiden eettisistä, oikeudellisista ja humanitaarisista vaaroista on saanut yhä useamman kannattamaan tappajarobottien kieltoa. Vuonna 2023 YK:n yleiskokous hyväksyi kaikkien aikojen ensimmäisen autonomisia asejärjestelmiä koskevan päätöslauselman ja korosti, että näiden järjestelmien aiheuttamiin huolenaiheisiin on puututtava kiireellisesti. Toiminnan tarpeeseen vastatakseen valtiot ovat kutsuneet koolle alueellisia ja kansainvälisiä kokouksia ja esittäneet vahvoja alueellisia kannanottoja, joissa sitouduttiin neuvottelemaan oikeudellisesti sitovasta sopimuksesta. Itävalta järjesti kaiken tämän työn pohjalta vuonna 2024 "Humanity at the Crossroads" -konferenssin, joka oli kaikkien aikojen suurin YK:n ulkopuolinen kansainvälinen konferenssi autonomisista asejärjestelmistä.
Tällä hetkellä enemmistö valtioista tukee sopimusneuvottelujen aloittamista. YK:n pääsihteeri António Guterres ja Punaisen Ristin kansainvälisen komitean puheenjohtaja Mirjana Spoljaric ovat yhteisvetoomuksessaan kehottaneet valtioita neuvottelemaan uuden oikeudellisesti sitovan sopimuksen vuoteen 2026 mennessä.
Julkinen mielipide on tappajarobotteja vastaan. Vuosina 2018 ja 2021 kymmenissä maissa tehdyn tutkimuksen mukaan noin kaksi kolmasosaa vastaajista vastustaa autonomisten asejärjestelmien käyttöä. SPR:n kyselytutkimuksen mukaan kaksi kolmesta ei pidä koskaan hyväksyttävänä sitä, että sodissa ja aseellisissa selkkauksissa koneilla olisi valta riistää ihmishenkiä ilman ihmisen väliintuloa. Tiedebarometri 2024tulokset kertovat, että 75% suomalaisista suhtautuu kielteisesti tekoälyn hyödyntämiseen aseissa.
Tehokkain tapa puuttua asiaan olisi saada aikaan kansainvälinen sopimus, joka kieltäisi täysin autonomisten asejärjestelmien kehittämisen, valmistuksen ja käytön. Sopimus tarvitaan nyt, ennen kuin tappajarobotit yleistyvät taistelukentillä, ja mukaan tarvitaan kaikki valtiot. Vaikka sopimukseen eivät heti liittyisikään kaikki asemahdit, sen aikaansaama kansainvälinen normi hillitsisi autonomisten asejärjestelmien kehittämistä sekä sijoituksia tällaisten järjestelmien kehittämiseen.
Tällä hetkellä autonomisista asejärjestelmistä keskustellaan YK:n tavanomaisten aseiden kokouksessa, joka on nimittänyt erillisen asiantuntijaryhmän käsittelemään aihetta.
Tappajarobottien kehittämistä ja käyttöä voidaan säädellä myös kansallisesti sekä esimerkiksi EU:ssa. Joissain valtioissa eduskunta on äänestänyt tappajarobottien kieltämisen puolesta, ja Euroopan parlamentti on asettunut kiellon kannalle.
Robotiikan, tekoälyn, kansainvälisen oikeuden, etiikan, turvallisuuspolitiikan ja monien muiden alojen tutkijat voivat omalla työllään ja kannanotoillaan osoittaa, että täysin autonomisten asejärjestelmien kehittäminen on kestämätöntä. Yritykset voivat investoinneillaan ja yhteiskuntavastuupolitiikassaan päättää olla tukematta tappajarobottien kehittämistä, ja työntekijät voivat vaatia työnantajiltaan eettistä toimintaa. Kansalaisyhteiskunta voi lisätä tietoisuutta asiasta, mobilisoida tukea tappajarobottien kieltämiseksi ja järjestää tarvittaessa boikotteja tai muita toimia tappajarobotteja kehittäviä yrityksiä tai valtioita vastaan.
Autonomisista asejärjestelmistä keskustellaan Yhdistyneiden kansakuntien (YK) eri foorumeille. Aseidenriisuntasopimukset voivat saada alkunsa esimerkiksi CCW-keskusteluista, joista on mahdollista siirtyä erillisiin sopimusneuvotteluihin.
Eräitä tavanomaisia aseita koskeva yleissopimus (CCW) säätelee sellaisten aseiden käyttöä, jotka aiheuttavat tarpeetonta kärsimystä tai joilla umpimähkäisiä vaikutuksia. Suomi on liittynyt sopimuksen kaikkiin viiteen pöytäkirjaan.
Autonomisista aseista keskustellaan CCW-sopimuksen piirissä sopimuksen puitteissa toimivan hallitustenvälisen asiantuntijaryhmän (GGE) kokouksissa. Kolmen vuoden välein pidetään tarkistuskonferenssi, jossa valtiot päättävät, miten ne jatkavat työtään. Tarkistuskonferensseissa valtiot voivat päättää aloittaa neuvottelut autonomisia aseita koskevasta sopimuksesta.
Valtiot ovat kokoontuneet yli vuosikymmenen ajan Geneveen keskustelemaan autonomisista aseista, mutta eivät ole edenneet kohti mitään merkityksellistä sääntelyä. Tämä foorumi toimii konsensusperiaatteella, joten yksikin erimielinen valtio voi pysäyttää edistymisen, mikä on tapahtunut monta kertaa.
Autonomisia aseita koskevissa keskusteluissa täällä käsitellään lähinnä näiden aseiden sotilaallisia sovelluksia ja seurauksia sekä sitä, miten ne toimivat voimassa olevan kansainvälisen humanitaarisen oikeuden (sodan säännöt) puitteissa.
Tällä foorumilla vain yleissopimuksen osapuolina olevilla valtioilla on äänioikeus. Tarkkailijavaltiot voivat vain osallistua keskusteluun, mutta eivät virallisesti vaikuttaa päätöksiin. Tämä on ristiriitaista, koska monet näistä maista todennäköisesti kärsisivät autonomisten aseiden käytön seurauksista ilman, että ne itse käyttäisivät tällaisia aseita.
Suomi on osallistunut asiantuntijaryhmän työhön alusta lähtien. Suomi ei ole kuitenkaan ilmaissut kokouksissa tukeaan oikeudellisesti sitovalle sopimukselle.
Genevessä työskentelevän asiantuntijaryhmän nykyinen toimeksianto päättyy vuonna 2026, ennen CCW-sopimuksen seitsemättä tarkistuskonferenssia. Marraskuussa pidettävässä tarkastelukonferenssissa valtiot voivat päättää aloittaa neuvottelut autonomisia aseita koskevasta sopimuksesta.
Sopimus voidaan neuvotella myös YK:n yleiskokouksen kautta. Tällöin neuvottelumandaatti kirjattaisi ensimmäisessä komiteassa hyväksyttävään päätöslauselmaan.
Yhdistyneiden kansakuntien yleiskokous (UNGA) kokoontuu New Yorkissa. Kaikki YK:n jäsenet ovat edustettuina yleiskokouksessa eli se mahdollistaa kaikkien valtioiden tasavertaisen osallistumisen. Foorumi perustuu enemmistöäänestyksiin eikä konsensukseen, joten päätöksiä voidaan tehdä ilman autonomisiin aseisiin jo investoivien militarisoituneiden valtioiden tukea.
Autonomiset aseet ovat esillä erityisesti YK:n yleiskokouksen ensimmäisessä komiteassa, joka keskittyy aseidenriisuntaan ja kansainväliseen turvallisuuteen. Tämä foorumi tarjoaa valtioille mahdollisuuden käydä vuoropuhelua ja etsiä yhteisiä ratkaisuja asevalvontakysymyksiin. Työskentelyssä on mahdollista käsitellä laajasti autonomisiin aseisiin liittyviä kysymyksiä ja huomioida kansainvälisen humanitaarisen oikeuden noudattamisen ohella myös muita näkökulmia. Kokousten lopuksi valtiot äänestävät päätöslauselmista, jotka etenevät yleiskokouksen hyväksyttäväksi.
YK:n yleiskokous on hyväksynyt jo kolme vuotta peräkkäin suurella enemmistöllä päätöslauselman autonomisista asejärjestelmistä. Päätöslauselman hyväksyminen YK:n yleiskokouksessa, foorumilla, jossa neuvottelut voidaan valtuuttaa enemmistöllä eikä yksimielisyydellä, pitää autonomiset aseet ja mahdollisen sopimuksen asialistalla CCW-sopimuksen ulkopuolella.
Valtiot voivat kokoontua neuvottelemaan myös YK:n olemassa olevista foorumeista riippumatta esimerkiksi järjestämällä kansainvälisen konferenssin, jonka tavoitteena on julistaa yhteinen aikomus sopimusneuvottelujen aloittamisesta.
Lyhenteitä, joihin törmäät neuvottelujen yhteydessä
- CCW = The Convention on Certain Conventional Weapons
- GGE = The Group of Governmental Experts
- UNGA = The United Nations General Assembly
- LAWS = Lethal Autonomous Weapons Systems
Suomen tulee liittyä valtioiden joukkoon, jotka kannattavat autonomisten asejärjestelmien kieltoa ja säätelyä oikeudellisesti sitovalla sopimuksella.
YK:ssa ja EU:ssa Suomen aktiivinen rooli tappajarobottien kiellon edistämiseksi. YK:ssa Suomen tulisi puolustaa täysin autonomisten asejärjestelmien kieltoa, ja EU:ssa edistää aloitteita, jotka hillitsisivät näiden asejärjestelmien kehittämistä.
Tarvitsemme toimia myös Suomessa. Eduskunnan on keskusteltava aiheesta ja annettava hallitukselle selkeä poliittinen viesti, että sen on toimittava autonomisten asejärjestelmien kieltämiseksi. On myös huolehdittava, etteivät suomalaisyritykset osallistu täysin autonomisten asejärjestelmien kehittämiseen.
Haluatko osallistua toiminnan suunnitteluun ja toteuttamiseen? Oletko hyvä kirjoittaja, viestinnästä innostunut tai kiinnostaisiko sinua tapahtuman järjestäminen? Jos kampanjointi kiinnostaa, ota meihin yhteyttä: info@stopkillerrobots.fi
Seuraa meitä sosiaalisessa mediassa ja allekirjoita vetoomus. Liity mukaan kampanjan kansainväliseen nuorisoverkostoon. Allekirjoita tekoälyn ja robotiikan tutkijoiden avoin kirje autonomisista aseista. Liity mukaan sotilashenkilöstön vaatimukseen autonomisten aseiden kieltämiseksi. Vaikuta yliopistossasi hankkimalla tietoa, lisäämällä tietoisuutta ja toimimalla.
Kerro ympärilläsi oleville ihmisille tappajaroboteista. Ymmärryksen lisääminen on ensimmäinen askel muutokseen, ja mitä enemmän viesti leviää, sitä todennäköisemmin pystymme vaikuttamaan.