Päätöksenteon tulevaisuus: Case autonomiset aseet ja päätöksenteon ulkoistaminen tekoälylle



Enenevässä määrin ulkoistamme päätöksentekomme tekoälylle tai käytämme sitä päätöksentekomme apuna. Tämä on enimmäkseen upeaa, sillä se helpottaa elämää. Autoni tuntuu tekevän monia päätöksiä puolestani. Vaikka vähän ärsyttääkin kun se ilmoittaa minulle päättäneensä polttoaineen vähyyden vuoksi laittaa lämmityksen pois päältä, niin on se kuitenkin käytännöllistä. Autoni lisäksi kännykkäni tuntuu päättävän monia asioita puolestani (mitä reittejä mennä ja milloin sammuttaa näyttö akun vähyyden takia). Google ja Facebook ovat päättäneet aiemman käyttäytymisen perusteella mitkä sisällöt näen ensimmäisenä. Monista selvistä eduista huolimatta päätöksenteon automatisointiin ja tekoälyn käyttöön liittyy muutamia ongelmia.

Sadankomitean, Rauhanliiton ja Helsingin Yliopiston 26.11.2018 järjestämässä ”Tekoälyn etiikka sodankäynnissä” –tilaisuudessa pohdittiin tekoälyn lisääntynyttä käyttöä sodankäynnissä ja siihen liittyviä eettisiä kysymyksiä. Tilaisuudesta tallennettu video löytyy täältä. Tekoälyn käyttöön liittyvät eettiset kysymykset ovat sinänsä mielenkiintoisia. Jos robotti tappaa, niin kuka on vastuussa: robotin suunnittelija, omistaja vai käyttäjä? Tämä problematiikka liittyy sodankäynnin lisäksi niin tulevaisuuden autoihin kuin moniin muihinkin rauhanomaisiin tilanteisiin. Itseäni teema kiinnostaa päätöksenteon kannalta ja pohdin tässä kirjoituksessa aseiden autonomisuuteen ja päätöksenteon ulkoistamiseen tekoälylle liittyviä kysymyksiä.

Autonomisten aseiden päätöksentekoon liittyviä ongelmia 


Antti Kauppinen[1] sanoi ”Tekoälyn etiikka sodankäynnissä”-seminaarissa, että autonomiset aseet eroavat automaattisista siinä, ettei niiden toiminta ole enää täysin ihmisten kontrolloitavissa. Jonkinnäköisen rajatapaus automaattisen ja autonomisen aseen välillä on ohjusten torjuntajärjestelmä, joka tunnistaa ohjuksen ja laukaisee välittömästi vastatoimet. Tässä on automaatio tarpeen, koska tarvittava reaktionopeus on usein suurempi kuin mihin ihmiset pystyvät.  Voimme melko pitkälti luottaa siihen, että ohjustentorjuntajärjestelmä erottaa ohjukset, lentokoneet ja linnut toisistaan (lähestyvät eri nopeuksilla). Hieman ongelmallisemmaksi tilanne on silloin kun asejärjestelmän (esimerkiksi dronen) pitää tunnistaa kohde ja päättää itsenäisesti mitä tekee kohteelle.

Tunnistamisvaiheessa pitää erottaa kohteet toisistaan; onko kyseessä Taleban sotilas, rosvojen varalta aseistautunut maanviljelijä vai sotaa leikkivä lapsi.  Tässä käytetään tekoälyä eli visuaalista luokittelua ja hahmontunnistusta. Tietokone tunnistaa jo hyvin hahmoja, mutta sitä voidaan myös hämätä. Tästä esimerkkinä on psykedeelisten tarrojen tapaus. Devin Coldewey kertoo aiheesta tarkemmin Techcrunch-blogissa[2]. Kun tekoäly tunnistaa kuvista esineitä, ne eivät kohtele joka pikseliä tasa-arvoisesti, vaan etsivät kuvista kaikkein erottelevimmat kohdat. Jos siis haluaa tekoälylle opettaa kuvista mitkä ovat taloja, niin ensin näytetään sille talonkuvia, se etsii niistä yhteiset piirteet ja melko pian se oppii tunnistamaan uusista kuvista talot. Ryhmä Googlen tutkijoita[3] oli kiinnostunut testaamaan voiko tietokonetta hämätä lisäämällä kuviin jotain outoa. He päätyivät lisäämään kuviin värikkäitä spiraaleja, ikään kuin tarroina. Nämä ovat niin erikoisia, että tekoäly huomasi ne ja unohti kaikki muut lajittelukriteerit toisarvoisina. Tämä on ongelma, sillä jos hahmojen tunnistamista pystyy tällä tavalla hämäämään ja systeemi onkin altis virheille, eikä kehittäjä ei pysty täysin sanomaan miten systeemi toimii, niin ei siihen pysty myöskään käyttäjä. 

Kun asejärjestelmä on tunnistanut kohteen, seuraa päätöksentekovaihe, missä sen pitää päättää mitä se tekee kohteelle eli hyökkääkö vai ei. Toisin sanoen yritetäänkö kohde tuhota ja millä tavalla. Tässä pitäisi ottaa huomioon monenlaisia riskianalyysejä ja myös eettisiä näkökantoja, joita ihminen pohtii, mutta kone ei. Jos tunnistettava terroristi on lapsijoukon keskellä ja hänen tuhoamisensa tappaa myös lapset, olisiko parempi odottaa toista tilaisuutta? Ihminen ehkä odottaisi, kone välttämättä ei. Päätöksenteon ohjelmointi on monimutkaista.

Päätöksenteon ulkoistaminen tekoälylle ei ole ongelmatonta


Kuten Anna-Mari Rusanen[4] huomautti ”Tekoälyn etiikka sodankäynnissä”-seminaarissa, että  tulevaisuuden sodankäynti (ja osin jo nykyajan) on tekoälyjärjestelmien läpitunkemaa: tappajarobotit, dronet, puolustussysteemit jne. Ei kuitenkaan ole kyse vain suurista systeemeistä kuten autonomiset aseet, vaan tekoäly on mukana hyvin monessa. Anna-Mari Rusanen sanoo, että tekoäly on yhä enemmän kapeaa tekoälyä, osa jotain systeemiä. Käytämme näitä systeemejä päätöksenteon apuvälineinä. Olemme toki käyttäneet päätöksenteon apuna monenlaisia yksinkertaisia laitteita läpi historiamme (suurennuslasit, mikroskoopit yms.) Nykyaikaiset laitteet eroavat näistä monimutkaisuuden ja itseohjautuvuuden takia. Laitteita käytetään apuna kun päätetään milloin aktivoidaan puolustusjärjestelmät, milloin lähetetään dronet ja miten valitaan kohteet. Olisi todella tärkeää ymmärtää miten nämä laitteet toimivat ja millaisia riskejä niihin liittyy. Kun tekoäly oppii, se käyttää algoritmejä. Algoritmit ovat kuitenkin alttiita vinoumille[5]. Joka kerta kun on epävarma tilanne ja meillä on ennuste tulevaisuudesta, joudutaan arvioimaan kuinka suurella todennäköisyydellä ennuste pitää paikkansa. Jos tekoäly on tekemässä ennusteita, keräämässä malleja ja dataa, niin tilanne monimutkaistuu.

Molemmat systeemin vaiheet eli tunnistaminen ja hyökkäyspäätös ovat ns. oppivia ja itseohjautuvia. Ihminen ei voi kontrolloida viimeiseen asti miten se toimii, kenen kimppuun hyökkää ja kenen ei. Jos meillä on autonominen ase, minkä toimintaa ei laitteenkäynnistäjä voi ennakoida, silloin ei löydy ketään joka olisi vastuussa jos se toimii ”väärällä” tavalla. . Valmistaja ei ole vastuussa, koska ei ole tehnyt mitään pahaa kenellekään. Myöskään komentajaa tai käyttäjää ei voida pitää vastuussa, koska he eivät pysty ennakoimaan mitä järjestelmä tekee.

Riskejä autonomisiin aseisiin liittyen


Aikaa ennen tekoälyä eli vuonna 1988 tapahtui kansainvälinen tragedia kun USS Vincennes vahingossa ampui alas Iranilaisen lentokoneen. Tähän tapahtumaan liittynyttä päätöksentekoa on tutkittu paljon. Ja sen seurauksena Yhdysvaltojen merivoimat päätti aloittaa TADMUS (= Tactical Decision Making Under Stress) -tutkimusohjelman päätöksenteosta[6]. Seuraavana vuonna 30 tutkijaa osallistui ohjelmaan ja pyrki löytämään yhtäläisyyksiä palopäälliköiden, ydinvoimalasuunnittelijoiden, moottoritiesuunnittelijoiden ja muiden ryhmien päätöksenteosta. Syntyi paljon arvokasta tietoa ihmisten päätöksentekokyvyistä paineen alla. Tekoälyn käyttäminen olisi saattanut estää onnettomuuden. Toisaalta tekoälyä käyttämällä saatetaan myös tehdä vastaavia virheitä. Joskus nämä virheet voivat olla kohtalokkaita. Neuvostoliitto käytti lavastamiaan Mainilan laukauksia syynä Talvisodan aloittamiseen. Mitä jos laukauksia ei olisikaan tarvinnut lavastaa, vaan räjähdysherkässä tilanteessa joku onneton drone olisi itseohjautuvasti päättänyt tuhota havaitsemansa uhan?

Autonomisia aseita kehitetään maailmalla kovaa vauhtia. Tällä hetkellä vaikuttaisi siltä, että niihin on varaa vain kaikkein isoimmilla mailla. Maailmanrauhan kannalta ongelmallista on, että kynnys sotien aloittamiseen pienenee. Tämä johtuu siitä, että autonomiset aseet vähentävät kaatuneiden omien sotilaiden määrää, koska sotia voidaan käydä etänä. Tutkija Anna-Mari Rusanen pitää ongelmana myös sitä, että ”maat, jotka eivät muutenkaan ole kovin kiinnostuneita eettisistä kysymyksistä” saattavat alkaa kehittelemään autonomisia aseita halvimmalla mahdollisella tavalla ja vähät välittää esimerkiksi siitä erotteleeko ase lapset ja sotilaat toisistaan. Toisaalta Suomen kaltaiselle pienelle maalle saattaisi olla hyvinkin kustannustehokasta liittää rajavalvontaan ja puolustusjärjestelmiin autonomisia systeemejä. Onkin hyvä erotella toisistaan tappamiseen liittyvät autonomiset systeemit ja esimerkiksi puolustusjärjestelmiin liittyvät aseita tuhoavat autonomiset systeemit .

Ps. Kiitos kuvasta khunaspix at free digital photos.




[1] Kauppinen, Antti (2018): Automaattiset aseet ja sodankäynnin etiikka, esitelmä Sadankomitean, Rauhanliiton ja Helsingin Yliopiston 26.11.2018 järjestämässä ”Tekoälyn etiikka sodankäynnissä” –tilaisuudessa. Antti Kauppinen on käytännöllisen filosofian professori Helsingin yliopistossa.

[2] Coldewey, Devin (2018): These psychedelic stickers blow AI minds, Techcrunch https://techcrunch.com/2018/01/02/these-psychedelic-stickers-blow-ai-minds/?guccounter=1

[3] Tom B. Brown, Dandelion Mané, Aurko Roy, Martín Abadi, Justin Gilmer (2017): ” Adversarial Patch”, artikkeli ja presentaatio, 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA. https://arxiv.org/pdf/1712.09665.pdf

[4] Rusanen, Anna-Mari (2018): Ihminen tappajarobotin ohjaimissa -  Kognitiontutkijan näkökulma, esitelmä Sadankomitean, Rauhanliiton ja Helsingin Yliopiston 26.11.2018 järjestämässä ”Tekoälyn etiikka sodankäynnissä” –tilaisuudessa. Anna-Mari Rusanen on tieteenfilosofi ja kognitiontutkija, joka toimii kognitiotieteen yliopistonlehtorina Helsingin yliopistossa. Hän tutkii erilaisten tiedonkäsittelyjärjestelmien, kuten ihmisaivojen tai tekoälysovellusten, ominaisuuksia.

[5] Katso lisää algoritmien ongelmista Cathy O'Neilin kirjasta Matikkatuhoaseet.

[6] Tämä TADMUS-ohjelma ja sen taustat on kattavasti esitelty Collyer ja Maleckin kirjoittamassa artikkelissa ”Tactical decision making under stress: History and overview”, mikä puolestaan on julkaistu kirjassa ”Making decisions under stress: Implications for individual and team training”.

Kommentit