Enenevässä määrin ulkoistamme päätöksentekomme tekoälylle
tai käytämme sitä päätöksentekomme apuna. Tämä on enimmäkseen upeaa, sillä se
helpottaa elämää. Autoni tuntuu tekevän monia päätöksiä puolestani. Vaikka
vähän ärsyttääkin kun se ilmoittaa minulle päättäneensä polttoaineen vähyyden
vuoksi laittaa lämmityksen pois päältä, niin on se kuitenkin käytännöllistä.
Autoni lisäksi kännykkäni tuntuu päättävän monia asioita puolestani (mitä
reittejä mennä ja milloin sammuttaa näyttö akun vähyyden takia). Google ja
Facebook ovat päättäneet aiemman käyttäytymisen perusteella mitkä sisällöt näen
ensimmäisenä. Monista selvistä eduista huolimatta päätöksenteon automatisointiin
ja tekoälyn käyttöön liittyy muutamia ongelmia.
Sadankomitean, Rauhanliiton ja Helsingin Yliopiston 26.11.2018
järjestämässä ”Tekoälyn etiikka
sodankäynnissä” –tilaisuudessa pohdittiin tekoälyn lisääntynyttä käyttöä
sodankäynnissä ja siihen liittyviä eettisiä kysymyksiä. Tilaisuudesta
tallennettu video löytyy täältä. Tekoälyn
käyttöön liittyvät eettiset kysymykset ovat sinänsä mielenkiintoisia. Jos
robotti tappaa, niin kuka on vastuussa: robotin suunnittelija, omistaja vai
käyttäjä? Tämä problematiikka liittyy sodankäynnin lisäksi niin tulevaisuuden
autoihin kuin moniin muihinkin rauhanomaisiin tilanteisiin. Itseäni teema
kiinnostaa päätöksenteon kannalta ja pohdin tässä kirjoituksessa aseiden
autonomisuuteen ja päätöksenteon ulkoistamiseen tekoälylle liittyviä
kysymyksiä.
Autonomisten aseiden päätöksentekoon liittyviä ongelmia
Antti Kauppinen[1] sanoi
”Tekoälyn etiikka sodankäynnissä”-seminaarissa, että autonomiset aseet eroavat
automaattisista siinä, ettei niiden toiminta ole enää täysin ihmisten
kontrolloitavissa. Jonkinnäköisen rajatapaus automaattisen ja autonomisen aseen
välillä on ohjusten torjuntajärjestelmä, joka tunnistaa ohjuksen ja laukaisee
välittömästi vastatoimet. Tässä on automaatio tarpeen, koska tarvittava
reaktionopeus on usein suurempi kuin mihin ihmiset pystyvät. Voimme melko pitkälti luottaa siihen, että
ohjustentorjuntajärjestelmä erottaa ohjukset, lentokoneet ja linnut toisistaan (lähestyvät
eri nopeuksilla). Hieman ongelmallisemmaksi tilanne on silloin kun
asejärjestelmän (esimerkiksi dronen) pitää tunnistaa
kohde ja päättää itsenäisesti mitä
tekee kohteelle.
Tunnistamisvaiheessa
pitää erottaa kohteet toisistaan; onko kyseessä Taleban sotilas, rosvojen
varalta aseistautunut maanviljelijä vai sotaa leikkivä lapsi. Tässä käytetään tekoälyä eli visuaalista
luokittelua ja hahmontunnistusta. Tietokone tunnistaa jo hyvin hahmoja, mutta
sitä voidaan myös hämätä. Tästä esimerkkinä on psykedeelisten tarrojen tapaus. Devin Coldewey kertoo aiheesta
tarkemmin Techcrunch-blogissa[2]. Kun tekoäly
tunnistaa kuvista esineitä, ne eivät kohtele joka pikseliä tasa-arvoisesti,
vaan etsivät kuvista kaikkein erottelevimmat kohdat. Jos siis haluaa tekoälylle
opettaa kuvista mitkä ovat taloja, niin ensin näytetään sille talonkuvia, se
etsii niistä yhteiset piirteet ja melko pian se oppii tunnistamaan uusista
kuvista talot. Ryhmä Googlen tutkijoita[3] oli
kiinnostunut testaamaan voiko tietokonetta hämätä lisäämällä kuviin jotain outoa.
He päätyivät lisäämään kuviin värikkäitä spiraaleja, ikään kuin tarroina. Nämä
ovat niin erikoisia, että tekoäly huomasi ne ja unohti kaikki muut
lajittelukriteerit toisarvoisina. Tämä on ongelma, sillä jos hahmojen
tunnistamista pystyy tällä tavalla hämäämään ja systeemi onkin altis virheille,
eikä kehittäjä ei pysty täysin sanomaan miten systeemi toimii, niin ei siihen
pysty myöskään käyttäjä.
Kun asejärjestelmä on tunnistanut kohteen, seuraa päätöksentekovaihe, missä sen pitää
päättää mitä se tekee kohteelle eli hyökkääkö vai ei. Toisin sanoen yritetäänkö
kohde tuhota ja millä tavalla. Tässä pitäisi ottaa huomioon monenlaisia
riskianalyysejä ja myös eettisiä näkökantoja, joita ihminen pohtii, mutta kone
ei. Jos tunnistettava terroristi on lapsijoukon keskellä ja hänen tuhoamisensa
tappaa myös lapset, olisiko parempi odottaa toista tilaisuutta? Ihminen ehkä
odottaisi, kone välttämättä ei. Päätöksenteon ohjelmointi on monimutkaista.
Päätöksenteon ulkoistaminen tekoälylle ei ole ongelmatonta
Kuten Anna-Mari Rusanen[4]
huomautti ”Tekoälyn etiikka sodankäynnissä”-seminaarissa, että tulevaisuuden sodankäynti (ja osin jo
nykyajan) on tekoälyjärjestelmien läpitunkemaa: tappajarobotit, dronet, puolustussysteemit
jne. Ei kuitenkaan ole kyse vain suurista systeemeistä kuten autonomiset aseet,
vaan tekoäly on mukana hyvin monessa. Anna-Mari Rusanen sanoo, että tekoäly on
yhä enemmän kapeaa tekoälyä, osa jotain systeemiä. Käytämme näitä systeemejä
päätöksenteon apuvälineinä. Olemme toki käyttäneet päätöksenteon apuna monenlaisia
yksinkertaisia laitteita läpi historiamme (suurennuslasit, mikroskoopit yms.)
Nykyaikaiset laitteet eroavat näistä monimutkaisuuden ja itseohjautuvuuden
takia. Laitteita käytetään apuna kun päätetään milloin aktivoidaan
puolustusjärjestelmät, milloin lähetetään dronet ja miten valitaan kohteet. Olisi
todella tärkeää ymmärtää miten nämä laitteet toimivat ja millaisia riskejä
niihin liittyy. Kun tekoäly oppii, se käyttää algoritmejä. Algoritmit ovat
kuitenkin alttiita vinoumille[5]. Joka
kerta kun on epävarma tilanne ja meillä on ennuste tulevaisuudesta, joudutaan
arvioimaan kuinka suurella todennäköisyydellä ennuste pitää paikkansa. Jos
tekoäly on tekemässä ennusteita, keräämässä malleja ja dataa, niin tilanne
monimutkaistuu.
Molemmat systeemin vaiheet eli tunnistaminen ja
hyökkäyspäätös ovat ns. oppivia ja itseohjautuvia. Ihminen ei voi kontrolloida
viimeiseen asti miten se toimii, kenen kimppuun hyökkää ja kenen ei. Jos meillä
on autonominen ase, minkä toimintaa ei laitteenkäynnistäjä voi ennakoida,
silloin ei löydy ketään joka olisi vastuussa jos se toimii ”väärällä” tavalla.
. Valmistaja ei ole vastuussa, koska ei ole tehnyt mitään pahaa kenellekään.
Myöskään komentajaa tai käyttäjää ei voida pitää vastuussa, koska he eivät
pysty ennakoimaan mitä järjestelmä tekee.
Riskejä autonomisiin aseisiin liittyen
Aikaa
ennen tekoälyä eli vuonna 1988 tapahtui kansainvälinen tragedia kun USS
Vincennes vahingossa ampui alas Iranilaisen lentokoneen. Tähän tapahtumaan
liittynyttä päätöksentekoa on tutkittu paljon. Ja sen seurauksena Yhdysvaltojen
merivoimat päätti aloittaa TADMUS (= Tactical Decision Making Under Stress)
-tutkimusohjelman päätöksenteosta[6].
Seuraavana vuonna 30 tutkijaa osallistui ohjelmaan ja pyrki löytämään
yhtäläisyyksiä palopäälliköiden, ydinvoimalasuunnittelijoiden,
moottoritiesuunnittelijoiden ja muiden ryhmien päätöksenteosta. Syntyi paljon
arvokasta tietoa ihmisten päätöksentekokyvyistä paineen alla. Tekoälyn
käyttäminen olisi saattanut estää onnettomuuden. Toisaalta tekoälyä käyttämällä
saatetaan myös tehdä vastaavia virheitä. Joskus nämä virheet voivat olla
kohtalokkaita. Neuvostoliitto käytti lavastamiaan Mainilan laukauksia syynä
Talvisodan aloittamiseen. Mitä jos laukauksia ei olisikaan tarvinnut lavastaa,
vaan räjähdysherkässä tilanteessa joku onneton drone olisi itseohjautuvasti
päättänyt tuhota havaitsemansa uhan?
Autonomisia aseita kehitetään maailmalla kovaa vauhtia.
Tällä hetkellä vaikuttaisi siltä, että niihin on varaa vain kaikkein isoimmilla
mailla. Maailmanrauhan kannalta ongelmallista on, että kynnys sotien
aloittamiseen pienenee. Tämä johtuu siitä, että autonomiset aseet vähentävät
kaatuneiden omien sotilaiden määrää, koska sotia voidaan käydä etänä. Tutkija
Anna-Mari Rusanen pitää ongelmana myös sitä, että ”maat, jotka eivät muutenkaan ole kovin kiinnostuneita eettisistä kysymyksistä”
saattavat alkaa kehittelemään autonomisia aseita halvimmalla mahdollisella
tavalla ja vähät välittää esimerkiksi siitä erotteleeko ase lapset ja sotilaat
toisistaan. Toisaalta Suomen kaltaiselle pienelle maalle saattaisi olla
hyvinkin kustannustehokasta liittää rajavalvontaan ja puolustusjärjestelmiin autonomisia
systeemejä. Onkin hyvä erotella toisistaan tappamiseen liittyvät autonomiset
systeemit ja esimerkiksi puolustusjärjestelmiin liittyvät aseita tuhoavat
autonomiset systeemit .
[1] Kauppinen, Antti (2018): Automaattiset aseet ja
sodankäynnin etiikka, esitelmä Sadankomitean, Rauhanliiton ja Helsingin
Yliopiston 26.11.2018 järjestämässä ”Tekoälyn
etiikka sodankäynnissä” –tilaisuudessa. Antti Kauppinen on käytännöllisen
filosofian professori Helsingin yliopistossa.
[2] Coldewey, Devin (2018): These psychedelic stickers
blow AI minds, Techcrunch https://techcrunch.com/2018/01/02/these-psychedelic-stickers-blow-ai-minds/?guccounter=1
[3] Tom B. Brown, Dandelion Mané, Aurko Roy, Martín
Abadi, Justin Gilmer (2017): ” Adversarial Patch”, artikkeli ja presentaatio,
31st Conference on Neural Information Processing Systems (NIPS 2017), Long
Beach, CA, USA. https://arxiv.org/pdf/1712.09665.pdf
[4] Rusanen, Anna-Mari (2018): Ihminen tappajarobotin
ohjaimissa - Kognitiontutkijan
näkökulma, esitelmä Sadankomitean, Rauhanliiton ja Helsingin Yliopiston
26.11.2018 järjestämässä ”Tekoälyn
etiikka sodankäynnissä” –tilaisuudessa. Anna-Mari Rusanen on tieteenfilosofi
ja kognitiontutkija, joka toimii kognitiotieteen yliopistonlehtorina Helsingin
yliopistossa. Hän tutkii erilaisten tiedonkäsittelyjärjestelmien, kuten
ihmisaivojen tai tekoälysovellusten, ominaisuuksia.
[6] Tämä TADMUS-ohjelma ja sen taustat on kattavasti
esitelty Collyer ja Maleckin kirjoittamassa artikkelissa ”Tactical
decision making under stress: History and overview”, mikä puolestaan on
julkaistu kirjassa ”Making decisions under stress: Implications for
individual and team training”.
Kommentit
Lähetä kommentti