Monet yritykset ulkoistavat yhä enemmän tehtäviä tekoälylle. Eikä ihme, onhan se näppärä kaveri. Tietää vaikka mitä ja hiffaa asioiden väliset yhteydet sekunneissa. Olen työssäni huomannut, että yrittäjät käyttävät sitä yhä enenevässä määrin myös strategian laatimiseen. Siinäkin tekoälyllä on hyviä rooleja, olisi kuitenkin syytä olla tarkkana, ettei ulkoista sille liikaa. Kerron kohta miksi, mutta ensin pari sanaa siitä, mitä tarkoitan strategialla.
Kun asiakkaideni kanssa kehitämme strategiaa, lähdemme siitä, että ensin meillä on jokin selkeä päämäärä. Sitten kartoitamme nykytilanteen (kilpailutilanteen, vahvuudet, heikkoudet, resurssit jne). Tämän jälkeen pohdimme mahdollisia tulevaisuuksia usein skenaarioiden avulla. Strategia on siis suunnitelma, miten pääsemme haluttuun tavoitteeseen. Se on kuitenkin melko merkityksetön paperi, jos siihen ei liitetä myös toimenpidelistaa, aikataulutusta, vastuiden jakoa yms.
Strategian laatiminen on työläs prosessi ja siinä voidaan käyttää tekoälyä apuna monessa eri vaiheessa. Tekoälyä käytetään esimerkiksi analysoimaan dataa, tunnistamaan riskejä, hahmottelemaan vaihtoehtoja ja kirjoittamaan strategialuonnoksia. Kun tekoälyä käytetään apuna yrityksen tulevaisuuden suunnittelussa, se rakentaa omalta osaltaan käsitystä siitä, millaisia tulevaisuuksia yrityksellä voi olla. Toisin sanoen se käyttää tulevaisuusvaltaa.
Siitä on jo muutama vuosi, kun kuulin termin ”tulevaisuusvalta” ensimmäisen kerran. Mikko Dufva Sitralta oli puhumassa tulevaisuudentutkijoiden konferenssissa Turussa ja esitteli käsitettä. Se on todella hyvä käsite kuvaamaan jonkun ihmisen tai toimijan kykyä määritellä tulevaisuuksia siten, että samalla vaikutetaan siihen, mitä pidetään realistisena, toivottavana, järkevänä tai edes mahdollisena. Kyse on vallasta määrittää mahdollisuuksien horisonttia. Dufva puhui asiasta siitä näkökulmasta, että yhteiskunnan tasolla on tärkeää miettiä, ketkä osallistuvat yhteisen tulevaisuutemme kuvittelemiseen ja ketkä siis käyttävät valtaa sen suhteen millaisia tulevaisuuksia yhteiskunnallamme voisi olla.
Yrityksen strategian luonnin tai uudistamisen kontekstissa olisi tärkeää pitää tulevaisuusvalta yrityksellä itsellään. Tekoälyn on vaikeaa kuvitella asioita, joita ei ole vielä tapahtunut (ja joista ei ole dataa). Se toimii tiukasti sille annetun kehyksen sisällä ja siksi mahdollisuuksien horisontti saattaa jäädä kapeaksi ja riskejä huomioimatta. Jäähän niitä tietenkin ihmisiltäkin huomaamatta ja siksi tekoäly on hyvä sparrauskaveri. Liikaa tulevaisuusvaltaa sille ei kuitenkaan kannata antaa.
Tulevaisuusvalta ei ole yrityksessä mikään triviaali asia, sillä se, joka käyttää tulevaisuusvaltaa, vaikuttaa suoraan myös siihen mitä pidetään mahdollisena, eli toisin sanoen yrityksen kilpailukykyyn, resilienssiin ja riskienhallintaan. Jos organisaation tulevaisuuden mahdollisuudet nähdään liian kapeasti tai väärästä näkökulmasta, saattaa menestymisen kannalta kriittisen tärkeitä asioita jäädä tarkastelun ulkopuolelle.
Tekoäly tunnistaa usein varsin hyvin tunnettuja riskejä ja lyhyen aikavälin kehityskulkuja, mutta huonommin tuntemattomia riskejä ja heikkoja signaaleja. Sama koskee myös mahdollisuuksia. Havainnollistan tätä Donald Rumsfeldin tunnetuksi tekemän nelikentän avulla. Osa asioista kuuluu niin sanottuihin known knowns -ilmiöihin: tiedämme sekä muuttujat että niiden kehityksen. Tyypillisesti nämä näkyvät datassa selkeinä trendeinä. Toisessa ryhmässä ovat known unknowns, eli tiedämme olennaiset muuttujat, mutta emme pysty ennakoimaan niiden kehitystä.
Näiden lisäksi on vielä kaksi hankalampaa tilannetta. Unknown knowns viittaa sellaiseen tietoon, joka on jossain mielessä olemassa, esimerkiksi kokemuksena, hiljaisena tietona tai organisaation sisäisenä ymmärryksenä, mutta jota ei ole sanoitettu eikä se siksi päädy mukaan analyysiin. Tekoälyn tapauksessa se tarkoittaa ei-digitaalisia asioita. Unknown unknowns puolestaan tarkoittaa asioita, joita emme osaa ottaa huomioon, koska emme tiedä niiden olemassaolosta.
Tekoäly toimii vahvimmillaan kahdessa ensimmäisessä kategoriassa: se tunnistaa tunnettuja ilmiöitä ja käsittelee kohtuullisesti myös tunnettuja epävarmuuksia. Sen sijaan se on selvästi heikko kahdessa jälkimmäisessä, joissa keskeistä on joko ei-digitaalisen tiedon löytäminen tai täysin uusien ilmiöiden kuvitteleminen. Juuri näitä tilanteita organisaation kuitenkin kannattaisi pohtia, sillä ne voivat olla aivan keskeisiä kilpailukyvyn ja riskienhallinnan kannalta.
Tekoälylle annetun tulevaisuusvallan rajoittaminen on tärkeää myös siksi, että tekoäly ei oikeasti välitä sinun yrityksestäsi. Sille yrityksesi strategian miettiminen on yhtä tärkeää kuin sen pohtiminen, miksi kaivot ovat pyöreitä. Ei siis kannata antaa valtaa sellaiselle, joka ei yrityksesi menestymisestä oikeasti välitä.
Tulevaisuusvalta ei ole aina näkyvää. Pinnan alla se tarkoittaa valintoja ja rajauksia: mitä otetaan mukaan ja mitä jätetään pois. Kun käyttää tekoälyä suunnittelussa, vääjäämättä antaa sille jonkin verran tulevaisuusvaltaa. Yleensä valta ja vastuu kulkevat käsi kädessä, mutta eivät tässä kohtaa. Sillä vaikka strategian luonnin ulkoistaisi kokonaan tekoälylle ja antaisi sille näin suuren tulevaisuusvallan, vastuuta sillä ei silti ole.
Tekoälylle saatetaan kyllä yrittää vierittää vastuuta. Luotetaan dataan ja koneeseen, objektiivisuuden vaikutelmaan ja tekoälyn tekemään analyysiin. Tästä ihmisten sokeasta luottamuksesta tekoälyn tekemiin asioihin on tutkimusprojekti Vaasan yliopistossa. Vaikka ihmiset luottavat tekoälyyn, mitään vastuuta se ei neuvoistaan kanna. Mikko Dufva määritteli tulevaisuusvastuun muistaakseni jotenkin näin: Vastuu tulevaisuudesta tarkoittaa, että ymmärretään oma valtapositio ja kyky vaikuttaa tulevaisuuteen. Tästä seuraa myös, että ollaan (ainakin moraalisesti) tilivelvollisia tehdyistä päätöksistä.
Palataanpa sitten vielä otsikon kysymykseen: miten siis estät, ettei tekoälylle valu liikaa tulevaisuusvaltaa? Olen koonnut alle muutamia käytännön vinkkejä:
1. Tekoälyn roolin selkiyttäminen toimeksiannoissa.[1] Eli onko tekoäly ikään kuin assistentti, jolle annetaan rajallisia tehtävänpalasia isommasta kokonaisuudesta? Vai onko se luottopelaaja, jolle ulkoistetaan kokonaisuuksia? Vai onko kenties tekoälyn rooli toimia kollegana, jonka kanssa yhdessä kehitellään asioita? Jos tekoäly toimii assistenttina, ihminen pysyy ajattelun keskiössä ja käyttää tekoälyä apuvälineenä. Jos taas ajattelua ulkoistetaan sille enemmän, ihmisen rooli alkaa kaventua pelkäksi tilaajaksi ja tuotoksen arvioijaksi. On myös mahdollista, että ihminen ja tekoäly muodostavat eräänlaisen kognitiivisen yhteisön, jossa tieto syntyy vuorovaikutuksessa. Roolien määrittäminen tekee vallan näkyväksi.
2. Tekoälyn tuotosten systemaattinen opponointi.[2] Jos tekoälyä käytetään merkittävissä asioissa, sen tuotoksia pitäisi myös systemaattisesti opponoida. Joku organisaatiossa voisi esimerkiksi ottaa roolin, jossa hänen tehtävänään on nimenomaan haastaa tekoälyn tuottamat analyysit: tarkastella niiden oletuksia, kehyksiä ja päättelyketjua.
3. Vastuun ja vallan näkyvä organisointi. Vaikka tekoäly osallistuu yrityksen arkeen, vastuu ei siirry sille. Siksi organisaatiossa pitäisi olla selkeää, kuka on vastuussa lopputuloksesta ja miten tekoälyn tuotoksia voidaan käyttää päätöksenteon tukena. Vastuun nimeäminen tekee myös valtapositioista näkyviä. Erityisen tärkeää olisi pohtia tekoälylle annettua tulevaisuusvaltaa. Minkä verran sille on annettu valtaa määrittää yrityksen tulevaisuutta ja miten se on tätä valtaa käyttänyt.
Kuulisin mielelläni sinun ajatuksiasi näistä aiheista, sillä käsittelen näitä teemoja myös tulevassa kirjassani.
PS. Jos haluat kuulla näistä teemoista lisää, ole yhteydessä. Voin tulla alustamaan keskustelua organisaatioonne tai osallistua yrityksesi pidempiaikaiseen kehittämiseen esimerkiksi hallituksen neuvonantajan roolissa.
#promptinfilosofia #strateginenkehittäminen #responsiblebusiness #aicognition @EBEN Suomi #tulevaisuusvalta #tulevaisuusvastuu #strategia #johtaminen #tekoäly
Lähteet
Dufva, Mikko & Lähdemäki-Pekkinen, Jenna (2023): “Power over Futures – What Does It Mean?”, A presentation in “Empowering futures – Long-term governance, democracy and futures research” -conference, 14−16.6.2023, Turku, Finland.
Laapotti, Tomi & Jämsen, Rasa (2026): Generatiivinen tekoäly tiedon ja tietämisen airuena organisaatioissa, presentaatio VAKKI-yhdistyksen Inhimillinen viestintä symposiumissa, 12-13.2.2026 Vaasa. (käynnissä oleva tutkimusprojekti)
Willman-Iivarinen, Hanna (2026): ”Miten vastuu tulevaisuudesta jaetaan yrityksen ja tekoälyn välillä?”, Presentaatio konferenssissa: Responsible business research conference, 11-12.3.2026, Tampere
Rumsfeld, Donald (2002): Department of Defense News Briefing, 12.2.2002,
[1] Katso tarkemmin mitä nämä roolit tarkoittavat käytännössä: ”Promptin filosofia: Mitä oikeastaan teet, kun promptaat?” julkaistu 28.4.2026).
[2] Katso teksti tekoälyn lukutaidosta, siellä on paljon kysymyksiä mitä kannattaa pohtia.https://www.linkedin.com/pulse/teko%C3%A4lyn-lukutaito-osaatko-haastaa-tekem%C3%A4n-tuotoksen-hanna-8d8mf


Kommentit
Lähetä kommentti