
Strategian tekemistä ei kuitenkaan kannata ulkoistaa tekoälylle kokonaan, sillä tekoälyn kognitio ja ihmisen ajattelu eroavat toisistaan monilta osin. Jos näitä eroja ei ymmärretä, ei ymmärretä myöskään sitä, millaisia rajoitteita tekoälyn tekemillä tuotoksilla on. Tässä muhii isohko yhteiskunnallinen ongelma, sillä olen työssäni huomannut varsin monen ihmisen ja yrityksen luottavan tekoälyyn melko kritiikittä, myös toiminnoissa, jotka ovat kriittisen tärkeitä.
Datan ongelmat. Tekoäly on sille annetun datan ja sen vinoumien vanki. Jos sille esimerkiksi syöttää suuren määrän asiakaspalautetta, josta valtaosa on tyypillisesti negatiivista, niin se saattaa alkaa uskoa, että yrityksen tuote on kehno. Mahdollisten vinoumien lisäksi dataan liittyy eksistentiaalinen ongelma: Jos jostakin asiasta ei ole digitaalisia jälkiä (dataa), niin sitä ei ole olemassa tekoälyn maailmassa. Strategiatyössä tämä on iso ongelma, koska kaikki olennaiset asiat eivät todellakaan näy datassa. Työpaikan hiljainen tieto, kokemukset, käytännöt, heikot signaalit yms. eivät näy datassa. Tekoälyn maailma on sellainen, miltä se näyttää datan läpi katsottuna. Todellisuus on kuitenkin moniulotteisempi. Tekoälyn tuottamat ennusteet ja arviot saattavat olla näistä edellä mainituista syistä vinoutuneita ja epätäydellisiä.
Varmuuden illuusio. Tekoäly vaikuttaa itsevarmalta myös silloin, kun se arvaa. Kaikki tekoälyn käyttäjät ovat varmasti huomanneet miten se välillä hallusinoi, eli keksii ihan omiaan. Tyypillisesti tekoäly vastaa kaikkiin pyyntöihin, vaikka sen tiedot olisivat kuinka puutteellisia. Informaatiossa olevat aukot se paikkaa jollain sellaisella tavalla, mihin käyttäjä ei pääse käsiksi. Se ei tiedä tietävänsä, eikä sitä, ettei se tiedä. Tämä varmuuden illuusio on luonnollisesti strategisen kehittämisen kannalta vaarallista, koska tieto näyttää luotettavalta, vaikka se ei välttämättä ole.
Tekoälyn arvot. Nyt saatat miettiä, että siis mitkä? Ei kai tekoälyllä ole omia arvoja? No, tavallaan ei ole, mutta tavallaan on. Tekoälyn arvot tulevat sille koulutusdatasta tai erikseen ohjelmoituna. Emme tarkkaan ottaen tiedä, millaisilla arvoilla tekoäly toimii, koska ne eivät ole läpinäkyviä. On täysin mahdollista, että tekoälyn arvot eivät ole yhteneviä sen käyttäjän arvojen kanssa, eikä käyttäjä edes tule ajatelleeksi koko asiaa. Kyse ei ole mistään triviaalista seikasta, sillä arvot ohjaavat strategiatyössä muun muassa sitä mitä pidetään tärkeänä ja mitä ei.
Kehystämisen vaikutukset. Tekoäly operoi vain tietyssä kontekstissa, eli sille annetussa kehyksessä. Tämä eroaa ihmisen toiminnasta. Kun ihminen ajattelee jotain ongelmaa, hän pohtii aina myös kehyksen ulkopuolisia asioita ja huomaa helposti mahdollisia yhteyksiä. Tekoäly sen sijaan jumittuu sille annettuun kontekstiin. Jos sille ei ole määritelty tarkkaan kontekstia, se arvaa sen. Tällainen konteksti voi olla yrityksen kannalta väärä tai liian kapea. Tästä seuraa se, että vaihtoehtoja saattaa jäädä pois eli mahdollisuuksien horisontti voi kaventua. Myös mahdollisia riskejä voi jäädä huomaamatta.
Mielikuvituksettomuus. Tekoälyllä ei ole omaa mielikuvitusta. Toki se tuottaa luovalta vaikuttavia sisältöjä; runoja, sävellyksiä ja maalauksia. Sen tekemät teokset perustuvat kuitenkin olemassa olevien asioiden yhdistelyyn, ei varsinaisesti uuden luomiseen. Jos maailma olisi muuttumaton, tämä saattaisi hyvinkin riittää. Me elämme kuitenkin maailmassa, jossa mahdollisuuksien ja riskien kuvittelu vaatii irtautumista menneestä (ja datasta), toisin sanoen luovuutta. Yrityksen pitäisi kyetä kuvittelemaan jotakin sellaista, mitä ei vielä ole tapahtunut. Tämäntyyppinen kuvittelu on tekoälylle vaikeaa.
Epämääräisyyden sieto. Ihminen elää epämääräisessä (vague) maailmassa. Aivomme rakentavat koko ajan parasta mahdollista arvausta siitä, miten asiat ovat. Ajattelumme kehkeytyy jatkuvasti sitä mukaa, kun etenemme. Meitä ei haittaa, että monet asiat ovat epämääräisiä. Vaikkapa lämpötilat: 15 astetta kesällä on melko viileä, tammikuussa taas hämmästyttävän lämmin. Kun tekoälylle antaa toimeksiannon, se joutuu luokittelemaan asiat väkisin joksikin, jotta se pystyy tekemään valintoja. Jos päätöksenteko on vaikeaa, eli tilanteessa on useita keskenään ristiriitaisia motiiveja tai arvoja, se tekee valintansa jonkin laskennallisen periaatteen avulla. Optimoidessaan se ei koe päätöksenteon tuskaa. Eikä päätöksenteko ole sille vaikeaa. Tämä on rakenteellinen ero logiikassa. Hankalassa tilanteessa ihminen ei välttämättä tekisi päätöstä lainkaan tai ainakin hän selittäisi laajasti tekemänsä päätöksen taustoja. Vaikka päätöksenteon tuskan kokeminen on tuskallista, on kokemus silti tärkeä signaali päätöksentekotilanteen ristiriitaisuuksista. Koska tekoäly ei tunne päätöksenteon tuskaa, ei se myöskään koe tarvetta avata päätöksentekoaan.
Merkityksellisyys. Tekoälyllä ei ole omaa tahtoa, intentionaalisuutta, eikä siksi asiat ole sille merkityksellisiä. Sillä ei ole penniäkään kiinni yrityksesi menestymisessä. Ihmisille yrityksen menestyminen, työpaikan säilyminen, oma maine ja uralla eteneminen ovat yleensä hyvin tärkeitä kysymyksiä. Tekoälylle yrityksesi strategia on yhtä tärkeä kuin sen pohtiminen, miksi kaivot ovat pyöreitä.
Metakognition puute. Ihminen pystyy (halutessaan) harrastamaan metakognitiota eli oman ajattelunsa reflektointia. Hän tunnistaa siinä heikkoja kohtia ja mahdollisia puutteita informaatiossa. Hänelle saattaa tulla epämääräinen tunne, mikä kertoo, että jotain päättelyssä on vialla. Tekoäly ei tähän pysty. Tästä seuraa, että ihmisen pitäisi harrastaa metakognitiota myös tekoälyn puolesta. Jonkun on pysähdyttävä kysymään, mikä tässä analyysissä on heikkoa, mitä puuttuu, mikä oletus ohjaa ajattelua ja miksi tämä vastaus näyttää (tai ei näytä) uskottavalta.
Yhteenvetona voidaan siis todeta, että tekoälyn tuottama aineisto voi olla epäluotettavaa ja vaillinaista. Se saattaa vaikuttaa itsevarmalta, vaikka se hallusinoi. Tekoälyn toimintaa ohjaavat arvot, mutta emme tiedä mitkä ne ovat. Se toimii tiukasti sille annetun kehyksen sisällä ja siksi mahdollisuuksien horisontti saattaa jäädä kapeaksi ja osa riskeistä huomaamatta. Se käsittelee huonosti epämääräisyyttä ja sen on vaikeaa kuvitella asioita, joita ei ole vielä tapahtunut. Tekoälylle yrityksen strategia ei ole merkityksellinen, eikä se myöskään reflektoi oman ajattelunsa rajoja.
Tiedän, että on vähän tylyä läväyttää iso kasa ongelmia, eikä tarjota ratkaisuja. Olen niitäkin miettinyt ja palaan niihin yksityiskohtaisesti myöhemmin. Lyhyesti kuitenkin voin paljastaa, että ratkaisuja on kolme.
Ensimmäinen liittyy promptaamisen olemuksen ymmärtämiseen. On tärkeää ymmärtää mitä promptaaminen tosiasiassa on. Prompti kehystää toimeksiannon ja kertoo mitä tekoälyn halutaan tekevän. Kun kirjoitamme promptin, määritämme samalla ongelman, kontekstin, oletukset, tavoitteet ja roolit. Jos teemme tämä puutteellisesti, tekoäly arvaa mitä meillä on ollut mielessä, eikä se aina osu nappiin. (Teksti aiheesta eli ” Promptin filosofia: Mitä oikeastaan teet, kun promptaat?” julkaistaan 28.4.2026).
Toinen ratkaisu liittyy tekoälyn tuotosten lukutaidon parantamiseen. Olisi tärkeää ymmärtää miksi sen tuotokset ovat sellaisia kuin ovat. Vaikka tekoälyn tuottama teksti näyttää usein hyvin samanlaiselta kuin ihmisen kirjoittama, se syntyy eri logiikalla. Se perustuu todennäköisyyksiin, datassa näkyviin rakenteisiin ja sille annettuun kehykseen. Tekoälyn lukutaito tarkoittaa kykyä tunnistaa tämä logiikka. Se tarkoittaa esimerkiksi sitä, että osataan kysyä, millaisessa kontekstissa tekoäly toimi, mitä se optimoi, miten se käsitteli epävarmuutta ja millä arvoilla se toimi. (Teksti”Tekoälyn lukutaito: Osaatko haastaa tekoälyn tekemän tuotoksen?” julkaistaan 5.5.2026).
Kolmas ratkaisu liittyy hallintotapaan eli tässä tapauksessa siihen, millainen rooli organisaatiossa tekoälylle annetaan, kuka ohjaa sen käyttöä ja opponoi sen tuotoksia. Lisäksi on tärkeää päättää minkä verran tekoälylle annetaan valtaa määrittää (ja rajata) yrityksen tulevaisuutta. (Teksti ”Tulevaisuusvalta organisaatiossa: Miten estät, ettei valtaa valu liikaa tekoälylle?” julkaistaan 12.5.2026).
Kuulisin mielelläni sinun ajatuksiasi näistä aiheista, sillä käsittelen näitä teemoja myös tulevassa kirjassani.
PS. Jos haluat kuulla näistä teemoista lisää, ole yhteydessä. Voin tulla alustamaan keskustelua organisaatioonne tai osallistua pidempiaikaiseen kehittämiseen esimerkiksi hallituksen neuvonantajana.
#strateginenkehittäminen #tekoäly #johtaminen #corporategovernance #tulevaisuusvalta #promptinfilosofia #aicognition #rbrc2026
Lähteet:
Willman-Iivarinen, Hanna (2026): ”Miten vastuu tulevaisuudesta jaetaan yrityksen ja tekoälyn välillä?”, Presentaatio konferenssissa: Responsible business research conference, 11-12.3.2026, Tampere.


Kommentit
Lähetä kommentti