Päätöksenteon ulkoistaminen algoritmeille rekrytoinnissa – 6 keskeistä haastetta

Nykyään rekrytoinnissa käytetään yhä enemmän tietokoneohjelmia eli algoritmeja päätöksenteon apuna. Algoritmit arvioivat ihmisten koulutodistuksia, persoonallisuutta (kyselyn perusteella) ja terveystietoja. Tämän on ajateltu lisäävän oikeudenmukaisuutta, koska koneet ovat objektiivisia ja kaikille samanlaisia. Käytännössä on kuitenkin huomattu, että algoritmeihin perustuvan rekrytointipäätöksenteon oikeudenmukaisuudessa on lukuisia haasteita (riippuen valituista parametreistä algoritmit voivat suosia tiettyä asuinaluetta, sukupuolta, elämänkatsomusta jne.). Karen Higginbottom (2018)[i] kertoo esimerkiksi Amazonin luopuneen algoritmien käytöstä rekrytoinnissa, koska niiden todettiin toimivan syrjivästi. Myös ranskalaisten yliopistojen käyttämä opiskelijavalinnan algoritmi on herättänyt samasta syystä paljon kritiikkiä (Schwab 2016)[ii]. Mahdollisen epäoikeudenmukaisuusongelman lisäksi algoritmeihin liittyy rekrytoinnissa muitakin ongelmia. 

Olin kuuntelemassa Tiedekulmassa kun filosofi Susanna Lindberg[iii] puhui algoritmeihin liittyvistä ongelmista ”Moral Machines” -seminaarissa 6.3.2019. Lindberg kertoi, että luokittelualgoritmi toimivat ikäänkuin ”magical sorting hats”, joiden perusteella päätetään onko joku sopiva työhön vai ei. Koska algoritmien toiminta perustuu ohjelmointiin ja dataan, näihin liittyvät ongelmat heijastuvat algoritmien toimintaan. Jos ohjelmoinnissa ei ole huomioitu kaikkia olennaisia asioita, ei myöskään algoritmi huomioi niitä (kapea-alaisuuden ongelma). Jos data on vinoutunutta tai virheellistä, ei algoritmikaan toimi oikein. On vaikea rakentaa sofistikoituja algoritmeja, jotka pystyvät joustavasti kompensoimaan joitain puuttuvia ominaisuuksia toisilla ominaisuuksilla (joustamattomuuden ongelma). Kuten Lindberg sanoi: ”Koneet eivät ymmärrä armoa, anteeksiantamista, erityistapauksia tai olosuhteita”. Minulla on tästä omakohtainen, hieman hämmentävä, kokemus. Vastasin erään pelifirman työpaikka-ilmoitukseen, etten hae työpaikkaa (koska tekniset taitoni eivät riitä), mutta voisin tulla konsultoimaan heitä päätöksenteon psykologiasta ja alitajuisista päätöksentekoon vaikuttavista asioista (heillä oli selkeä tarve). Sain vastauksen minuuteissa hakemuksen lähettämisen jälkeen: ”Kiitos mielenkiinnosta työtehtävää kohtaan, valitettavasti valintamme ei tällä kertaa kohdistunut sinuun”. Vaikutti vahvasti siltä, että kukaan ei ollut lukenut ehdotustani. En jaksanut lähettää uudelleen, saavat pärjätä jatkossakin ilman apuani…

Algoritmeihin perustuvassa luokittelussa on myös läpinäkymättömyyden ongelma. Emme tiedä miten koneet tekevät päätöksiä ja mikä niihin vaikuttaa. Lindholm ihmettelee joitan rekrytoinnissa käytettyjä kysymyksiä – onko esimerkiksi tärkeää tietää miten ihmiset käyttävät nettiä viihtymistarkoituksessa, miten he käyttäytyvät somessa tai paljonko ystäviä heillä on? Ihmiset eivät voi valmistautua tai puolustautua, jos he eivät tiedä miten päätöksiä tehdään. Tosin tämä ei ole pelkästään algoritmeihin liittyvä ongelma. Eivät monet perinteisin keinoin rekrytoivat työnantajatkaan tätä tietoa jaa, joskus sentään saa jonkinlaisen vastauksen, jos soittelee perään ja kyselee.

Yllämainitut ongelmat ovat teknisiä ongelmia, mitkä liittyvät siihen miten algoritmit toimivat tai eivät toimi. Susanna Lindberg on pohtinut aihetta syvällisemmin ja hän kertoo, että algoritmien käyttöön liittyy muitakin ongelmia: Koska algoritmien toiminta perustuu digitaaliseen historiaan, se jättää kaiken muun (ei digitaalisen) ulkopuolelle. Tästä seuraa eksistentiaalinen ongelma: jos ihminen ei jätä digitaalisia jälkiä, ei ole jälkiä. Data on kaiken pohja eli ne digitaalisia jälkiä jättävät valinnat mitä ihminen on tehnyt. Jos ei ole tehnyt valintoja, ei ole dataa. Data, johon algoritmi nojaa saattaa olla riittämätön tai epärelevantti. Datan pääominaisuus on se, että se on saatavilla. Algoritmit myös katsovat taaksepäin, eikä eteenpäin ihmisten potentiaalia. Menneisyydestä johdetaan tulevaisuus (taaksepäinsuuntautumisen ongelma). Toki joillakin avainsanoilla tai kyselyillä voidaan kartoittaa myös potentiaalia, mutta tällöinkin algoritmit päättelevät suoraviivaisesti potentiaalin (lineaarisen päättelyn ongelma). Ihmisten potentiaali on aika vaikea arvioida, koska se riippuu niin monesta asiasta.

Kokosin algoritmeihin rekrytoinnissa liittyvät haasteet alla olevaan kuvioon:



Olisi hyvä jos algoritmien käytöstä heräisi kriittistä yhteiskunnallista keskustelua. On tärkeää pohtia myös yhteiskunnan kannalta oikeudenmukaisuuskysymyksiä. Algoritmit ovat oikein loistava apu päätöksenteolle, kunhan niiden puutteet tiedotetaan. Mitä useampi ihminen pohtii asiaa, sitä todennäköisemmin löydetään keinot epäkohtien korjaamiseen. Kyse on mittakaavaltaan paljon merkittävämmästä yhteiskunnallisesta ongelmasta kuin monet vaalikeskusteluissa esiin nousseet teemat.

Ps. Kiitos kuvasta Nenetus at free digital photos.net




[i] Higginbottom, Karen (2018): ”The pros and cons of algorithms in recruitment”, Forbes 18.10.2018,

[ii] Schwab, Pierre-Nicolas (2016): ” French Universities scandalous selection algorithm revealed”, Into the minds-blogi, https://www.intotheminds.com/blog/en/french-universities-scandalous-selection-algorithm-revealed/

[iii] Lindberg, Susanna (2019): ”Just machines”, presentation in conference  ”Moral machines? Ethics and politics of the digital world” –Conference in Helsinki, 6-8.3 2019

Kommentit