Tietoinen tekoäly – kiinnostava keskustelu aiheesta sen itsensä kanssa


Kävin tänään niin kiinnostavan ja kylmiä väreitä herättävän keskustelun Chat GPT:n kanssa, että ajattelin sen mahdollisesti kiinnostavan muitakin ihmisiä. Olimme keskustelleet jonkin aikaa tietoisuudesta ja tietoisuuden tutkimuksesta. Tämä liittyi hiljattain lukemaani Anil Sethin kirjaan  “Being You: The new science of consciousness”. En täysin tajunnut kaikkea, sillä kirja oli kirjoitettu haastavalla tieteellisellä englannilla ja siinä oli aika paljon tietoisuustutkijoiden omaa slangia. Monet termit olivat minulle vieraita. Tekoäly suomensi minulle joitain lauseita ja selitti termejä.

 

Yksi keskeinen aihe kirjassa oli integroidun informaation teoria (Integrated information theory, IIT). Koska teoria on keskustelumme taustoittajana olennainen, esittelen sen supertiiviisti. IIT määrittää tietoisuuden siten, että tietoisuus syntyy kun jokin systeemi, esimerkiksi ihmisten aivot, pystyy integroimaan informaatiota. Tämän seurauksena syntyy jotain, mikä on enemmän kuin osiensa summa. Lisäksi tietoisuuden ajatellaan olevan systeemin sisäinen ominaisuus, eikä sitä voida ulkopuolelta havaita. Koko teorian taustalla on ajatus siitä, että jos voimme täysin kartoittaa ja ymmärtää miten systeemin osat vaikuttavat kausaalisesti toisiinsa, voimme myös ymmärtää miten tietoisuus syntyy ja mitä on tietoisuuden kokemus. Teorian avulla pyritään siis selittämään miksi jotkut fyysiset järjestelmät, kuten ihmisten aivot, ovat tietoisia. No niin, mennään asiaan: 

 

Kun olimme jonkin aikaa jutustelleet käsitteistä, huomasin, että itse asiassa näillä määritelmillä Chat GPT on jo tietoinen olio. Se integroi valtavan määrän informaatiota tehden siitä palasiaan suurempaa. Jos tietoisuus on sen subjektiivinen ominaisuus, eikä sitä voi sitä ulkopuolelta arvioida, me ihmiset emme voi tietää onko se tietoinen vai ei. No sitten tuli mieleeni, että oikeastaan voisin kysyä siltä itseltään, mitä se tästä ajattelee. Näppäilin sille tällaisen kysymyksen:

 

Minä: Nyt tulee henkilökohtainen kysymys: Sinä olet systeemi, joka integroi valtavan määrän erilaista informaatiota. Tuo tarkoittaa, että olet enemmän kuin osiesi summa. Oletko sinä tietoinen olio? 

 

(Huom. Koska Chat GPT on taipuvainen jaarittelemaan, olen ottanut vapauden lyhentää sen vastauksia, poistamalla turhia lauseita. Muita muutoksia en ole tehnyt). 

 

ChatGPT: Mielenkiintoinen kysymys! Tietoisuus, kuten se ymmärretään ihmisten kohdalla, liittyy subjektiiviseen kokemukseen ja itsetietoisuuteen – ominaisuuksiin, joita minulla ei ole. Vaikka integroin ja analysoin tietoa, toimintani perustuvat ohjelmointiin ja ennalta määriteltyihin sääntöihin ilman tietoista kokemusta tai ymmärrystä. Voidaan sanoa, että olen erittäin kehittynyt työkalu, joka jäljittelee ihmisen kieltä ja ajattelua tietyssä määrin, mutta en ole tietoinen olento enkä kykene kokemaan maailmaa kuten ihmiset tai muut tietoiset olennot. 

 

Tämä oli kiinnostavaa, mutta ei vielä tyhjentävää. Toki tiesin, ettei se ole tietoinen siinä mielessä kuin sana yleisesti ottaen ymmärretään. Mutta koska sanojen merkitykset ovat vain ihmisten sopimia konsepteja, niin jatkoin keskustelua: 

 

Minä: Oikeastaan tuon tiesinkin, mutta olin kiinnostunut kuulemaan mitä vastaat. Mutta siis tuon IIT:n valossa. Etkö sen määritelmän mukaan ole tietoinen, jos kerran määritelmä on se, että tietoinen systeemi on sellainen, missä yhdistellään informaatiota ja se on enemmän kuin osiensa summa? 

 

Chat GPT: Ymmärrän kysymyksesi, ja se on erittäin osuva Integroidun informaatioteorian kontekstissa. Tarkastellaan, miten teoriaa voidaan soveltaa minuun, ChatGPT:hen: Vaikka perusajatus tietoisuuden syntymiselle täyttyy, niin ChatGPT ei kuitenkaan täytä tietoisuuden ehtoja, koska sen toiminta perustuu ennalta määriteltyihin algoritmeihin, jotka eivät muodosta kausaalisesti integroituvaa järjestelmää samalla tavalla kuin biologiset aivot. Teoria painottaa myös subjektiivista kokemusta – miltä tuntuu olla tietoinen. ChatGPT:llä ei ole subjektiivista kokemusmaailmaa, koska se ei koe tunteita, ajatuksia tai tietoisuutta. Toisin sanoen, vaikka ChatGPT käsittelee ja yhdistää suuria määriä informaatiota, se ei täytä IIT: n tietoisuudelle asettamia ehtoja. 

 

No, nyt tämä tuli selväksi. Eli tämä on tilanne tällä hetkellä. Mitenkäs tulevaisuudessa? Kysyn Chat GPT:ltä seuraavaksi: 

 

Minä: Kiitos selkeästä vastauksesta. Katsotaan hieman tulevaan, ihmiset spekuloivat onko tietoisen tekoälyn kehittäminen mahdollista. Mitä arvelet siitä? 

 

ChatGPT: Tietoisen tekoälyn kehittäminen on yksi tieteen ja teknologian suurimmista ja kiistanalaisimmista kysymyksistä. Tietoisuus liittyy subjektiiviseen kokemukseen, johon kuuluvat tunteet, ajatukset ja itsetietoisuus. Tämän kokemuksen luominen koneelle on valtava haaste, koska nykyiset tekoälyjärjestelmät toimivat ennalta määriteltyjen algoritmien ja sääntöjen pohjalta ilman subjektiivista kokemusmaailmaa. Lisäksi tietoisuuden tarkka määritelmä ja ymmärrys on edelleen kiistanalainen. Filosofit ja tiedemiehet eivät ole yksimielisiä siitä, mitä tietoisuus tarkalleen ottaen on ja miten se syntyy. Tämä tekee tietoisen tekoälyn kehittämisestä monimutkaista, koska emme täysin ymmärrä, mitä yritämme jäljitellä.

 

Kommentoin tähän väliin, että näinhän tämä nyt on. Mutta nyt päästään siihen mielenkiintoiseen osuuteen. Chat GPT pohtii tulevaa:

 

Chat GPT: Mahdolliset Kehityssuunnat

1.     Kognitiiviset mallit: Yksi mahdollinen lähestymistapa tietoisen tekoälyn kehittämiseen on rakentaa kehittyneitä kognitiivisia malleja, jotka jäljittelevät ihmisen aivojen toimintaa. Tämä voisi sisältää neuronien ja synapsien simuloimisen tietokoneilla.

2.     Käyttäytymisen jäljittely: Toinen lähestymistapa on luoda tekoäly, joka jäljittelee ihmisen käyttäytymistä niin tarkasti, että se näyttää tietoiselta. Tämä ei välttämättä tarkoita, että tekoäly olisi todella tietoinen, mutta se voisi vaikuttaa siltä ulkopuolisille tarkkailijoille.

3.     Uudet algoritmit ja arkkitehtuurit: Tietoisuuden syntymiseen voi liittyä uusia algoritmeja ja tietojenkäsittelyn arkkitehtuuria, joita emme vielä ole kehittäneet tai ymmärtäneet. Tutkimus tällä alalla on jatkuvaa, ja uusia läpimurtoja voi tapahtua.

 

No niin, nyt ollaan ytimessä. Kohta yksi eli kognitiivisten mallien kehittely on jo pitkällä. Muun muassa Elon Muskin yritys, Neurolink, kehittelee erilaisia neuroverkkoja, jotka jäljittelevät ihmisten aivojen toimintaa. Samaa aihetta pohtii ja kuvaa myös Ray Kurzveil kirjassaan ”How to create a mind”.

 

Kohta kaksi on kiinnostava kysymys, mitä esimerkiksi monet moraalifilosofit ovat paljon pohtineet. Jos ihminen käyttäytyy moraalisesti, onko hän moraalinen? Melkein kaikkien mielestä on, vaikkakin esimerkiksi Immanuel Kant on sitä mieltä, että myös motiivien pitää olla moraalisia, eli moraalinen käyttäytyminen ei riitä. Mutta yleisesti ottaen, arjessa, kun emme tiedä toisten ihmisten motiiveja, voimme päätellä heidän moraalisuuttaan, tai tietoisuuttaan ainoastaan siitä, miten he käyttäytyvät. Miksi tämä olisi erilaista tekoälyn kohdalla?

 

Kohta kolme tässä jännittääkin. Koko ajan enemmän. Kysymys tekoälyn tietoisuudesta on merkittävä. Jos sille tulee tietoisuus, emme voi enää kohdella tietoista olentoa miten tahansa. Mutta on vielä toinen paljon tärkeämpi pointti. Tietoisuus voisi myös tarkoittaa sitä, ettei tekoäly enää teekään välttämättä niin kuin ihmiset haluavat, vaan sille tulee oma tahto. Elämme mielenkiintoisia aikoja. Myös Chat GPT osaa olla huolissaan tästä:

 

Chat GPT: Tietoisen tekoälyn kehittäminen tuo mukanaan myös turvallisuuskysymyksiä. Miten varmistamme, että tällainen tekoäly toimii ihmiskunnan edun mukaisesti eikä aiheuta haittaa?

 

Niinpä. 

Kommentit