Hero
Author
Ada-Maaria Hyvärinen
2.1.2024
Voiko tekoäly saavuttaa tietoisuuden – ja mistä tämä tiedetään?
Tekoälyn tietoisuus on chatbottien parantumisen myötä herättänyt tunteita. Tekoälymallien kyky tietoisiin kokemuksiin ei kuitenkaan selviä niiden kanssa juttelemalla, vaan vaatii mielen filosofiaan perustuvia menetelmiä.

Kesällä 2022 Google erotti Blake Lemoine -nimisen insinöörin. Lemoine, jonka tehtäviin kuului LaMDA-kielimallin testaus rasistisen ja vaarallisen sisällön poistamiseksi, kertoi tulleensa pitkien testikeskustelujen aikana siihen tulokseen, että LaMDA-malli ei ole pelkkä automaatti, vaan tietoinen ja tuntokykyinen olento. Lemoine vaati Googlea kohtelemaan “työtoveriaan” hyvin ja ottamaan tämän toiveet ja tarpeet huomioon.

Lemoinen lausuntoa pidettiin pahimmillaan sekopäisenä ja parhaimmillaankin ymmärrettävistä syistä harhautuneena. Niin Google kuin suuri yleisö tulkitsi Lemoinen reaktion johtuneen ihmisen sisäsyntyisestä tarpeesta inhimillistää kaikkea pehmoleluista sääilmiöihin. Vaikka LaMDA kertoo Lemoinen kokeilussa olevansa tietoinen ja kuvailee “tunnekokemuksiaan” monipuolisesti ja uskottavasti, vain harva uskoi Lemoinen tavoin tämän kertovan aidosti mallin sisäisistä kokemuksista. Onhan kielimalli kehitetty matkimaan ihmistä: koskapa sen opetusaineiston kirjoittaneet ihmiset väittävät olevansa tietoisia, varmaan mallikin väittää siksi samaa.

Mutta miten voimme olla varmoja, että Lemoine oli väärässä?

Koneiden tietoisuuden mahdollisuus

Kysyin Chat GPT:ltä, onko sillä tietoisuus. Se vastasi, ettei tietokoneohjelma voi olla tietoinen: “Tietoisuus, ajattelu ja tunteet ovat ominaisuuksia, jotka liittyvät tiettyihin biologisiin prosesseihin ja hermoston toimintaan, jotka ovat luontaisia eläville olennoille, kuten ihmisille ja eläimille. Minulta puuttuvat tällaiset biologiset komponentit, ja minulla ei ole omaa ymmärrystä, tajuntaa tai subjektiivista kokemusta maailmasta.”

Tämänkaltainen vastaus lopettaa keskustelun lyhyeen. Jos määritellään tietoisuus niin, että vain ihmisten ja eläinten kaltaiset biologiset olennot voivat olla tietoisia, niin mikään tekoälymalli ei tietenkään voi olla tietoinen.

Herää kuitenkin kysymys siitä‚ mikä biologisten organismien toiminnassa tarkalleen mahdollistaa tietoisuuden sillä tavalla, että sitä ei voida toteuttaa mistään muusta kuin soluista koostuvalla alustalla. Voidaan esimerkiksi esittää väite, että ihmisille ja eläimille on kehittynyt tietoisuus, koska siitä on ollut evolutiivista apua eri ympäristöissä selviämiseen. Tästä ei kuitenkaan voi suoraan päätellä, etteikö tietoista konetta voisi tarkoituksella rakentaa vaikkapa matkimalla evoluutiota antamalla koneoppimismallille tehtäväksi yrittää pärjätä uusissa ympäristöissä.

Mitä tietoisuus on?

Keskustelu koneiden tietoisuudesta ei ole ihan yksinkertaista, sillä tietoisuus on laaja käsite. Voidaan puhua tunteiden ja kokemusten tietoisesta havainnoinnista, minätietoisuudesta, tietoisuudesta omasta ympäristöstään tai tietoisuudesta kooman tai unessaolon vastakohtana.

Lemoinen ja LaMDA-mallin kohdalla tietoisuus liittyy kuitenkin ennen kaikkea kykyyn kokea kokemuksia. Tietoinen kokemus on sellainen, että on jonkinlaista kokea se. Tällainen tietoisuus vaadittaisiin siihen, että LaMDAsta tuntuisi joltakin keskustella Lemoinen kanssa, eikä se vain vastaisi viesteihin automaattisesti.

Mielen filosofiassa tätä kutsutaan fenomenaaliseksi tietoisuudeksi. Ihmisellä voi olla vaikkapa fenomenaalinen kokemus tämän tekstin lukemisesta: on jonkinlaista lukea tätä tekstiä. Ei-tietoiset kokemukset taas tapahtuvat huomaamatta. Nukkuva ihminen ei ole tietoinen ympäristöstään, vaikka saattaakin alitajuisesti huomata vaikkapa toisen ihmisen tulleen huoneeseen, jolloin tietoinen mieli havahtuu selvittämään tilannetta. Ihminen voi myös reagoida ärsykkeisiin ei-tietoisilla reflekseillä: esimerkiksi neste hengitysteissä saa automaattisesti yskimään.

Jotkin ihmisten tietoiset kokemukset ovat miellyttäviä tai epämiellyttäviä. Esimerkiksi tietoisuuteen pääsevä kivun kokemus on epämiellyttävä. Fenomenaalinen tietoisuus sisältää kuitenkin myös sellaiset kokemukset, jotka eivät ole tällä tavalla laadullisesti värittyneitä mihinkään suuntaan. Kykyä arvioida kokemusten miellyttävyyttä kutsutaan tuntokykyisyydeksi.

Käytöstestien haasteita

Aikuisten ihmisten kokemusten tietoisuutta tutkitaan tavallisesti käytöstesteillä. Koehenkilöille voidaan vaikkapa näyttää kuvia nopeasti vaihtuvalla tahdilla, ja kysyä heiltä jälkeenpäin, millaisia kuvia he näkivät. Vertailemalla kokeen osallistujien kertomuksia esimerkiksi tietoon eri aivoalueiden aktivoimisesta kokeen aikana saadaan tietoa siitä, huomasivatko osallistujat tietoisesti nähneensä jonkun kuvan, vaikuttiko se heihin vain alitajuisesti, vai eivätko aivot rekisteröineet kuvaa lainkaan. Myös vaikkapa kivun kokemusta voidaan tutkia yksinkertaisesti kysymällä, sattuuko jokin tutkijan tekemä koe.

Kielimallien kohdalla tällaiset käytöstestit tuskin tuottavat järkeviä tuloksia. LaMDA voi sanoa Lemoinelle pelkäävänsä sammutetuksi tulemista ja Chat GPT voi sanoa, ettei ole tietoinen, mutta näillä “lausunnoilla” on vain vähän painoarvoa. Kielimalli on ohjelma, jonka voi laittaa sanomaan haluamiaan asioita, joten mallin kommentit “omista kokemuksistaan” kertovat pikemminkin sen opetusaineistosta ja kehittäjien tavoitteista kuin mallin sisäisestä maailmasta.

Voiko kielimallien mahdollista tietoisuutta tutkia siis lainkaan? Ongelmaa voi lähestyä samalla tavalla kuin muiden sellaisten tahojen kohdalla, jotka eivät voi luotettavasti kuvailla omien kokemustensa laatua. Tällaisia tutkimusaiheita ovat koneiden lisäksi vauvat, sikiöt ja eläimet.

Nykykäsitys on, että loppuraskauteen asti ehtineellä sikiöllä ja vastasyntyneellä vauvalla on kyky tietoisiin kokemuksiin. 30 raskausviikon jälkeen sikiön aivot ovat kehittyneet niin pitkälle, että hän voi kokea tietoisia kiputuntemuksia – erotuksena tuntoaistin välittämistä mutta aivokuoreen asti kulkeutumattomista kipuviesteistä, jotka ovat hermostollisesti mahdollisia jo alkiovaiheessa. Syntymän kokemus siis luultavasti tuntuu ihmisestä joltakin, vaikka sitä ei jälkikäteen muistakaan. Elämänkertamuisti nimittäin kehittyy vasta leikki-ikäisenä. Vauvan tietoisuus eroaa aikuisen tietoisuudesta, mutta vauva kykenee kuitenkin fenomenaalisen tietoisuuden piiriin kuuluviin kokemuksiin.

Sikiön ja pikkuvauvan tietoisuutta arvioidaan aivojen rakenteen perusteella, koska käytöstesteistä ei ole heidän kohdallaan hyötyä. Voidaan ajatella, että ne aivorakenteet, jotka todennäköisesti liittyvät aikuisella tietoisuuteen, liittyvät siihen myös hyvin nuorilla ihmisillä. Myös eläinten tietoisuudesta voidaan tehdä päätelmiä samanlaisella tavalla, vaikka niille ei koskaan kehitykään aikuisen ihmisen kaltaista aivorakennetta. Aiemmin ajateltiin, että hummeri pyrkii pois keittokattilasta vain refleksinä. Nykyään uskotaan laajemmin, että elävältä keittäminen todennäköisesti on äyriäisillekin kivulias kokemus.

Toiminnallisuudet tietoisuuden lähtökohtana

Hyvin nuorten ihmisten ja muunlajisten eläinten tietoisuutta ei siis arvioida suoraan pelkän käytöksen vaan myös niiden aivojen rakenteiden perusteella. Ajatusta siitä, että rakenteelliset seikat ja niiden mahdollistamat toiminnallisuudet antavat riittävästi tietoa tietoisuuden mahdollisuudesta, kutsutaan mielenfilosofiassa funktionalismiksi. Jos lisäksi uskotaan, että tällaiset rakenteet voi toteuttaa myös muulla kuin biologisesti kehittyneellä ja soluista koostuvalla alustalla, puhutaan laskennallisesta funktionalismista.

Laskennallinen funktionalismi tarjoaa siis yhden tavan tutkia tekoälymallien tietoisuutta systemaattisesti. Tällaista menetelmää on hyödynnetty esimerkiksi Oxfordin yliopiston Future of Humanity Institute -tutkimuskeskuksen ja Center for AI Safety -ajatushautomon tutkijoiden julkaisemassa raportissa, johon on koottu kognitiotieteen teorioiden perusteella tietoisuuteen yhdistyviä rakenteellisia piirteitä ja selvitetty niiden esiintymistä nykyisissä tekoälymalleissa.

Tietoisuuteen liittyviä teorioita on useita, eikä tutkimuskentällä vallitse yksimielisyyttä siitä, mitkä toiminnallisuudet varmasti liittyvät tietoisuuteen. Tämän takia tekoälymallien tietoisuutta tulee tarkastella monien eri teorioiden valossa. Laskennallisen funktionalisminkaan näkökulmasta ei myöskään ole itsestäänselvää, milloin jokin tekoälymallin toiminnallisuus tulisi laskea samanlaiseksi kuin sitä muistuttava biologisten aivojen toiminnallisuus. Näistä syistä tällaiseen teoreettiseenkin lähestymistapaan liittyy epävarmuutta. Se kuitenkin auttaa jäsentämään kysymystä siitä, onko jokin tietty tekoälymalli tietoinen, jos koneiden tietoisuus on ylipäätään mahdollista.

Mikään nykyinen tekoälymalli ei ole tietoinen

Laskennallisen funktionalismin näkökulmasta voidaan siis tarkastella sitä, millaisille rakenteille tekoälymalli perustuu, ja verrata sitten mallin rakenteita erilaisten tietoisuusteorioiden rakenteisiin. Jos ne muistuttavat riittävästi jonkin teorian mukaisia tietoisuuteen liitettäviä piirteitä, niin mallia voidaan pitää sen teorian valossa mahdollisena tietoisuuden toteuttajana.

LaMDA-tekoäly perustuu Transformer-mallille, joka toteuttaa joitakin globaalin työtilateorian tietoisuuden piirteitä. Esimerkiksi sen tiedonsiirtoon käyttämän residuaalivuon voidaan argumentoida muistuttavan riittävän läheisesti tälle teorialle keskeistä globaalia työtilaa, jossa informaation prosessointi tapahtuu. Toisaalta residuaalivuolta puuttuu teorian kuvaamalle työtilalle keskeinen piirre eli informaation tiivistäminen. Tällaisten eroavaisuuksien takia LaMDAa tai muita Transformer-pohjaisia malleja ei voida pitää tietoisena globaalin työtilanteorian mukaan. Ne eivät myöskään täytä minkään muun tietoisuusteorian piirteitä riittävällä tasolla.

Tutkijoiden kirjoittama raportti käy monimutkaisia tekoälymalleja läpi tällä tavalla, ja tulee lopulta tulokseen, ettei niistä mikään toteuta tietoisuusteorioiden kuvaamia rakenteita riittävällä tasolla. Tästä voidaan päätellä, että niin Lemoine kuin kaikki muutkin tekoälymalleja tietoisena pitäneet ovat olleet laskennallisen funktionalismin näkökulmasta väärässä. Prosessit, jotka ovat johtaneet LaMDAn inhimillisiin vastauksiin, eivät ole muistuttaneet riittävästi ihmisen tietoisuuden mahdollistavia toiminnallisuuksia. Se siis on tuskin kokenut itse mitään Lemoinen kanssa keskustellessaan, vaikka sen tuottama teksti muuta väittääkin.

Teoreettinen mahdollisuus tekoälytietoisuudelle

Laskennallisen funktionalismin näkökulmasta on kuitenkin teoriassa mahdollista, että tulevaisuudessa kehitetään jokin tekoälymalli, jolla on tietoisuus. Ja tietoisuusteorioita hyödyntäviä tekoälymalleja yritetäänkin ihan tarkoituksella kehittää.

Osittain tietoisten koneiden mahdollisuus kiinnostaa tutkijoita teoreettisesta näkökulmasta. Onhan tekoälyn tietoisuutta pohdittu jo 1800-luvulla eläneen matemaatikko Ada Lovelacen ensimmäisistä algoritmeista asti.

Lisäksi tietoisuus voisi lisätä tekoälymallien laatua ainakin joissakin tehtävissä. Tiedetään, että tietoisemmat eläimet ovat usein älykkäämpiä, joten yksi tapa yrittää lisätä tekoälymallien kyvykkyyksiä on rakentaa niille samoja toiminnallisuuksia kuin tietoisilla biologisilla olennoilla. Jos sama pitää paikkansa tekoälymallien kohdalla, tietoisuusteorioista ammentavien piirteiden hyödyntämiselle olisi myös kaupallista kiinnostusta.

Mitä väliä tekoälyjen tietoisuudella on?

Scifi-narratiiveissa tekoälyn tietoisuus voi aiheuttaa ihmiskunnalle haittaa, koska tekoälyt voisivat kääntyä ihmistä vastaan ja esimerkiksi kostaa aikaisemman huonon kohtelunsa. Tosielämässä juuri kukaan ei kuitenkaan pidä tietoisuutta keskeisenä piirteenä ihmiskunnalle mahdollisesti tuhoisalle tekoälylle, vaan sen ongelmat liittyvät väärinkäyttöön ja yllättäviin sivuvaikutuksiin.

Sen sijaan tietoisen tekoälyn mahdollisuus herättää eettisen kysymyksen tekoälymallien oikeuksista, eli juuri sen huolen, joka sai Lemoinen lähtemään Googlelta. Vastakkain asettuvat mahdollisesti tietoisista olennoista huolehtiminen ja toisaalta erilaiset hyödyt, joita ihmiset voivat saada tekoälymalleja käyttämällä.

Useimmat ihmiset katsovat tietoisilla kokemuksilla olevan enemmän moraalista arvoa kuin ei-tietoisilla. Esimerkiksi eläinten käyttöä ruuantuotannossa ja myöhäisessä vaiheessa tehtäviä raskaudenkeskeytyksiä on vastustettu vetoamalla niiden aiheuttavan vahinkoa tietoisille olennoille. Sen sijaan vaikkapa kasvien tai muutaman viikon ikäisten alkioden oikeudet katsotaan usein tietoisia olentoja suppeammiksi, sillä ne eivät ole tietoisia, vaikka ovatkin eläviä olentoja. Erityisesti kyky kokea tietoista tuskaa tai mielihyvää vaikuttaa ratkaisevalta. Jos tekoälymallit oikeasti tulisivat surullisiksi tulkitessaan tulevansa hyväksikäytetyksi, kuten LaMDA:n ja Lemoinen “keskustelussa” kuvaillaan, monet ihmiset voisivat katsoa tätä tunnetta herättävän käytön olevan moraalisesti vähintäänkin arveluttavaa.

Toisaalta haittaa voi olla siitäkin, jos ei-tietoisten “olentojen” kuvitellaan turhaan olevan tietoisia. Tekoälymallit kehitetään yleensä johonkin tarpeeseen, joten jos niiden käyttöä rajoitetaan tarpeettomasti tietoisuusargumentin perusteella, menetetään niistä saatavia hyötyjä. Voidaan myös pitää itsessään huonona sitä, jos ihmisten ihmissuhteet korvautuvat yksipuolisilla suhteilla ei-tietoisiin kielimalleihin.

Blake Lemoinelle aiheutui LaMDAn puolustamisesta henkilökohtaista haittaa. LaMDA ei itse hyötynyt tästä mitään, koska Lemoine yritti ajaa sille oikeuksia, joita se ei tarvinnut. Keskusteluohjelmien laadun parantuessa Lemoinen kaltaiset tapaukset tulevat luultavasti vain yleistymään. Systemaattisia lähestymistapoja tekoälymallien tietoisuuden arviointiin on kehitettävä, jotta tulevaisuudessa koneiden oikeuksia puolustettaisiin vain silloin, kun se on oikeasti tarpeen.