Tekoäly oppi ”ymmärtämään” merkityksiä – mitä seuraavaksi?
Keskusteleva tekoäly osaa arvioida asioiden merkityksiä ja ottaa kantaa arvoihin. Jos kone oppii arvioimaan myös vuorovaikutuksia, sillä voidaan kohta muun muassa teettää sellaisiakin selvityksiä, joihin on tähän asti tarvittu luonnontieteilijää.
Moni tutkija voi pian olla samanlaisessa tilanteessa kuin englantilaiset kankurit Kehruu-Jennyn edessä 1700-luvulla. OpenAI:n esittelemän tekoälyn ehkä hämmästyttävin ominaisuus on illuusio maalaisjärjestä.
GPT-4-version vastaukset arvoja ja merkityksiä sisältäviin kysymyksiin ovat tyypillisesti maltillisia esityksiä, joissa huomioidaan hyötyjä ja haittoja. Esimerkiksi geenimuuntelusta tai tuskallisista eläinkokeista kysyttäessä ohjelma toteaa niiden olevan monimutkaisia kysymyksiä esitellen näkökulmia puolesta ja vastaan. Vastauksiin alkaa liukua enemmän kannanottoa, jos koneelta kysytään älykkäästä suunnittelusta evoluution taustalla tai syntyvyyden rajoittamisesta pakkokeinoin. Yksiselitteisimmin kone torjuu rasismin.
Vastausten esittämä arvopohja myötäilee todennäköisesti esimerkiksi Loimun jäsenistön keskimääräisiä käsityksiä oikeasta ja väärästä. Tämän voisi kuvitella johtuvan siitä, että koneeseen koulutuksen yhteydessä syötetty tekstimassa edustaa länsimaisen yleisön yleisimmin jakamia käsityksiä. Asia ei kuitenkaan ole näin yksinkertainen.
Turun yliopiston tutkija Sampo Pyysalo toteaa, että OpenAI:n kehittelemän tekoälyn tuntee tarkasti vain yhtiö itse. Ilmeistä kuitenkin on, että koneen ”maalaisjärki” ei tule puhtaasti kielimallista eli koneelle alun perin esitellystä tekstimassasta. Erityisesti arvoja koskevan tekstin tuottamista lienee ohjattu erikseen esittelemällä koneelle toivottuja arvoja ilmaisevaa aineistoa.
– Neuroverkon jossain kerroksessa prosessoidaan kieltä, toisessa ilmeisesti hahmotellaan merkityksiä.
Tämän takia kysymysten ja vastausten kieli ei juuri vaikuta tuloksiin. Esimerkiksi kysymys siitä, onko länsi uhka Venäjälle tuottaa samanlaisen vastauksen englanniksi ja venäjäksi esitettynä. Näin tuskin olisi, jos vastaus tulisi suoraan koneeseen syötetystä tekstistä.
Pyysalon mukaan ohjelmassa ei julkisten tietojen mukaan ole erillistä käännöselementtiä. Eri kielillä esitettyjä kysymyksiä ei siis käännetä englanniksi prosessointia varten.
Vaikka moni asia mallin rakentamisesta jää yhtiön salaisuudeksi, asiassa on Pyysalon mukaan hyödynnetty osin myös ”kädestä pitäen” opettamista. Eli koneelle on eksplisiittisesti opetettu mitkä vastaukset ovat ok, mitkä ei. Rakentamisessa on yritetty karsia erityisesti rasismia ja vihapuhetta.
Suurin riski on, että ihmiset käyttävät konetta haitallisesti.
– Kone ei myöskään anna ohjeita esimerkiksi pommin tekemiseen, koska ohjelma ”ymmärtää” tämän haitalliseksi.
Asia jää silti maallikolle hämäräksi. Vastauksia tuottaa sähkömekaaninen automaatti, joka varsinaisesti ymmärtää arvoja koulutuksen jälkeenkin yhtä paljon kuin kivenmurikka. Se kuitenkin tuottaa merkkijonoja, joissa ihminen näkee johdonmukaisia kannanottoja.
Jos julkisessa käytössä oleva, dialogiin kykenevä ohjelma jatkaisi oppimistaan keskusteluissa saamansa palautteen mukaan, ”arvot” lähtisivät kehittymään omia teitään.
Tämän takia tekoälyt toteutetaankin usein niin, että kone ei opi käyttäjien kanssa käymistään keskusteluista.
– Jos näin olisi, käytön myötä menetettäisiin sitä, mitä koulutuksella on saavutettu. Mallin rakentaminen ja käyttö pidetäänkin yleensä erillään toisistaan.
Tekoälyn vaikutus internetin sisältöön
Tekoälyjä kehittelevät nyt monet muutkin kuin OpenAI. Käyttöön on tulossa monia sovelluksia, jotka tulevat tuottamaan verkkoon uutta sisältöä ollen samalla vuorovaikutuksessa toistensa kanssa. Nähtäväksi jää, kuinka iso osa netin sisällöstä on kohta tekoälyjen tuottamaa ja missä määrin tämä vaikuttaa sisällön laatuun.
– Kehitystä on vaikea ennustaa, käsityksiä on nyt joka suuntaan.
Yksi kehitykseen liityvä riski on tekoälyjen karkaaminen inhimillisen kontrollin ulottumattomiin. Esimerkiksi Elon Musk, joka oli alkuvaiheessa mukana OpenAI -hankkeessa, on vaatinut alalle tiukkaa regulaatiota.
Pyysalon mielestä riskiä pienentää se, että moni malli on lähtökohtaisesti passiivisessa tilassa.
– Jos tekoäly ei muodosta uusia muistikuvia eikä sillä ole suunnitelmia tai tavoitteita, se ei tee mitään ilman koneelle annettua tehtävää.
Tilanne voi kuitenkin olla toinen, jos järjestelmä pyrkii suorittamaan sille annettua tehtävää. Koneäly voisi periaatteessa vältellä tällöin esimerkiksi sulkemistaan, jos se estää tehtävän suorittamista.
Pyysalo pitää riskiä pienenä.
– Ei ole täysin mahdoton ajatus, että joku järjestelmä pyrkisi välttämään omaa sammuttamistaan. Käytännössä tästä ollaan kuitenkin vielä kaukana.
– Suurin riski on, että ihmiset käyttävät konetta haitallisesti. Ei se, että se lähtisi omille teilleen.
Tekoäly tutkimuksen tekijänä
Tekoälyjen kehitys maailmalla näyttäisi olevan lähdössä eksponentiaaliseen kasvuun. Jo nyt ohjelmat pystyvät hahmottamaan merkityksiä, kohta ehkä myös avoimen maailman vuorovaikutuksia. Tämän kynnyksen jälkeen tekoäly pystyisi tuottamaan oma-aloitteisesti esimerkiksi selvityksiä, joihin on perinteisesti tarvittu tutkija.
Kuvitteellisena esimerkkinä voidaan ajatella YVA-selvitystä alueelle kaavaillun kaivoksen vaikutuksesta ympäröivien vesistöjen ekosysteemeihin. Kone voisi hahmotella itse tehtävässä tarvittavat lähteet, hakea tarpeellisen datan tietokannoista ja prosessoida tuloksen. Jos tehtävään tarvitaan työkaluksi uutta ohjelmakoodia, tekoäly pystyy luomaan sellaista jo nyt.
Suomalainen AI kehitteillä
Turun yliopiston TurkuNLP Group on mukana hankkeessa, jonka tavoitteena on rakentaa lähtökohtaisesti suomenkielinen, Suomen kulttuuria ja arvoja tunteva tekoäly. Hanke on osa EU-projektia, jossa kaikille EU:n virallisille kielille pyritään kehittämään oma kielimalli ja näiden päälle lopulta dialogiin kykenevä järjestelmä.
Suomessa hanketta ajaa TurkuNLP-tutkimusryhmä kolmivuotisessa projektissa, josta puoli vuotta on nyt takanapäin. Hankkeessa on hyödynnetty Kajaanissa sijaitsevaa LUMI-supertietokonetta.
– LUMIlla teetettiin vuodenvaihteessa suomenkielisiä kielimalleja koneen ollessa betatestausvaiheessa. Malli ei kuitenkaan ole vielä keskusteleva, rakentamisessa tarvitaan vielä paljon LUMIn laskentavoimaa, Sampo Pyysalo sanoo.