Onko olemassa vain yht√§ totuutta?

Yhteiskunnassa sekä tutkijoiden keskuudessa on käyty varsin aktiivista keskustelua tekoälyn etiikan kysymyksistä ja automaattisen päätöksenteon ongelmista. Yksi keskeinen osa tätä työtä on liittynyt pyrkimykseen määritellä oikeita ratkaisuja tai oikeita päätöksiä hyvin monimutkaisessa ympäristössä, jota jotkut myös kutsuvat todellisuudeksi. Heräsin tässä osittain rahoitushakemuksen kirjoittamisen ja osittain Kirsikan ja minun artikkelin myötä miettimään, että aika usein sitä yhtä oikeaa päätöstä haetaan myös alueilla, joissa sellaista ei välttämättä ole olemassa.

Käyn parin esimerkin avulla läpi sitä, mitä ne arvopohjaiset päätökset oikeasti ovat ja päätän tekstin pohtimalla mitä sitten kannattaisi tehdä seuraavaksi.

Tätä ei kyllä käsitelty autokoulussa

Itsestään ajava auto on nykyisen tekoälypöhinän keskeinen esimerkki (itse olen luopumassa toivosta ja varmaan pian hankin ajokortin). Sen kautta on myös törmätty moniin erilaisiin kysymyksiin siitä, kuka kantaa vastuun itseajavan auton tuhoista, esimerkiksi ihmisen tapaamisesta. Yhtä mielenkiintoinen sivujuonne tässä on MITin Moral Machines -hanke, jossa yritetään ymmärtää mitä ihmiset pitävät hyväksyttävänä ratkaisuna. Ajatuksena oli, että tämän kyselyn kautta voidaan sitten rakentaa parempia tekoälyjärjestelmiä, kun ne seuraavat yhteiskunnassa olevia arvoja.

Toki joitakin laajasti jaettuja arvoja löytyy yhteiskunnista, kuten preferenssi tapaa vähemmän ihmisiä, jos mahdollista ja pelasta mieluummin nuoria kuin vanhoja (Awad, et al., 2020; Awad et al., 2018). Näiden pohjalta voisi tietenkin hakea jotain yleistettävää moraalista ohjeistoa itsestään ajaville autoille:

[- -] we can embrace the challenges of machine ethics as a unique opportunity to decide, as a community, what we believe to be right or wrong; and to make sure that machines, unlike humans, unerringly follow these moral preferences. We might not reach universal agreement: even the strongest preferences expressed through the Moral Machine showed substantial cultural variations [- -] these conflicts, disagreements, and dissimilarities, while substantial, may not be fatal.

(Awad et al., 2018)

Vaikka l√∂ydett√§isiin laajasti hyv√§ksyttyj√§ tapoja toimia, niin onko mielek√§st√§ luoda koneistetusti automaattinen kaikkien seuraama moraalinen ohjes√§√§nt√∂? Vai pit√§isik√∂ n√§iss√§ p√§√§t√∂ksiss√§ vastuu siirt√§√§ jokaiselle autoilijalle itselleen ‚Äď ja laittaa autoilija pohtimaan miten erilaisissa tilanteissa h√§nen mielest√§√§n pit√§√§ toimia? Niinh√§n yhteiskuntamme toimii melkein kaikkien arvopohjaisten kysymysten kohdalla: jokaisen pit√§√§ itse punnita, mit√§ haluaa ja mit√§ ei halua tehd√§.

Reiluuden ristiriidoista

Olen tietojenkäsittelytieteilijöiden kanssa puhuessani törmännyt monta kertaa päätynyt puhumaan syrjinnästä ja tasa-arvosta ja siitä, kuinka algoritmiset järjestelmät oppivat pahat tavat meiltä ihmisiltä (kuten aiemmin kirjoittelin Rajapinnasssa). Koska kyseessä on tärkeä yhteiskunnallinen teema, tutkimuspuolella käytetään varsin paljon aikaa sen pohtimiseen, miten pitäisi tehdä reiluja malleja, jotka eivät syrjisi ihmisiä. Ainoa vaan, että tässä pohdintatyössä on pakko ottaa kantaa siitä mitä on reiluus.

Intuitiivisesti reiluus on helppo käsite: haluamme, että ihmiselle tehdään sama päätös, vaikka he tulevatkin erilaisesta taustasta. Tämänkin ajatuksen voi käsittää monella tavalla. Corbett-Davies & Goel (2018) nostavat kolme koneoppimiskirjallisuudessa käytettyä määritelmää tälle. Yksinkertaistamiseksi keskityn nyt miehiin ja naisiin, mutta sama periaate pätee kaikenlaisiin henkilöön liittyviin taustoihin.

  • P√§√§t√∂kset ovat mahdollisimman samoja ihmisille, jotka ovat samanlaisia lukuunotetummatta sit√§, ett√§ osa on miehi√§ ja osa on naisia
  • P√§√§t√∂ksen virheet ja todenn√§k√∂isyydet ovat samoja ihmisille, vaikka osa on miehi√§ ja osa on naisia
  • Sukupuolettoman p√§√§t√∂ksenteon mallit ovat samanlaisia kuin sukupuolittuneen p√§√§t√∂ksenteon mallit.

Kirjoittajat jatkavat osoittamaan, että jokaisella mallilla on omat heikkoutensa ja ongelmansa. Mutta kirjoittajilta jää mielestäni huomaamatta isoin ongelma: reiluus ei oikeastaan ole niin helppo käsite lopulta, vaan sitä voidaan ottaa käyttöön erilaisissa tilanteissa korostamaan omien vaateiden mielekkyyttä ja vedota oikeudenmukaisuuteen.

Käsitys siitä mitä tasa-arvo on varmasti esitettävissä hienoilla kaavoilla, mutta kenen kannalta se edustaa ajatusta tasa-arvosta? Tasa-arvon mittaaminen on vahvasti ideologinen kysymys; minkälaista yhteiskuntaa halutaan rakentaa. Suomessa kaksi poliitikkoa voivat mielestään edistävät tasa-arvoa mutta heidän suosituksensa sekä tulkinnat tasa-arvon tilasta ja ongelmista ovat täysin erilaisia: toinen saattaa painottaa mahdollisuuksien tasa-arvoa ja toinen lopputulosten tasa-arvoa. Pahimmillaan heidän on vaikea ymmärtää, kuinka toinen edes tekee tasa-arvoon perustuvia argumenttejaan, koska käsitys tasa-arvosta on täysin erilainen.

Tämän takia päätöksen siitä miten tasa-arvoa määritellään, pitäisi siirtää algoritmin kehittäjiltä kohti poliittisia päätöksentekijöitä. Ehkä Suomessa voitaisiin neljän vuoden välein äänestää näiden keskeisten käsitteiden matemaattisista formuloinneista ja hyväksyä käsitteiden sitoutuneisuus poliittisiin valtasuhteisiin. Mutta tämäkään ei ratkaisisi sitä, että lopulta tasa-arvo on kontekstisidonnainen: ainakin minä joustavasti mukautan käsitystäni tasa-arvosta riippuen siitä, mitä haluan saavuttaa. Kun olen etuoikeutetussa asemassa, helposti sitoudun mahdollisuuksien tasa-arvon ideoihin, ja kun olen sorrettu voin korostaa lopputulosten tasa-arvoa.

Kohti poliittista tietojärjestelmää?

Mitä tästä kaikesta sitten seuraa? Ainakin päänsärky: kaikesta tutkimusyhteisön työstä ja tuskasta huolimatta tuntuu siltä, että olemme vielä lasten kengissä päätöksenteon kehittämisen ja tekoälyn etiikan pohdinnoissa.

Kaiken taustalla mielestäni on iso haaste tekoälyn ja algoritmisten järjestelmien kanssa: niiden suunnittelussa usein keskitymme yhden ratkaisun toteuttamiseen ja uskomme, että se sopisi moniin tilanteisiin erilaisille ihmisryhmille. Ehkäpä seuraava askel on hyväksyä yhteiskunnan monimuotoisuus ja erilaiset arvorakenteet.

Voisimme personoida algoritmista päätöksentekoa. Ihan kuten ohjelmissa voi valita taustakuvia ja teemoja, voisimme tehdä valintoja eettisistä kysymyksistä. Tämä voisi olla erityisen kiinnostava mahdollisuus silloin kun oikeasti luovutat osaltaan omaa moraalisen päätöksenteon rooliasi tietokoneavusteiselle järjestelmälle, kuten jos päästät automaattisen ohjelman ajamaan puolestasi autolla.

Toisaalta algoritmista p√§√§t√∂ksentekoa tehd√§√§n monissa yhteiskunnallisissa asioissa, ja silloin sit√§ ei tietenk√§√§n voi personoida jokaiselle meille erilaiseksi. Mutta meill√§ on jo olemassa oleva rakenne t√§h√§nkin: demokratia. Poliittisen p√§√§t√∂ksenteon mielenkiintoisuus on kyky tasapainottaa erilaisia intressej√§ ja mielipiteit√§ ja luoda yksi yhteinen ja jaettu k√§sitys ‚Äď ainakin seuraaviin vaaleihin asti.