research note

Onko olemassa vain yhtä totuutta?

Yhteiskunnassa sekä tutkijoiden keskuudessa on käyty varsin aktiivista keskustelua tekoälyn etiikan kysymyksistä ja automaattisen päätöksenteon ongelmista. Yksi keskeinen osa tätä työtä on liittynyt pyrkimykseen määritellä oikeita ratkaisuja tai oikeita päätöksiä hyvin monimutkaisessa ympäristössä, jota jotkut myös kutsuvat todellisuudeksi. Heräsin tässä osittain rahoitushakemuksen kirjoittamisen ja osittain Kirsikan ja minun artikkelin myötä miettimään, että aika usein sitä yhtä oikeaa päätöstä haetaan myös alueilla, joissa sellaista ei välttämättä ole olemassa.

Käyn parin esimerkin avulla läpi sitä, mitä ne arvopohjaiset päätökset oikeasti ovat ja päätän tekstin pohtimalla mitä sitten kannattaisi tehdä seuraavaksi.

Tätä ei kyllä käsitelty autokoulussa

Itsestään ajava auto on nykyisen tekoälypöhinän keskeinen esimerkki (itse olen luopumassa toivosta ja varmaan pian hankin ajokortin). Sen kautta on myös törmätty moniin erilaisiin kysymyksiin siitä, kuka kantaa vastuun itseajavan auton tuhoista, esimerkiksi ihmisen tapaamisesta. Yhtä mielenkiintoinen sivujuonne tässä on MITin Moral Machines -hanke, jossa yritetään ymmärtää mitä ihmiset pitävät hyväksyttävänä ratkaisuna. Ajatuksena oli, että tämän kyselyn kautta voidaan sitten rakentaa parempia tekoälyjärjestelmiä, kun ne seuraavat yhteiskunnassa olevia arvoja.

Toki joitakin laajasti jaettuja arvoja löytyy yhteiskunnista, kuten preferenssi tapaa vähemmän ihmisiä, jos mahdollista ja pelasta mieluummin nuoria kuin vanhoja (Awad, et al., 2020; Awad et al., 2018). Näiden pohjalta voisi tietenkin hakea jotain yleistettävää moraalista ohjeistoa itsestään ajaville autoille:

[- -] we can embrace the challenges of machine ethics as a unique opportunity to decide, as a community, what we believe to be right or wrong; and to make sure that machines, unlike humans, unerringly follow these moral preferences. We might not reach universal agreement: even the strongest preferences expressed through the Moral Machine showed substantial cultural variations [- -] these conflicts, disagreements, and dissimilarities, while substantial, may not be fatal.

(Awad et al., 2018)

Vaikka löydettäisiin laajasti hyväksyttyjä tapoja toimia, niin onko mielekästä luoda koneistetusti automaattinen kaikkien seuraama moraalinen ohjesääntö? Vai pitäisikö näissä päätöksissä vastuu siirtää jokaiselle autoilijalle itselleen – ja laittaa autoilija pohtimaan miten erilaisissa tilanteissa hänen mielestään pitää toimia? Niinhän yhteiskuntamme toimii melkein kaikkien arvopohjaisten kysymysten kohdalla: jokaisen pitää itse punnita, mitä haluaa ja mitä ei halua tehdä.

Reiluuden ristiriidoista

Olen tietojenkäsittelytieteilijöiden kanssa puhuessani törmännyt monta kertaa päätynyt puhumaan syrjinnästä ja tasa-arvosta ja siitä, kuinka algoritmiset järjestelmät oppivat pahat tavat meiltä ihmisiltä (kuten aiemmin kirjoittelin Rajapinnasssa). Koska kyseessä on tärkeä yhteiskunnallinen teema, tutkimuspuolella käytetään varsin paljon aikaa sen pohtimiseen, miten pitäisi tehdä reiluja malleja, jotka eivät syrjisi ihmisiä. Ainoa vaan, että tässä pohdintatyössä on pakko ottaa kantaa siitä mitä on reiluus.

Intuitiivisesti reiluus on helppo käsite: haluamme, että ihmiselle tehdään sama päätös, vaikka he tulevatkin erilaisesta taustasta. Tämänkin ajatuksen voi käsittää monella tavalla. Corbett-Davies & Goel (2018) nostavat kolme koneoppimiskirjallisuudessa käytettyä määritelmää tälle. Yksinkertaistamiseksi keskityn nyt miehiin ja naisiin, mutta sama periaate pätee kaikenlaisiin henkilöön liittyviin taustoihin.

  • Päätökset ovat mahdollisimman samoja ihmisille, jotka ovat samanlaisia lukuunotetummatta sitä, että osa on miehiä ja osa on naisia
  • Päätöksen virheet ja todennäköisyydet ovat samoja ihmisille, vaikka osa on miehiä ja osa on naisia
  • Sukupuolettoman päätöksenteon mallit ovat samanlaisia kuin sukupuolittuneen päätöksenteon mallit.

Kirjoittajat jatkavat osoittamaan, että jokaisella mallilla on omat heikkoutensa ja ongelmansa. Mutta kirjoittajilta jää mielestäni huomaamatta isoin ongelma: reiluus ei oikeastaan ole niin helppo käsite lopulta, vaan sitä voidaan ottaa käyttöön erilaisissa tilanteissa korostamaan omien vaateiden mielekkyyttä ja vedota oikeudenmukaisuuteen.

Käsitys siitä mitä tasa-arvo on varmasti esitettävissä hienoilla kaavoilla, mutta kenen kannalta se edustaa ajatusta tasa-arvosta? Tasa-arvon mittaaminen on vahvasti ideologinen kysymys; minkälaista yhteiskuntaa halutaan rakentaa. Suomessa kaksi poliitikkoa voivat mielestään edistävät tasa-arvoa mutta heidän suosituksensa sekä tulkinnat tasa-arvon tilasta ja ongelmista ovat täysin erilaisia: toinen saattaa painottaa mahdollisuuksien tasa-arvoa ja toinen lopputulosten tasa-arvoa. Pahimmillaan heidän on vaikea ymmärtää, kuinka toinen edes tekee tasa-arvoon perustuvia argumenttejaan, koska käsitys tasa-arvosta on täysin erilainen.

Tämän takia päätöksen siitä miten tasa-arvoa määritellään, pitäisi siirtää algoritmin kehittäjiltä kohti poliittisia päätöksentekijöitä. Ehkä Suomessa voitaisiin neljän vuoden välein äänestää näiden keskeisten käsitteiden matemaattisista formuloinneista ja hyväksyä käsitteiden sitoutuneisuus poliittisiin valtasuhteisiin. Mutta tämäkään ei ratkaisisi sitä, että lopulta tasa-arvo on kontekstisidonnainen: ainakin minä joustavasti mukautan käsitystäni tasa-arvosta riippuen siitä, mitä haluan saavuttaa. Kun olen etuoikeutetussa asemassa, helposti sitoudun mahdollisuuksien tasa-arvon ideoihin, ja kun olen sorrettu voin korostaa lopputulosten tasa-arvoa.

Kohti poliittista tietojärjestelmää?

Mitä tästä kaikesta sitten seuraa? Ainakin päänsärky: kaikesta tutkimusyhteisön työstä ja tuskasta huolimatta tuntuu siltä, että olemme vielä lasten kengissä päätöksenteon kehittämisen ja tekoälyn etiikan pohdinnoissa.

Kaiken taustalla mielestäni on iso haaste tekoälyn ja algoritmisten järjestelmien kanssa: niiden suunnittelussa usein keskitymme yhden ratkaisun toteuttamiseen ja uskomme, että se sopisi moniin tilanteisiin erilaisille ihmisryhmille. Ehkäpä seuraava askel on hyväksyä yhteiskunnan monimuotoisuus ja erilaiset arvorakenteet.

Voisimme personoida algoritmista päätöksentekoa. Ihan kuten ohjelmissa voi valita taustakuvia ja teemoja, voisimme tehdä valintoja eettisistä kysymyksistä. Tämä voisi olla erityisen kiinnostava mahdollisuus silloin kun oikeasti luovutat osaltaan omaa moraalisen päätöksenteon rooliasi tietokoneavusteiselle järjestelmälle, kuten jos päästät automaattisen ohjelman ajamaan puolestasi autolla.

Toisaalta algoritmista päätöksentekoa tehdään monissa yhteiskunnallisissa asioissa, ja silloin sitä ei tietenkään voi personoida jokaiselle meille erilaiseksi. Mutta meillä on jo olemassa oleva rakenne tähänkin: demokratia. Poliittisen päätöksenteon mielenkiintoisuus on kyky tasapainottaa erilaisia intressejä ja mielipiteitä ja luoda yksi yhteinen ja jaettu käsitys – ainakin seuraaviin vaaleihin asti.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

%d bloggers like this: