Ethän kiusaa Anna-Liisa Goritmia

Anna-Liisa on aina ollut nopea laskija. Hän haaveili ammatista ihmislaskijana. Päivät koostuisivat laskemisesta ja lopputuloksen perusteella tehdyistä helpoista päätöksistä. Esimerkiksi hän rakasti aina illalla laskea seuraavan aamun sateen todennäköisyyttä ja jos todennäköisyys oli yli 85%, ottaa aamulla mukaansa sateenvarjon.

Kuitenkin ensimmäisen loskakuuron jälkeen Anna-Liisa oppi, että sateenvarjo olisi hyvä ottaa myös jos sateen todennäköisyys olisi korkea ja lämpötila olisi vähän pakkasella, varsinkin jos on loppusyksy. Kesäisen raekuuron jälkeen Anna-Liisa oppi lisää: sateenvarjoa vaativia tilanteita voisi olla todella monia. Olisi hyvin vaikea muistaa listata nämä kaikki säännöt etukäteen eikä unohtaa jotain. Hän huomasi, että on oikeastaan vaikea tunnistaa näitä etukäteen, ihmisen mielikuvitus kun on rajoittunutta. Tämän takia Anna-Liisa oli hiukan masentunut: voisiko hänestä koskaan tulla ihmislaskijaa?

Mietittyään asiaa hiukan, Anna-Liisa huomasi, että koska hän on niin nopea laskija ei aina tarvitsisi luoda sääntöjä. Anna-Liisa tarkkaili kaikkia naapureitaan ja sitä, koska naapurit ottavat sateenvarjonsa mukaan. Samaan aikaan hän katsoi mitä edeltävän illan sääennusteessa olikaan tapahtunut ja muodosti näiden esimerkkien pohjalta itse säännöt sille, koska sateenvarjo kannattaisi ottaa mukaan. Eihän sateenvarjon mukaanotto aina onnistunut tällä tavalla. Kerrankin Anna-Liisa ei ottanut sateenvarjoa mukaan, huomasi että keskipäivälllä satoi kissoja sekä koiria – ja huomasi, että moni hänen naapurinsa oli ottanut sateenvarjon mukaan. Mutta Anna-Liisa oppi tästä taas yhdenlaisen tilanteen, jossa sateenvarjo kannattaisi pitää mukana.

Anna-Liisa huomasi, että moni muukin halusi tehdä päätöksiä samalla tavalla. He lähettivät Anna-Liisalle paljon esimerkkejä, joiden pohjalta Anna-Liisa pystyi itse laskemaan mitä sääntöjä oikeastaan olikaan. Sitten he soittivat Anna-Liisalle miltä tilanne näytti juuri nyt ja kysyivät mitä nyt kannattaisi tehdä. Tämä oli mukavaa ja lisäksi siitä maksettiin varsin hyvin.

Anna-Liisaa pyydettiin esimerkiksi arvioimaan sopivia vuokrien hintoja, arvioimaan ihmisen terveyttä sekä päättämään keille kannattaisi antaa sairasvakuutus tai keiden työhakemuksia tulisi tarkastella lisää. Vuokrien hinnoissa hänellä oli käytössä tietoja alueen kaikkien asuntojen vuokratasot. Kaikki toimi erinomaisesti: Anna-Liisa oppi sääntöjä näiden esimerkkien avulla.

Kuitenkin eräänä päivänä eräs Anna-Liisan asiakas tuli juttelemaan Anna-Liisan kanssa. Häntä mietitytti, että miksi kaikki yli 50-vuotiaiden työhakemukset on hylätty epäillen, että onko Anna-Liisalla ongelmia vanhempien ihmisten suhteen. Anna-Liisa vakuutti, että ei ole. Anna-Liisa oli kuullut monista yhdysvaltalaisista tutkimuksista, jotka kertovat kuinka esimerkiksi etnisen tausta vaikuttaa palkkaamiseen. ”Ehkäpä ongelma on esimerkeissä eikä minun laskelmissa?” Anna-Liisa pohdiskeli asiakkaansa kanssa.

Tarinan pohdiskelua ja avaamista

Tarina ehkä eniten kuvaa, ettei minusta koskaan olisi tullut erityisen hyvä kirjailija. Samaan aikaan se tuo esille minua ärsyttävää jännitettä yksinkertaistaa algoritmisia järjestelmiä ihmisten mielessä, mediassa sekä myös akateemisessa keskustelussa. Tämä blogipostaus on vastine toisaalta YLEn uutiselle tekoälystä ja syrjinnästä ja toisaalta nimettömälle TikTok-käyttäjälle.

Ylen uutisessa ansiokkaasti havaitaan, että ihmiset ovat mukana monessa osassa algoritmejä.

Dataa analysoiva tekoäly harrastaa nimittäin syrjintää.

– Data koostuu siitä, miten ihmiset ovat eläneet tähän asti, ja myös tekoäly on ihmisten kehittämä, Ollila sanoo.

Emme pääse eroon yhteiskuntamme ennakkoluuloista, vääristymistä tai syrjintämekanismeista ulkoistamalla päätöksemme koneelle

Mutta jo kahden kappaleen päässä ihmisen oma toimijuus on kokonaan unohtunut algoritmikritiikistä:

Siksi esimerkiksi Google-haun on todettu tarjoavan naisille pienempipalkkaisia työpaikkailmoituksia kuin miehille (siirryt toiseen palveluun) (The Guardian), ja työhakemuksia perkaava algoritmi voi aiemmista valinnoista oppineena rankata pois kaikki yli 50-vuotiaat. Samoin voi toimia vakuutusyhtiön tekoäly, vaikka emme niin haluaisi.

Ongelmahan ei varsinaisesti ole työhakemuksia perkaava algoritmi, vaan me ihmiset. Tämän ei pitäisi olla yllätys kenellekään, joka on hiukan tutustunut aihetta sivuavaan tutkimukseen. Työmarkkinoiden syrjintää on kenttäkokeellisilla asetelmilla saatu mitattua jo pitkään (esimerkiksi Bertrand & Mullainathan, 2004). Kun työmarkkinoilla on syrjintää, niin tietenkin työmarkkinoista kerätyssä aineistossa on näitä samoja ongelmia. Toistamme aikaisempia syrjiviä käytänteitä uusin keinoin.

TikTokissa tuntuu olevan myös trendaavana postaustyyppinä tehdä kaksi erilaista videota: toisessa hiukan enemmän paljasta pintaa ja toisessa taas vaatetusta. Tämä on yritys käyttäjiltä ymmärtää videoiden suosiota ja tehdä johtopäätöksiä siitä, suosiiko TikTok videoita, joissa on paljaampaa pintaa. Tässä testaamisessa kuitenkin unohtuu ihmisten oma rooli ja järjestelmän vuorovaikutteinen luonne. Jos katson ja tykkään toisesta videosta, sitä kannattaa näyttää enemmän myös muille: se on jo koukuttanut minut, joten se voi koukuttaa muitakin. Luultavasti tämän testauksen jäljiltä lopulta päädytään puhumaan vähemmän suosittelualgoritmeistä ja enemmän siitä, mitä me ihmiset oikeastaan teemme.

Kärjistetysti usein algoritmit ovat kuin autoja. Kun mediassa puhutaan auto-onnettomuudesta, käytetään usein fraaseja kuten auto ajaa ihmisen yli. Unohdetaan kokonaan, että harvoin ne autot ajavat itseään, vaan ratin takana on ihminen. (Ainakin vielä, suurista toiveistani huolimatta.) Samalla tavalla algoritmisten järjestelmien takana on lopulta ihmisiä.

Mitä sitten?

Mielestäni yksi iso ongelma liittyy tapaamme käyttää sanoja algoritmi ja tekoäly kun oikeasti tarkoitetaan koodin, aineistojen ja ihmisten muodostamaa algoritmistä järjestelmää. Isoin ongelma usein syntyy juuri järjestelmän luonteesta. Esimerkiksi Pääkkönen et al. (2020) kommentoivat, että kaikissa järjestelmissä on aina epävarmuutta ja sen hallinta luo valta-asetelmia. Tällöin kun ihmisten tekemää päätöksentekoa korvataan algoritmisella järjestelmällä, epävarmuus palloilee uudelle paikalle koodin, aineiston ja ihmisten sekamelskassa. Ja tämä luo uusia mahdollisuuksia vallankäytölle ja kaikelle sekavuudelle – josta loppupeleissä usein päädymme syyttämään algoritmia.

Tämän takia kannustaisin ihmisiä jotka pohtivat näitä asioita enemmän miettimään, miten voisimme laajentaa käsitteellistä repertuaariamme ja tuoda esille kuinka monimutkaisesti algoritminen päätöksenteko toimii ja mitä kaikkea siellä onkaan mukana. Tämän esilletuonti on myös tärkeää, jotta ihmiset ymmärtäisivät kuinka monissa tekoälyjärjestelmissä lopulta kyse on muiden ihmisten tuottaman ja jäsentämän datan hyödyntämisestä. Muistatko kuinka yllätyksenä viime syksynä monille tuli, että puheentunnistuksessa osaa aineistoa käytetään laadun tarkkailuun ja parantamiseen – ja että tätä aineistoa kuuntelevat muut ihmiset. Kuka muukaan voisi onnistuneesti tehdä tämän? Tietokone on vain opetettu näyttämällä todella paljon esimerkkejä äänestä ja vastaavasta tekstistä, mutta ei se ole näin älykäs. 

Ehkäpä tulevaisuudessa myös osaamme suunnitella algoritmisia järjestelmiä niin, että niissä tulee paremmin esille järjestelmän kokonaisluonne. Kelalla on jo töissä monia virkakielen huoltajia. Milloin palkataan ensimmäiset algoritmisten järjestelmien luettavuuden parantajat?

 

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s