Pitäisikö algoritmien pelastaa meidät epävarmuudelta?

https://www.flickr.com/photos/belgapixels/2703291441/
Kuva (cc) Belgapixel @Flickr

Viimeisten vuosien aikana on puhuttu paljon algoritmien vallasta, mutta keskusteluissa esiintyy monia erilaisia näkökulmia siitä, minkälaista tuo valta oikeastaan on. Yhtäältä on keskusteltu algoritmien kyvystä rajata ja muokata ihmistoiminnan mahdollisuuksia, esimerkiksi luokittelemalla ihmisiä ja ohjaamalla tiedon kulkua [1,2,3]. Toisaalta huomiota on kiinnitetty algoritmeja koskevien käsitysten ja odotusten rooliin toiminnan ohjaamisessa [4]. Tässä kirjoituksessa pohdimme yhtä mahdollista syytä sille, miksi algoritmit ylipäätään saavat valtaa.

Michel Crozier käsittelee kirjassaan The Bureaucratic Phenomenon [5] sitä, miten byrokraattisissa organisaatioissa valtaa keskittyy henkilöille, joilla on kyky hallita organisaation toimintaan liittyvää epävarmuutta. Hän kirjoittaa esimerkiksi tehtaan koneiden huoltohenkilökunnasta ryhmänä, jolle valtaa keskittyi, koska he kykenivät vähentämään tuotantokoneisiin liittyvää epävarmuutta.

Tuotantokoneiston huoltaminen oli tehtaiden toiminnan kannalta keskeistä ja huoltohenkilökunta muodosti asiantuntijaryhmän, jolla yksin oli huoltamiseen tarvittavaa osaamista. Tämä osaaminen antoi huoltohenkilöstökunnalle strategisen etulyöntiaseman suhteessa tehtaan muihin henkilöstöryhmiin. Byrokraattisesta rakenteesta huolimatta organisaatio oli kykenemätön hallitsemaan henkilöstöryhmien epämuodollista kanssakäymistä. Tästä johtuen koneiden rikkoutumiseen liittyvän epävarmuuden hallinta loi huoltohenkilökunnalle valtaa, jota he käyttivät neuvotellessaan ryhmänsä eduista.

Crozierin analyysissa byrokraattisten organisaatioiden keskeinen pyrkimys on kontrolloida organisaation toimintaan liittyviä epävarmuuden lähteitä. Epävarmuus organisaation toiminnassa luo hallitsematonta valtaa, joka tekee byrokraattisen järjestelmän toiminnasta epätehokasta.

Yksi byrokraattisten järjestelmien toimintaan liittyvän määrällistämisen tavoitteena on etäännyttää järjestelmien toiminta subjektiivisista ihmisarvioista [6]. Sama ilmiö näkyy myös erilaisten algoritmisten sovellusten käytössä. Algoritmien toivotaan paitsi eliminoivan epävarmuuden lähteitä, myös parantavan toiminnan tehokkuutta.  Usein toiveena on, että ihmisen päätöksenteon subjektiivisuuteen tai muihin heikkouksiin liittyvät ongelmat voidaan ratkaista uusilla datapohjaiseen analytiikkaan perustuvilla teknologisilla sovelluksilla [7,8]. Tämä epävarmuuden kontrollointi näkyy tapauksissa, joissa algoritmien käyttöä perustellaan niiden systemaattisuudella tai tasalaatuisuudella, kuten esimerkiksi algoritmisen analytiikan tehokkuutta ja ennustekykyä koskevissa odotuksissa [9]. Ennustekyvyn tarkentumisen ja toiminnan tehostamisen onkin esitetty olevan nykyanalytiikkaa keskeisesti ohjaavia odotuksia [10]. Yksi käytännön esimerkki ovat itseohjautuvat autot, joiden toivotaan olevan ihmisten ohjaamia autoja turvallisempia [esim. 11]. Personalisoidun terveydenhuollon taas toivotaan tarjoavan yksilöille entistä parempia tapoja hallita terveyttään [12]. Myös esimerkiksi tekoälyn käyttö yritysten rekrytointiprosesseissa on yleistymässä. Automatisoituja rekrytointiprosesseja perustellaan vedoten tehokkuuteen ja algoritmisen arvioinnin tasalaatuisuuteen [esim. 13].

Erving Goffman on käsitellyt esseessään Where the action is? [14] kohtalokkuutta. Hän liittää käsitteen päätöksiin, jotka ovat ongelmallisia ja seuraamuksellisia. Puhtaan ongelmalliset päätökset ovat sellaisia, joissa oikea päätös ei ole selvä, mutta päätöksellä ei ole laajemman elämän kannalta juurikaan väliä. Valinta sen suhteen, mitä katsoa televisiosta, on esimerkki tällaisesta päätöksestä. Esimerkiksi päätös lähteä joka aamu töihin taas on esimerkki seuraamuksellisesta päätöksestä, jossa oikea valinta on selvä. Kotiin jäämisellä voisi olla haitallisia seurauksia, joten valinnalle lähteä töihin on selkeät perusteet. Kohtalokkaat päätökset ovat sellaisia, joissa valinnalle ei ole selkeitä perusteita, mutta sen tekemisellä on laajakantoisia seurauksia Goffmanin mukaan pyrimme järjestämään arkemme niin, että päätöksemme eivät yleensä olisi kohtalokkaita.

Sama kohtalokkuuden vähentäminen on läsnä niissä toiveissa, joita esitämme algoritmeille. Toivomme niiltä apua tilanteissa joissa oikea päätös on epäselvä. Emme kuitenkaan pysty pakenemaan kohtalokkuutta kokonaan. Päätöksillä voi aina olla ennakoimattomia seurauksia. Koska olemme aina läsnä omana, fyysisenä itsenämme, yllättävissä tilanteissa kehomme voi esimerkiksi aina vahingoittua. Kaikkeen olemiseen liittyy riskejä.

Ajatuksella kohtalokkuuden eliminoimisesta on yhtymäkohta Crozierin byrokratia-analyysiin. Byrokraattiset järjestelmät kehittyvät juuri olosuhteissa, joissa toimintaan liittyvää epävarmuutta pyritään eliminoimaan. Paradoksaalisesti juuri epävarmuuden eliminointiin käytetty menetelmä – tiukka toimintaa ohjaava formaali säännöstö – johtaa vallan keskittymiseen organisaation niihin osiin, joista epävarmuutta ei saada kitkettyä. Samaten kohtalokkuuden eliminoiminen algoritmien avulla voi johtaa vallan toimimiseen juuri niiden teknologioiden välityksellä, joilla epävarmuutta pyritään hallitsemaan. Tästä näkökulmasta yksi syy sille, että algoritmeille syntyy valtaa, on pyrkimys kontrolloida epävarmuutta, jota ei kuitenkaan täydellisesti kyetä hallitsemaan. Algoritmisissa järjestelmissä valta toimii algoritmien kautta, mutta syntyy osana laajempaa ihmistoiminnan kontekstia. Näin ollen algoritmista valtaa voitaisiinkin kenties tutkia kysymällä, minkälaisia epävarmuustekijöitä algoritmien käytöllä pyritään hallitsemaan, ja mikä mahdollisesti jää hallitsematta?

Jos joku lupaa auttaa meitä tekemään aina oikean päätöksen epävarmassa maailmassa, ei ole ihme että kuuntelemme. On kuitenkin syytä kiinnittää huomiota siihen, että samalla auttajille keskittyy valtaa.

Teksti: Jesse Haapoja & Juho Pääkkönen

– –
Kiitokset kommenteista Salla-Maaria Laaksoselle, Airi Lampiselle ja Matti Nelimarkalle. Tämä teksti kirjoitettiin osana Koneen Säätiön rahoittamaa Algoritmiset järjestelmät, valta ja vuorovaikutus -hanketta.

Lukemisen datafikaatio ja uskottavuus

Yhä useampi arkipäiväinen toimintamme muutetaan erilaisten digitaalisten välineiden avulla dataksi, jota käytetään erilaisiin laskennallisiin toimiin kuten käyttäytymisemme ennakointiin ja sisältöjen personointiin. Tätä prosessia kutsutaan datafikaatioksi. Ihmiset luonnollisesti tulkitsevat tätä prosessia kuten ympäristöään ylipäätään. Tässä blogikirjoituksessa keskityn lukemisen datafikaatioon ja miten ihmiset sitä ymmärtävät.

Julkaisimme hiljattain Airi Lampisen kanssa artikkelin, jota varten haastattelin jo suljetun uutissuosittelujärjestelmä Scoopinionin käyttäjiä ja pääkehittäjää. Scoopinion oli Suomessa kehitetty uutissuosittelujärjestelmä, joka seurasi käyttäjien lukuaikaa eri uutisartikkeleissa. Se suositteli käyttäjille heitä tältä pohjalta mahdollisesti kiinnostavia artikkeleita. Scoopinionia voidaan siis pitää yhtenä esimerkkinä datafikaatiosta.

Uskottavuus ja data

Haastatteluissa nousi esiin uskottavuus: koska Scoopinion keskittyi lukuajan mittaamiseen eikä perinteisempään klikkipohjaiseen analytiikkaan, kokivat haastateltavat sen antamat suositukset luotettavammiksi. Tämä luotettavuus syntyi ajatuksesta, että lukuaika on pelkkää klikkausta parempi todiste siitä, että datan lähde on pitänyt artikkelia kiinnostavana. Lukuajan ajateltiin siis edustavan paremmin lukijan arviota artikkelista. Tämä tapa kehystää lukuaika oli toki myös se tapa, jolla järjestelmän kehittäjät pyrkivät palveluaan markkinoimaan.

Scoopinionin uskottavuus siis rakentui lukemiseen liitettyjen merkitysten varaan, joita kehittäjät käyttivät hyväkseen sekä järjestelmää rakentaessaan että sitä markkinoidessaan. Järjestelmää käyttäneet ihmiset tulkitsivat järjestelmän toimintaa lukemiseen liitettyjen merkitysten kautta. Järjestelmää tehtiin ymmärrettäväksi pohjaten näihin merkityksiin, kuten esimerkiksi siihen, että ihmiset ajattelevina olentoina arvioivat lukemaansa omien mieltymystensä mukaan ja viettävät enemmän aikaa itseään kiinnostavien tekstien parissa kuin sellaisten tekstien, jotka heitä eivät kiinnosta. Toisaalta palvelu myös toi uusia merkityksiä lukemiselle: kun palvelu seurasi lukemista, lukeminen muuttui implisiittiseksi suosittelemiseksi. Tämän seurauksena palvelu, jossa käyttäjillä ei ollut mahdollisuutta nähdä muita käyttäjiä koettiin kuitenkin tietyllä tapaa sosiaalisena.

Algoritmiset palvelut osana laajempaa merkitysjärjestelmää

Myös muissa algoritmisissa palveluissa ymmärrystä rakennetaan niitä edeltävien merkitysten varaan, samalla kuitenkin tuoden niihin jotain erilaista. Facebook-ystävät eivät ehkä tarkoita täsmälleen samaa kuin ihmiset jotka koemme ystäviksemme sen ulkopuolella, mutta palvelu käyttää kuitenkin hyväkseen ystävyyteen liitettyjä merkityksiä. Kun kyydityspalvelu Uber alkoi menestymään, rupesivat monet muut jakamistalouspalvelut markkinoimaan itseään tietyn asian “Uberina”: uusien palveluiden uskottavuutta menestyä rakennettiin Uberin menestyksen päälle. Nämä palvelut nojasivat tällä kehystämisellä Uberiin liitettyihin merkityksiin, joka puolestaan on idealtaan hyvin samankaltainen kuin sitä vanhemmat taksipalvelut. Tässä tapauksessa korostui Uberin lupaus tehdä vanha asia kustannustehokkaammin ja antaa “tavallisille” ihmisille mahdollisuus hyötyä taloudellisesti toiminnasta, joka oli aiemmin nähty pääosin tietyn ammattiryhmän toimialana.

Algoritmisia järjestelmiä sosiaalitieteellisestä näkökulmasta tutkittaessa tulisi huomioida, että usein niiden käyttämää dataa ja siihen liittyviä merkityksiä on hankalaa, ellei mahdotonta, erottaa itse algoritmeista, joita järjestelmät käyttävät. Usein data edustaa palveluissa ihmistä ja tästä datasta tehdään selkoa niiden käsitysten kautta, joita ihmisten toimintaan liitetään palvelun ulkopuolella.

Järjestelmät ovat ihmisten rakentamia ja niitä ruokitaan ihmisten toiminnalla. Ne ovat siis läpeensä sosiaalisia.

Artikkeli julkaistiin ihmisen ja tietokoneen välisen vuorovaikutuksen tutkimukseen keskittyvässä NordiChi-konferenssissa ja sitä tehtiin osana Koneen Säätiön rahoittamaa Algoritmiset järjestelmät, valta ja vuorovaikutus -hanketta.

Artikkelin tiedot:
Haapoja, J., & Lampinen, A. (2018). ‘Datafied’ Reading: Framing behavioral data and algorithmic news recommendations. In NordiCHI 2018: Revisiting the Life Cycle – Proceedings of the 10th Nordic Conference on Human-Computer Interaction (pp. 125-136). DOI: 10.1145/3240167.3240194

Algoritmit, ihmiset, ja vallankäyttö

Mitä algoritmit ovat ja miksi niistä pitäisi käydä yhteiskunnallista keskustelua?

Puhuin viime perjantaina meppi Liisa Jaakonsaaren järjestämässä “Älä elä kuplassa: Algoritmit ja digitaalinen sivistys EU:SSA” -seminaarissa. Saatuani kutsun tulla puhumaan algoritmeista, lupasin osallistua, kunhan puhuttaisiin myös ihmisistä ja vallankäytöstä.

Tässä muutama keskeinen ajatus esityskalvoja täydentämään:

1. Mitä algoritmit ovat?

Perinteisen teknisen määritelmän mukaan algoritmi on kuin resepti: yksityiskohtainen kuvaus tai ohje, jota seuraamalla tehtävä, prosessi tai ongelmanratkaisu suoritetaan. Tästä kelpaa esimerkiksi vaikka jakokulma. Nykyään algoritmeista puhuttaessa viitataan kuitenkin useammin oppiviin algoritmeihin ja koneoppimiseen: algoritmit oppivat ja kehittyvät käyttämänsä datan pohjalta, eivätkä lopputulokset siten ole samalla tavalla sääntömääräisiä kuin perinteinen määritelmä antaa ymmärtää.

Yhä useammin käytetään termiä algoritminen järjestelmä viittaamaan laajempaan kokonaisuuteen, joka pitää sisällään paitsi yksittäisiä koodinpätkiä, myös laajempia tietojärjestelmiä, ihmisiä, ja organisaatioita. Algoritmit eivät ole ympäristöstään irrallisia. On myös hyvä huomata, että siinä missä nyt puhutaan algoritmeista, muutama vuosi sitten puhuttiin big datasta. Paljolti on kyse samasta asiasta.

2. Algoritmeista puhuttaessa on puhuttava myös datasta

Algoritmeja tarvitaan, jotta voidaan käsitellä suuria määriä dataa, ja algoritmit tarvitsevat dataa toimiakseen ja oppiakseen. Niinpä algoritmeista puhuttaessa on puhuttava myös datasta:  Miten dataa tuotetaan & kootaan? Miten dataa luokitellaan & käytetään? Dataa tuotetaan ja kootaan yhä enemmän ja erilaisista tilanteista. Arkinen toimintamme jättää jälkiä, usein silloinkin, kun emme ajattele olevamme tekemisissä digitaalisten systeemien kanssa.

3. Kohtaamisemme algoritmien kanssa ovat arkisia, poliittisia, ja usein huomaamattomia

Google ja muut hakukoneet auttavat meitä löytämään tarvitsemaamme tietoa. Samalla ne kuitenkin määrittävät sitä, mitä näemme ja tiedämme. Ne heijastavat käyttämänsä datan vuoksi niitä ympäröivän yhteiskunnan vääristymiä, eivätkä ne toki ole itsekään neutraaleja välikäsiä. Facebookin uutisvirran kohdalla algoritmista sisällönkäsittelyä tarvitaan valikoimaan mediatulvasta kuvia ja kirjoituksia, jotka järjestelmä arvioi yksittäistä käyttäjää kiinnostaviksi. Pyrkiessään pitämään käyttäjät pauloissaan ja löytämään meitä kiinnostavia sisältöjä, Facebook voi päätyä vahvistamaan valintojamme (yhä enemmän kissavideoita kissavideoista pitäville).

Kolmantena esimerkkinä musiikkipalvelu Spotifyssakin toimintamme tuottaa dataa, joka ohjaa sitä, mitä meille tarjotaan. Emme ehkä ajattele tuottavamme dataa musiikkia kuunnellessa, mutta valintamme ovat osaltaan mukana palautekehässä, joka vahvistaa taipumuksiamme ja ohjaa sitä, millaisia uusia sisältöjä löydämme. Neljäntenä esimerkkinä tuotamme dataa myös kaupunkipyörällä ajellessa ja monissa muissa tilanteissa, joita emme ehkä tunnista digitaaliseksi vuorovaikutukseksi. Tuottamallamme datalla voi olla poliittisia seurauksia, kun sitä käytetään järjestelmien kehittämiseen. Jos vaikkapa kaupunkipyöräjärjestelmää kehitetään datavetoisesti, saatetaan päätyä vahvistamaan palvelua siellä, missä sitä on jo helppo käyttää, sen sijaan, että suunnattaisiin voimavarat sinne, missä tarve on suurin. Kenen ääni kuuluu ja huomaammeko tekevämme jotain poliittista silloin, kun arkisen toimintamme oheistuotteena syntyy dataa?

4. Teknologiaa on helpompi muuttaa kuin kulttuuria.

Kun puhutaan algoritmeista, ollaan usein huolissaan niiden vallasta ja vääristymistä, joita ne tuottavat. Yhteiskunnan vääristymät ja virheet löytävät kuitenkin tiensä myös digitaalisiin järjestelmiin. Esimerkiksi algoritmisten järjestelmien näkyväksi tekemä syrjintä on monesti lähtöisin datasta, jota järjestelmät käyttävät ja joka heijastaa yhteiskunnan historiallisia tai vallitsevia vinoutumia. Järjestelmiä voidaan muuttaa, jotta ne eivät vahvistaisi tai ylläpitäisi syrjintää, mutta syrjinnän kitkemiseksi on muutettava yhteiskuntaa laajemmin.

5. Algoritmiset järjestelmät muistuttavat byrokratiaa.

Tämänhetkisen algoritmikohinan keskellä on hyvä miettiä, mikä näissä järjestelmissä on oikeastaan uutta. Joiltain osin algoritmit muistuttavat byrokratiaa. On siis puhuttava siitä, miten algoritmit ja ihmiset toimivat yhdessä ja millaista valtaa toimintaan kulloinkin liittyy. Uhkana on, että puhumalla algoritmien vallasta vältytään puhumasta algoritmeista vallankäytön välineenä.

Lue lisää: