Eth√§n kiusaa Anna-Liisa Goritmia

Anna-Liisa on aina ollut nopea laskija. Hän haaveili ammatista ihmislaskijana. Päivät koostuisivat laskemisesta ja lopputuloksen perusteella tehdyistä helpoista päätöksistä. Esimerkiksi hän rakasti aina illalla laskea seuraavan aamun sateen todennäköisyyttä ja jos todennäköisyys oli yli 85%, ottaa aamulla mukaansa sateenvarjon.

Kuitenkin ensimmäisen loskakuuron jälkeen Anna-Liisa oppi, että sateenvarjo olisi hyvä ottaa myös jos sateen todennäköisyys olisi korkea ja lämpötila olisi vähän pakkasella, varsinkin jos on loppusyksy. Kesäisen raekuuron jälkeen Anna-Liisa oppi lisää: sateenvarjoa vaativia tilanteita voisi olla todella monia. Olisi hyvin vaikea muistaa listata nämä kaikki säännöt etukäteen eikä unohtaa jotain. Hän huomasi, että on oikeastaan vaikea tunnistaa näitä etukäteen, ihmisen mielikuvitus kun on rajoittunutta. Tämän takia Anna-Liisa oli hiukan masentunut: voisiko hänestä koskaan tulla ihmislaskijaa?

Mietitty√§√§n asiaa hiukan, Anna-Liisa huomasi, ett√§ koska h√§n on niin nopea laskija ei aina tarvitsisi luoda s√§√§nt√∂j√§. Anna-Liisa tarkkaili kaikkia naapureitaan ja sit√§, koska naapurit ottavat sateenvarjonsa mukaan. Samaan aikaan h√§n katsoi mit√§ edelt√§v√§n illan s√§√§ennusteessa olikaan tapahtunut ja muodosti n√§iden esimerkkien pohjalta itse s√§√§nn√∂t sille, koska sateenvarjo kannattaisi ottaa mukaan. Eih√§n sateenvarjon mukaanotto aina onnistunut t√§ll√§ tavalla. Kerrankin Anna-Liisa ei ottanut sateenvarjoa mukaan, huomasi ett√§ keskip√§iv√§lll√§ satoi kissoja sek√§ koiria ‚Äď ja huomasi, ett√§ moni h√§nen naapurinsa oli ottanut sateenvarjon mukaan. Mutta Anna-Liisa oppi t√§st√§ taas yhdenlaisen tilanteen, jossa sateenvarjo kannattaisi pit√§√§ mukana.

Anna-Liisa huomasi, että moni muukin halusi tehdä päätöksiä samalla tavalla. He lähettivät Anna-Liisalle paljon esimerkkejä, joiden pohjalta Anna-Liisa pystyi itse laskemaan mitä sääntöjä oikeastaan olikaan. Sitten he soittivat Anna-Liisalle miltä tilanne näytti juuri nyt ja kysyivät mitä nyt kannattaisi tehdä. Tämä oli mukavaa ja lisäksi siitä maksettiin varsin hyvin.

Anna-Liisaa pyydettiin esimerkiksi arvioimaan sopivia vuokrien hintoja, arvioimaan ihmisen terveyttä sekä päättämään keille kannattaisi antaa sairasvakuutus tai keiden työhakemuksia tulisi tarkastella lisää. Vuokrien hinnoissa hänellä oli käytössä tietoja alueen kaikkien asuntojen vuokratasot. Kaikki toimi erinomaisesti: Anna-Liisa oppi sääntöjä näiden esimerkkien avulla.

Kuitenkin er√§√§n√§ p√§iv√§n√§ er√§s Anna-Liisan asiakas tuli juttelemaan Anna-Liisan kanssa. H√§nt√§ mietitytti, ett√§ miksi kaikki yli 50-vuotiaiden ty√∂hakemukset on hyl√§tty ep√§illen, ett√§ onko Anna-Liisalla ongelmia vanhempien ihmisten suhteen. Anna-Liisa vakuutti, ett√§ ei ole. Anna-Liisa oli kuullut monista yhdysvaltalaisista tutkimuksista, jotka kertovat kuinka esimerkiksi etnisen tausta vaikuttaa palkkaamiseen. ‚ÄĚEhk√§p√§ ongelma on esimerkeiss√§ eik√§ minun laskelmissa?‚ÄĚ Anna-Liisa pohdiskeli asiakkaansa kanssa.

Tarinan pohdiskelua ja avaamista

Tarina ehkä eniten kuvaa, ettei minusta koskaan olisi tullut erityisen hyvä kirjailija. Samaan aikaan se tuo esille minua ärsyttävää jännitettä yksinkertaistaa algoritmisia järjestelmiä ihmisten mielessä, mediassa sekä myös akateemisessa keskustelussa. Tämä blogipostaus on vastine toisaalta YLEn uutiselle tekoälystä ja syrjinnästä ja toisaalta nimettömälle TikTok-käyttäjälle.

Ylen uutisessa ansiokkaasti havaitaan, että ihmiset ovat mukana monessa osassa algoritmejä.

Dataa analysoiva tekoäly harrastaa nimittäin syrjintää.

‚Äď Data koostuu siit√§, miten ihmiset ovat el√§neet t√§h√§n asti, ja my√∂s teko√§ly on ihmisten kehitt√§m√§, Ollila sanoo.

Emme pääse eroon yhteiskuntamme ennakkoluuloista, vääristymistä tai syrjintämekanismeista ulkoistamalla päätöksemme koneelle

Mutta jo kahden kappaleen päässä ihmisen oma toimijuus on kokonaan unohtunut algoritmikritiikistä:

Siksi esimerkiksi Google-haun on todettu tarjoavan naisille pienempipalkkaisia työpaikkailmoituksia kuin miehille (siirryt toiseen palveluun) (The Guardian), ja työhakemuksia perkaava algoritmi voi aiemmista valinnoista oppineena rankata pois kaikki yli 50-vuotiaat. Samoin voi toimia vakuutusyhtiön tekoäly, vaikka emme niin haluaisi.

Ongelmahan ei varsinaisesti ole työhakemuksia perkaava algoritmi, vaan me ihmiset. Tämän ei pitäisi olla yllätys kenellekään, joka on hiukan tutustunut aihetta sivuavaan tutkimukseen. Työmarkkinoiden syrjintää on kenttäkokeellisilla asetelmilla saatu mitattua jo pitkään (esimerkiksi Bertrand & Mullainathan, 2004). Kun työmarkkinoilla on syrjintää, niin tietenkin työmarkkinoista kerätyssä aineistossa on näitä samoja ongelmia. Toistamme aikaisempia syrjiviä käytänteitä uusin keinoin.

TikTokissa tuntuu olevan myös trendaavana postaustyyppinä tehdä kaksi erilaista videota: toisessa hiukan enemmän paljasta pintaa ja toisessa taas vaatetusta. Tämä on yritys käyttäjiltä ymmärtää videoiden suosiota ja tehdä johtopäätöksiä siitä, suosiiko TikTok videoita, joissa on paljaampaa pintaa. Tässä testaamisessa kuitenkin unohtuu ihmisten oma rooli ja järjestelmän vuorovaikutteinen luonne. Jos katson ja tykkään toisesta videosta, sitä kannattaa näyttää enemmän myös muille: se on jo koukuttanut minut, joten se voi koukuttaa muitakin. Luultavasti tämän testauksen jäljiltä lopulta päädytään puhumaan vähemmän suosittelualgoritmeistä ja enemmän siitä, mitä me ihmiset oikeastaan teemme.

Kärjistetysti usein algoritmit ovat kuin autoja. Kun mediassa puhutaan auto-onnettomuudesta, käytetään usein fraaseja kuten auto ajaa ihmisen yli. Unohdetaan kokonaan, että harvoin ne autot ajavat itseään, vaan ratin takana on ihminen. (Ainakin vielä, suurista toiveistani huolimatta.) Samalla tavalla algoritmisten järjestelmien takana on lopulta ihmisiä.

Mitä sitten?

Mielest√§ni yksi iso ongelma liittyy tapaamme k√§ytt√§√§ sanoja algoritmi ja teko√§ly kun oikeasti tarkoitetaan koodin, aineistojen ja ihmisten muodostamaa algoritmist√§ j√§rjestelm√§√§. Isoin ongelma usein syntyy juuri j√§rjestelm√§n luonteesta. Esimerkiksi P√§√§kk√∂nen et al. (2020) kommentoivat, ett√§ kaikissa j√§rjestelmiss√§ on aina ep√§varmuutta ja sen hallinta luo valta-asetelmia. T√§ll√∂in kun ihmisten tekem√§√§ p√§√§t√∂ksentekoa korvataan algoritmisella j√§rjestelm√§ll√§, ep√§varmuus palloilee uudelle paikalle koodin, aineiston ja ihmisten sekamelskassa. Ja t√§m√§ luo uusia mahdollisuuksia vallank√§yt√∂lle ja kaikelle sekavuudelle ‚Äď josta loppupeleiss√§ usein p√§√§dymme syytt√§m√§√§n algoritmia.

T√§m√§n takia kannustaisin ihmisi√§ jotka pohtivat n√§it√§ asioita enemm√§n miettim√§√§n, miten voisimme laajentaa k√§sitteellist√§ repertuaariamme ja tuoda esille kuinka monimutkaisesti algoritminen p√§√§t√∂ksenteko toimii ja mit√§ kaikkea siell√§ onkaan mukana. T√§m√§n esilletuonti on my√∂s t√§rke√§√§, jotta ihmiset ymm√§rt√§isiv√§t kuinka monissa teko√§lyj√§rjestelmiss√§ lopulta kyse on muiden ihmisten tuottaman ja j√§sent√§m√§n datan hy√∂dynt√§misest√§. Muistatko kuinka yll√§tyksen√§ viime syksyn√§ monille tuli, ett√§ puheentunnistuksessa osaa aineistoa k√§ytet√§√§n laadun tarkkailuun ja parantamiseen ‚Äď ja ett√§ t√§t√§ aineistoa kuuntelevat muut ihmiset. Kuka muukaan voisi onnistuneesti tehd√§ t√§m√§n? Tietokone on vain opetettu n√§ytt√§m√§ll√§ todella paljon esimerkkej√§ √§√§nest√§ ja vastaavasta tekstist√§, mutta ei se ole n√§in √§lyk√§s.¬†

Ehkäpä tulevaisuudessa myös osaamme suunnitella algoritmisia järjestelmiä niin, että niissä tulee paremmin esille järjestelmän kokonaisluonne. Kelalla on jo töissä monia virkakielen huoltajia. Milloin palkataan ensimmäiset algoritmisten järjestelmien luettavuuden parantajat?

 

Pit√§isik√∂ algoritmien pelastaa meid√§t ep√§varmuudelta?

https://www.flickr.com/photos/belgapixels/2703291441/
Kuva (cc) Belgapixel @Flickr

Viimeisten vuosien aikana on puhuttu paljon algoritmien vallasta, mutta keskusteluissa esiintyy monia erilaisia näkökulmia siitä, minkälaista tuo valta oikeastaan on. Yhtäältä on keskusteltu algoritmien kyvystä rajata ja muokata ihmistoiminnan mahdollisuuksia, esimerkiksi luokittelemalla ihmisiä ja ohjaamalla tiedon kulkua [1,2,3]. Toisaalta huomiota on kiinnitetty algoritmeja koskevien käsitysten ja odotusten rooliin toiminnan ohjaamisessa [4]. Tässä kirjoituksessa pohdimme yhtä mahdollista syytä sille, miksi algoritmit ylipäätään saavat valtaa.

Michel Crozier käsittelee kirjassaan The Bureaucratic Phenomenon [5] sitä, miten byrokraattisissa organisaatioissa valtaa keskittyy henkilöille, joilla on kyky hallita organisaation toimintaan liittyvää epävarmuutta. Hän kirjoittaa esimerkiksi tehtaan koneiden huoltohenkilökunnasta ryhmänä, jolle valtaa keskittyi, koska he kykenivät vähentämään tuotantokoneisiin liittyvää epävarmuutta.

Tuotantokoneiston huoltaminen oli tehtaiden toiminnan kannalta keskeistä ja huoltohenkilökunta muodosti asiantuntijaryhmän, jolla yksin oli huoltamiseen tarvittavaa osaamista. Tämä osaaminen antoi huoltohenkilöstökunnalle strategisen etulyöntiaseman suhteessa tehtaan muihin henkilöstöryhmiin. Byrokraattisesta rakenteesta huolimatta organisaatio oli kykenemätön hallitsemaan henkilöstöryhmien epämuodollista kanssakäymistä. Tästä johtuen koneiden rikkoutumiseen liittyvän epävarmuuden hallinta loi huoltohenkilökunnalle valtaa, jota he käyttivät neuvotellessaan ryhmänsä eduista.

Crozierin analyysissa byrokraattisten organisaatioiden keskeinen pyrkimys on kontrolloida organisaation toimintaan liittyviä epävarmuuden lähteitä. Epävarmuus organisaation toiminnassa luo hallitsematonta valtaa, joka tekee byrokraattisen järjestelmän toiminnasta epätehokasta.

Yksi byrokraattisten järjestelmien toimintaan liittyvän määrällistämisen tavoitteena on etäännyttää järjestelmien toiminta subjektiivisista ihmisarvioista [6]. Sama ilmiö näkyy myös erilaisten algoritmisten sovellusten käytössä. Algoritmien toivotaan paitsi eliminoivan epävarmuuden lähteitä, myös parantavan toiminnan tehokkuutta.  Usein toiveena on, että ihmisen päätöksenteon subjektiivisuuteen tai muihin heikkouksiin liittyvät ongelmat voidaan ratkaista uusilla datapohjaiseen analytiikkaan perustuvilla teknologisilla sovelluksilla [7,8]. Tämä epävarmuuden kontrollointi näkyy tapauksissa, joissa algoritmien käyttöä perustellaan niiden systemaattisuudella tai tasalaatuisuudella, kuten esimerkiksi algoritmisen analytiikan tehokkuutta ja ennustekykyä koskevissa odotuksissa [9]. Ennustekyvyn tarkentumisen ja toiminnan tehostamisen onkin esitetty olevan nykyanalytiikkaa keskeisesti ohjaavia odotuksia [10]. Yksi käytännön esimerkki ovat itseohjautuvat autot, joiden toivotaan olevan ihmisten ohjaamia autoja turvallisempia [esim. 11]. Personalisoidun terveydenhuollon taas toivotaan tarjoavan yksilöille entistä parempia tapoja hallita terveyttään [12]. Myös esimerkiksi tekoälyn käyttö yritysten rekrytointiprosesseissa on yleistymässä. Automatisoituja rekrytointiprosesseja perustellaan vedoten tehokkuuteen ja algoritmisen arvioinnin tasalaatuisuuteen [esim. 13].

Erving Goffman on käsitellyt esseessään Where the action is? [14] kohtalokkuutta. Hän liittää käsitteen päätöksiin, jotka ovat ongelmallisia ja seuraamuksellisia. Puhtaan ongelmalliset päätökset ovat sellaisia, joissa oikea päätös ei ole selvä, mutta päätöksellä ei ole laajemman elämän kannalta juurikaan väliä. Valinta sen suhteen, mitä katsoa televisiosta, on esimerkki tällaisesta päätöksestä. Esimerkiksi päätös lähteä joka aamu töihin taas on esimerkki seuraamuksellisesta päätöksestä, jossa oikea valinta on selvä. Kotiin jäämisellä voisi olla haitallisia seurauksia, joten valinnalle lähteä töihin on selkeät perusteet. Kohtalokkaat päätökset ovat sellaisia, joissa valinnalle ei ole selkeitä perusteita, mutta sen tekemisellä on laajakantoisia seurauksia Goffmanin mukaan pyrimme järjestämään arkemme niin, että päätöksemme eivät yleensä olisi kohtalokkaita.

Sama kohtalokkuuden vähentäminen on läsnä niissä toiveissa, joita esitämme algoritmeille. Toivomme niiltä apua tilanteissa joissa oikea päätös on epäselvä. Emme kuitenkaan pysty pakenemaan kohtalokkuutta kokonaan. Päätöksillä voi aina olla ennakoimattomia seurauksia. Koska olemme aina läsnä omana, fyysisenä itsenämme, yllättävissä tilanteissa kehomme voi esimerkiksi aina vahingoittua. Kaikkeen olemiseen liittyy riskejä.

Ajatuksella kohtalokkuuden eliminoimisesta on yhtym√§kohta Crozierin byrokratia-analyysiin. Byrokraattiset j√§rjestelm√§t kehittyv√§t juuri olosuhteissa, joissa toimintaan liittyv√§√§ ep√§varmuutta pyrit√§√§n eliminoimaan. Paradoksaalisesti juuri ep√§varmuuden eliminointiin k√§ytetty menetelm√§ ‚Äď tiukka toimintaa ohjaava formaali s√§√§nn√∂st√∂ ‚Äď johtaa vallan keskittymiseen organisaation niihin osiin, joista ep√§varmuutta ei saada kitketty√§. Samaten kohtalokkuuden eliminoiminen algoritmien avulla voi johtaa vallan toimimiseen juuri niiden teknologioiden v√§lityksell√§, joilla ep√§varmuutta pyrit√§√§n hallitsemaan. T√§st√§ n√§k√∂kulmasta yksi syy sille, ett√§ algoritmeille syntyy valtaa, on pyrkimys kontrolloida ep√§varmuutta, jota ei kuitenkaan t√§ydellisesti kyet√§ hallitsemaan. Algoritmisissa j√§rjestelmiss√§ valta toimii algoritmien kautta, mutta syntyy osana laajempaa ihmistoiminnan kontekstia. N√§in ollen algoritmista valtaa voitaisiinkin kenties tutkia kysym√§ll√§, mink√§laisia ep√§varmuustekij√∂it√§ algoritmien k√§yt√∂ll√§ pyrit√§√§n hallitsemaan, ja mik√§ mahdollisesti j√§√§ hallitsematta?

Jos joku lupaa auttaa meitä tekemään aina oikean päätöksen epävarmassa maailmassa, ei ole ihme että kuuntelemme. On kuitenkin syytä kiinnittää huomiota siihen, että samalla auttajille keskittyy valtaa.

Teksti: Jesse Haapoja & Juho Pääkkönen

– –
Kiitokset kommenteista Salla-Maaria Laaksoselle, Airi Lampiselle ja Matti Nelimarkalle. Tämä teksti kirjoitettiin osana Koneen Säätiön rahoittamaa Algoritmiset järjestelmät, valta ja vuorovaikutus -hanketta.

Lukemisen datafikaatio ja uskottavuus

Yhä useampi arkipäiväinen toimintamme muutetaan erilaisten digitaalisten välineiden avulla dataksi, jota käytetään erilaisiin laskennallisiin toimiin kuten käyttäytymisemme ennakointiin ja sisältöjen personointiin. Tätä prosessia kutsutaan datafikaatioksi. Ihmiset luonnollisesti tulkitsevat tätä prosessia kuten ympäristöään ylipäätään. Tässä blogikirjoituksessa keskityn lukemisen datafikaatioon ja miten ihmiset sitä ymmärtävät.

Julkaisimme hiljattain Airi Lampisen kanssa artikkelin, jota varten haastattelin jo suljetun uutissuosittelujärjestelmä Scoopinionin käyttäjiä ja pääkehittäjää. Scoopinion oli Suomessa kehitetty uutissuosittelujärjestelmä, joka seurasi käyttäjien lukuaikaa eri uutisartikkeleissa. Se suositteli käyttäjille heitä tältä pohjalta mahdollisesti kiinnostavia artikkeleita. Scoopinionia voidaan siis pitää yhtenä esimerkkinä datafikaatiosta.

Uskottavuus ja data

Haastatteluissa nousi esiin uskottavuus: koska Scoopinion keskittyi lukuajan mittaamiseen eikä perinteisempään klikkipohjaiseen analytiikkaan, kokivat haastateltavat sen antamat suositukset luotettavammiksi. Tämä luotettavuus syntyi ajatuksesta, että lukuaika on pelkkää klikkausta parempi todiste siitä, että datan lähde on pitänyt artikkelia kiinnostavana. Lukuajan ajateltiin siis edustavan paremmin lukijan arviota artikkelista. Tämä tapa kehystää lukuaika oli toki myös se tapa, jolla järjestelmän kehittäjät pyrkivät palveluaan markkinoimaan.

Scoopinionin uskottavuus siis rakentui lukemiseen liitettyjen merkitysten varaan, joita kehittäjät käyttivät hyväkseen sekä järjestelmää rakentaessaan että sitä markkinoidessaan. Järjestelmää käyttäneet ihmiset tulkitsivat järjestelmän toimintaa lukemiseen liitettyjen merkitysten kautta. Järjestelmää tehtiin ymmärrettäväksi pohjaten näihin merkityksiin, kuten esimerkiksi siihen, että ihmiset ajattelevina olentoina arvioivat lukemaansa omien mieltymystensä mukaan ja viettävät enemmän aikaa itseään kiinnostavien tekstien parissa kuin sellaisten tekstien, jotka heitä eivät kiinnosta. Toisaalta palvelu myös toi uusia merkityksiä lukemiselle: kun palvelu seurasi lukemista, lukeminen muuttui implisiittiseksi suosittelemiseksi. Tämän seurauksena palvelu, jossa käyttäjillä ei ollut mahdollisuutta nähdä muita käyttäjiä koettiin kuitenkin tietyllä tapaa sosiaalisena.

Algoritmiset palvelut osana laajempaa merkitysjärjestelmää

My√∂s muissa algoritmisissa palveluissa ymm√§rryst√§ rakennetaan niit√§ edelt√§vien merkitysten varaan, samalla kuitenkin tuoden niihin jotain erilaista. Facebook-yst√§v√§t eiv√§t ehk√§ tarkoita t√§sm√§lleen samaa kuin ihmiset jotka koemme yst√§viksemme sen ulkopuolella, mutta palvelu k√§ytt√§√§ kuitenkin hyv√§kseen yst√§vyyteen liitettyj√§ merkityksi√§. Kun kyydityspalvelu Uber alkoi menestym√§√§n, rupesivat monet muut jakamistalouspalvelut markkinoimaan itse√§√§n tietyn asian ‚ÄúUberina‚ÄĚ: uusien palveluiden uskottavuutta menesty√§ rakennettiin Uberin menestyksen p√§√§lle. N√§m√§ palvelut nojasivat t√§ll√§ kehyst√§misell√§ Uberiin liitettyihin merkityksiin, joka puolestaan on idealtaan hyvin samankaltainen kuin sit√§ vanhemmat taksipalvelut. T√§ss√§ tapauksessa korostui Uberin lupaus tehd√§ vanha asia kustannustehokkaammin ja antaa ‚Äútavallisille‚ÄĚ ihmisille mahdollisuus hy√∂ty√§ taloudellisesti toiminnasta, joka oli aiemmin n√§hty p√§√§osin tietyn ammattiryhm√§n toimialana.

Algoritmisia järjestelmiä sosiaalitieteellisestä näkökulmasta tutkittaessa tulisi huomioida, että usein niiden käyttämää dataa ja siihen liittyviä merkityksiä on hankalaa, ellei mahdotonta, erottaa itse algoritmeista, joita järjestelmät käyttävät. Usein data edustaa palveluissa ihmistä ja tästä datasta tehdään selkoa niiden käsitysten kautta, joita ihmisten toimintaan liitetään palvelun ulkopuolella.

Järjestelmät ovat ihmisten rakentamia ja niitä ruokitaan ihmisten toiminnalla. Ne ovat siis läpeensä sosiaalisia.

Artikkeli julkaistiin ihmisen ja tietokoneen välisen vuorovaikutuksen tutkimukseen keskittyvässä NordiChi-konferenssissa ja sitä tehtiin osana Koneen Säätiön rahoittamaa Algoritmiset järjestelmät, valta ja vuorovaikutus -hanketta.

Artikkelin tiedot:
Haapoja, J., & Lampinen, A. (2018). ‘Datafied’ Reading: Framing behavioral data and algorithmic news recommendations. In NordiCHI 2018: Revisiting the Life Cycle – Proceedings of the 10th Nordic Conference on Human-Computer Interaction (pp. 125-136). DOI: 10.1145/3240167.3240194

Algoritmit, ihmiset, ja vallank√§ytt√∂

Mitä algoritmit ovat ja miksi niistä pitäisi käydä yhteiskunnallista keskustelua?

Puhuin viime perjantaina meppi Liisa Jaakonsaaren j√§rjest√§m√§ss√§¬†“√Ąl√§ el√§ kuplassa: Algoritmit ja digitaalinen sivistys EU:SSA”¬†-seminaarissa. Saatuani kutsun tulla puhumaan algoritmeista, lupasin osallistua, kunhan puhuttaisiin my√∂s ihmisist√§ ja vallank√§yt√∂st√§.

Tässä muutama keskeinen ajatus esityskalvoja täydentämään:

1. Mitä algoritmit ovat?

Perinteisen teknisen määritelmän mukaan algoritmi on kuin resepti: yksityiskohtainen kuvaus tai ohje, jota seuraamalla tehtävä, prosessi tai ongelmanratkaisu suoritetaan. Tästä kelpaa esimerkiksi vaikka jakokulma. Nykyään algoritmeista puhuttaessa viitataan kuitenkin useammin oppiviin algoritmeihin ja koneoppimiseen: algoritmit oppivat ja kehittyvät käyttämänsä datan pohjalta, eivätkä lopputulokset siten ole samalla tavalla sääntömääräisiä kuin perinteinen määritelmä antaa ymmärtää.

Yhä useammin käytetään termiä algoritminen järjestelmä viittaamaan laajempaan kokonaisuuteen, joka pitää sisällään paitsi yksittäisiä koodinpätkiä, myös laajempia tietojärjestelmiä, ihmisiä, ja organisaatioita. Algoritmit eivät ole ympäristöstään irrallisia. On myös hyvä huomata, että siinä missä nyt puhutaan algoritmeista, muutama vuosi sitten puhuttiin big datasta. Paljolti on kyse samasta asiasta.

2. Algoritmeista puhuttaessa on puhuttava myös datasta

Algoritmeja tarvitaan, jotta voidaan käsitellä suuria määriä dataa, ja algoritmit tarvitsevat dataa toimiakseen ja oppiakseen. Niinpä algoritmeista puhuttaessa on puhuttava myös datasta:  Miten dataa tuotetaan & kootaan? Miten dataa luokitellaan & käytetään? Dataa tuotetaan ja kootaan yhä enemmän ja erilaisista tilanteista. Arkinen toimintamme jättää jälkiä, usein silloinkin, kun emme ajattele olevamme tekemisissä digitaalisten systeemien kanssa.

3. Kohtaamisemme algoritmien kanssa ovat arkisia, poliittisia, ja usein huomaamattomia

Google ja muut hakukoneet auttavat meitä löytämään tarvitsemaamme tietoa. Samalla ne kuitenkin määrittävät sitä, mitä näemme ja tiedämme. Ne heijastavat käyttämänsä datan vuoksi niitä ympäröivän yhteiskunnan vääristymiä, eivätkä ne toki ole itsekään neutraaleja välikäsiä. Facebookin uutisvirran kohdalla algoritmista sisällönkäsittelyä tarvitaan valikoimaan mediatulvasta kuvia ja kirjoituksia, jotka järjestelmä arvioi yksittäistä käyttäjää kiinnostaviksi. Pyrkiessään pitämään käyttäjät pauloissaan ja löytämään meitä kiinnostavia sisältöjä, Facebook voi päätyä vahvistamaan valintojamme (yhä enemmän kissavideoita kissavideoista pitäville).

Kolmantena esimerkkinä musiikkipalvelu Spotifyssakin toimintamme tuottaa dataa, joka ohjaa sitä, mitä meille tarjotaan. Emme ehkä ajattele tuottavamme dataa musiikkia kuunnellessa, mutta valintamme ovat osaltaan mukana palautekehässä, joka vahvistaa taipumuksiamme ja ohjaa sitä, millaisia uusia sisältöjä löydämme. Neljäntenä esimerkkinä tuotamme dataa myös kaupunkipyörällä ajellessa ja monissa muissa tilanteissa, joita emme ehkä tunnista digitaaliseksi vuorovaikutukseksi. Tuottamallamme datalla voi olla poliittisia seurauksia, kun sitä käytetään järjestelmien kehittämiseen. Jos vaikkapa kaupunkipyöräjärjestelmää kehitetään datavetoisesti, saatetaan päätyä vahvistamaan palvelua siellä, missä sitä on jo helppo käyttää, sen sijaan, että suunnattaisiin voimavarat sinne, missä tarve on suurin. Kenen ääni kuuluu ja huomaammeko tekevämme jotain poliittista silloin, kun arkisen toimintamme oheistuotteena syntyy dataa?

4. Teknologiaa on helpompi muuttaa kuin kulttuuria.

Kun puhutaan algoritmeista, ollaan usein huolissaan niiden vallasta ja vääristymistä, joita ne tuottavat. Yhteiskunnan vääristymät ja virheet löytävät kuitenkin tiensä myös digitaalisiin järjestelmiin. Esimerkiksi algoritmisten järjestelmien näkyväksi tekemä syrjintä on monesti lähtöisin datasta, jota järjestelmät käyttävät ja joka heijastaa yhteiskunnan historiallisia tai vallitsevia vinoutumia. Järjestelmiä voidaan muuttaa, jotta ne eivät vahvistaisi tai ylläpitäisi syrjintää, mutta syrjinnän kitkemiseksi on muutettava yhteiskuntaa laajemmin.

5. Algoritmiset järjestelmät muistuttavat byrokratiaa.

Tämänhetkisen algoritmikohinan keskellä on hyvä miettiä, mikä näissä järjestelmissä on oikeastaan uutta. Joiltain osin algoritmit muistuttavat byrokratiaa. On siis puhuttava siitä, miten algoritmit ja ihmiset toimivat yhdessä ja millaista valtaa toimintaan kulloinkin liittyy. Uhkana on, että puhumalla algoritmien vallasta vältytään puhumasta algoritmeista vallankäytön välineenä.

Lue lisää:

Mit√§ on fiksumpi sosiaalisen median analytiikka?

4601859272_4228421089_z
Kuva: (cc) Matt Wynn

Sosiaalisen median analytiikka pyörii yhä enimmäkseen asiasanahakujen ja niiden seurannan ympärillä. Miten kehittyneemmät tekstianalytiikan menetelmät voivat olla hyödyksi ymmärtämään, mistä keskusteluissa on kyse? Mitä reunaehtoja ja epävarmuuksia suurten lupausten automatiikkaan liittyy?

 

Tekesin rahoittama tutkimushankkeemme Smarter Social Media Analytics päättyi toukokuun lopussa. Tutkimushankkeessa pengoimme yli miljardin viestin sisältävää Futusomen somekeskusteluaineistoa automaattisen analytiikan keinoin ja selvitimme, miten keskusteludata rinnastuu muihin aineistoihin, muun muassa Taloustutkimuksen kyselydataan ja SOK:n tuotteiden myyntilukuihin.

Olemme hankkeen aikana testanneet lukuisia erilaisia ohjatun ja ohjaamattoman koneoppimisen muotoja. Lopputuloksena on syntynyt joitakin toimivia tapoja, mutta on tulut kohdattua myös useampi vesiperä. Mutta nepä vasta ovatkin oppimiskokemuksia! Tässä blogikirjoituksessa tiivistettynä hankkeen päätösseminaarissa pitämäni esitys, jossa koottuja oppejamme hankkeen ajalta.

**

1. Fiksumpi sosiaalisen median analytiikka on ihmisen ja koneen yhteistyötä

Sosiaalisen median analytiikkaan ‚Äď ja teko√§lykeskusteluun laajemminkin ‚Äď liittyy vahvasti laskennallisuuden rationalisointi ja ns. big data -myytti [1]: mik√§ tahansa numeroiksi muunnettava tieto, jota voidaan k√§sitell√§ algoritmisesti, on automaattisesti luotettavaa ja totta. N√§in on varsinkin, jos taustalla on isoja aineistoja eli kaikkien himoitsemaa big dataa.

Todellisuudessa kone on yksin√§√§n aika tyhm√§, ja automaattinenkin analytiikka vaatii yleens√§ algoritmin opettamista ja yhteisty√∂t√§ ihmisen kanssa. Opettaminen tapahtuu esimerkiksi luokittelemalla useita satoja tai tuhansia esimerkkiviestej√§ halutun kysymyksen mukaisesti. Projektissa esimerkiksi koulutimme algoritmia tunnistamaan ydinvoimaan my√∂nteisesti tai kielteisesti suhtautuvia viestej√§. Teht√§v√§ ei ole helppo, sill√§ ihmisten kannat ovat monipolvisia: “Ydinvoima on OK, mutta Rosatom ei.”

Matemaatikko ja data scientist Cathy O’Neil muistuttaa kirjassaan ja Ted Talk -puheenvuorossaan algoritmien vinoutumisesta: algoritmit automatisoivat status quo -tilaa, sill√§ ne rakentuvat aina historiallisen datan ja sen rakenteen p√§√§lle. Maailma ei ole t√§ydellinen, ja sen ep√§t√§ydellisyys heijastuu my√∂s koneoppimiseen ja teko√§lyyn. Siksi rinnalle tarvitaan ihmisajattelua arvioimaan algoritmien oikeellisuutta ja vaikutuksia.

2. Fiksumpi someanalytiikka vaatii mietittyä datan esikäsittelyä

Automaattiseen tekstianalytiikkaan piiloutuu paljon valintoja. Niiden tekeminen alkaa jo aineiston rajauksesta: harvoin on laskentaresursseja tutkija kaikkea saatavilla olevaa dataa, joten se pit√§√§ ensimm√§iseksi rajata tietyill√§ hakusanoilla. Mill√§ sanoilla saadaan esimerkiksi haaviin “koko” ydinvoimakeskustelu? Jokaisessa viestiss√§ ei v√§ltt√§m√§tt√§ mainita ydinvoima-sanaa, vaan t√§rkeit√§ avainsanoja voivat olla esimerkiksi voimaloiden sijaintipaikat. Hakusanojen kehittely vaatii usein sekin ihmisasiantuntijan aivoja.

Oleellista on myös ymmärtää käytössä olevan datan mahdolliset rajoitukset ja niiden vaikutukset analyysiin. Esimerkiksi tutkimuskäyttöön luovutettu Suomi24-aineisto on periaatteessa koko aineisto, mutta tietokantavirheen vuoksi aineistosta puuttuu paljon viestejä vuosilta 2004-2005. Tällainen kuoppa näkyy jokaisessa aineistosta piirrettävässä aikajanassa, ja sitä tuijottaessaan tutkija tulee helposti tehneeksi virheellisiä tulkintoja keskusteluaiheen katoamisesta ellei aineiston koostumus ole tiedossa.

Analyysialgoritmit vaativat usein myös aineiston esikäsittelyä. Suomen kielen kohdalla se tarkoittaa esimerkiksi aineiston perusmuotoistamista, joka vie aikaa ja resursseja. Lisäksi tekstimassasta poistetaan tyypillisesti yleisimmät, merkityksettömät sanat eli ns. stopwordit. Niiden poistaminen on kuitenkin samalla myös valinta siitä, mikä on merkityksellistä ja mikä ei. Kiveen hakattuja ohjeita tai yleisesti hyväksyttyä listaa ei kuitenkaan ole olemassa, vaan ratkaisuja tehdään tapauskohtaisesti. Tiedossa on, että  poistettujen sanojen lista vaikuttaa lopulliseen analyysiin, mutta on epäselvää millä tavoin.

3. Fiksumpi sosiaalisen median analytiikka tarvitsee ymmärrystä alustoista ja niiden kulttuureista

Laskemisen ja big datan huumassa on helppoa unohtaa laadullisen analyysin ja kulttuurisen ymmärryksen merkitys. Sosiaalisen median keskusteludata on hyvin kontekstuaalista dataa, jonka syntymiseen vaikuttaa paitsi yhteiskunta ympärillä, myös alustan teknologia ja kyseiselle alustalle muodostunut alakulttuuri. Palstoille voi esimerkiksi syntyä oma slangi ja hyvinkin erikoistunutta sanastoa. Suomen kielen käsittelijä ei välttämättä tunnista verkossa syntyviä uussanoja saatika tuttujen sanojen erikoisia käyttötapoja. Esimerkiksi keppihevonen tarkoittaa toisaalla oikeasti keppihevosta, mutta toisaalla tietynlaista poliittista diskurssia.

Lisäksi automaattisen tekstianalytiikan on osoitettu olevan hyvin kontekstiriippuvaista. Erot tulevat ilmi varsin pienissäkin muutoksissa: Yhdysvalloissa senaatin ylähuoneen puheesta koostuvalla aineistolla koulutettu luokittelualgoritmi ei enää toimikaan alahuoneen puhetta analysoitaessa [2]. Vuoden 2005 ruokapuhetta käsittelevä algoritmi ei pärjää tarpeeksi hyvin vuoden 2015 uuden kielen ja sanaston kanssa.

My√∂s monet teknologian tuottamat artefaktit muodostuvat hankalaksi automaattiselle analytiikalle. Esimerkiksi monella keskustelufoorumilla viestit l√§hetet√§√§n anonyymisti, jolloin kirjoittajana n√§kyy “Vierailija”. Kuin vierailija vastaa n√§ihin vierailijan viesteihin lainaamalla niit√§, syntyy ketjuja, joissa on h√§mment√§v√§n monta kertaa mainittu sana vierailija. Lopputuloksena esimerkiksi ohjaamaton aihemallinnus erottaa datasta aiheen, jossa puhutaan kovasti vierailijoista. Sen todellinen olemus ei avaudu kuin esimerkkiviestej√§ lukemalla.

4. Fiksumpi sosiaalisen median analytiikka on vähemmän mustia laatikoita

Viimeinen ja ehkä tärkein fiksumman sosiaalisen median analytiikan väittämä liittyy analyytikan tekemiseen ja palveluiden ostamiseen. Ala rakentuu tällä hetkellä hämmentävän vahvasti erilaisten mustien laatikoiden ympärille; käytössä on teknologioita ja algoritmeja, jotka on hienosti paketoitu tekoälyksi, mutta todellisuudessa niiden takana ovat samat kontekstiin, kieleen ja validiteettiin riippuvat ongelmat kuin yllä mainituissa esimerkeissä. Monet organisaatiot mittaavat esimerkiksi Facebookista suoraan saatavaa engagement-lukua ymmärtämättä täysin, mistä siinä oikeastaan on kysymys. Analytiikkayrityksen kauppaama keskustelun sentimenttiä kuvaava hieno piirakkadiagrammi ostetaan tyytyväisenä kyseenalaistamatta analyysissa käytettyä algoritmia.

Tämä ei tarkoita, että kaikki tehty automaattinen analytiikka olisi automaattisesti virheellistä. Mutta se tarkoittaa sitä, että analytiikan tekijöiltä vaaditaan lisää avoimuutta käytettyjen menetelmien sekä niiden heikkouksien suhteen sekä sitä, että analytiikan ostajat osaavat kysyä tarkentavia kysymyksiä mustan laatikon sisuksista. Kysymys on lopulta kielenkäytöstä: samalla tavalla kuin lääkärin on osattava selventää diagnoosi potilaalle, on datatieteilijän ja analytiikkayrittäjän osattava selittää analyysin kulku kansankielellä asiakkaalleen. Lääkärivertaus on myös sikäli osuva, että sosiaalisen median keskusteludiagnostiikka on sekään harvoin eksaktia tiedettä, pikemminkin konventioita ja estimaatteja. Pelissä on aina mukana epävarmuuselementti, jonka kanssa on vain elettävä.

Tiivistettynä kolmeen ohjenuoraan: mitä on #smartersome?

  1. √Ąl√§ aliarvioi ihmistulkintaa. Sille on varattava aikaa, jos aineistosta haluaa liiketoimintahy√∂tyj√§.
  2. Vietä päivä etnografina. Selvitä oman toimialasi kannalta oleellisimmat areenat ja tavat mitata keskustelua.
  3. √Ąl√§ osta mustia laatikoita. Kysy ja selvenn√§, mit√§ menetelm√§t tekev√§t. Kysy niin kauan, kunnes ymm√§rr√§t.

 

**
Lähteet:

[1] Desrosi√®res, A. (2001). How Real Are Statistics? Four Posssible Attitudes. Social Research, 68(2), 339‚Äď355.
Beer, D. (2017). Envisioning the power of data analytics. Information, Communication & Society, 21(3), 1‚Äď15.
Couldry, N. (2014). The Myth of Big Data. In Schäfer, M. T., & Van Es, K. (Eds.). The datafied society : studying culture through data. Amsterdam: Amsterdam University Press. Retrieved from http://oapen.org/search?identifier=624771
[2] Yu, B., Kaufmann, S., & Diermeier, D. (2008). Classifying Party Affiliation from Political Speech. Journal of Information Technology & Politics, 5(1), 33‚Äď48.¬†

Algorithmic Systems, Strategic Interaction, and Bureaucracy

What do algorithmic systems and bureaucracy have in common?

I gave on algorithmic systems, strategic interaction, and bureaucracy in the Making Sense of Algorithmic Systems symposium at the Annual Social Psychology Conference in Helsinki on November 18, 2017. The talk lays out early ideas in a domain that is (relatively) new for me. These have been developed in collaboration with Matti Nelimarkka, Jesse Haapoja, Juho P√§√§kk√∂nen & others ‚Äď but all mistakes are mine.

To accompany the slides above, here are the key ideas from the talk:

What might post-interaction HCI (Human‚ÄďComputer Interaction) look like? This is a conceptual shift we are grappling with and trying to make sense of ‚Äď focusing on direct and observable interaction between one individual and one device feels less and less sufficient (although those interactions, too, remain important). Inspired by Alex Taylor‚Äôs thoughts, I like to think of city bike systems as one example that pushes us to think about socio-technical systems and data in new ways.

The more we talk about algorithmic systems, the more we need to ask ourselves to be precise about how exactly they are different from socio-technical systems more broadly.¬†Algorithms, data, artificial intelligence and machine learning are words I‚Äôve heard awfully often this year ‚ÄĒ and there are problems with how they are used in public (and academic) conversations. There is lots of fear-mongering as well as moments when systems are narrated to hold more power and capabilities than they actually have etc.

One things that seems to be clear is that all things digital and the datafication of everything is attracting a lot of attention in a variety of fields ‚Äď and¬†critical researchers are already on it, too!¬†There has been a proliferation of critical studies of algorithms and data over the past years. This reading list, collected by Nick Seaver and Tarleton Gillespie is one fantastic place to start from if you‚Äôd like to get a glimpse of what is going on. Moreover, we need to keep asking questions about what algorithms are and in what way(s) they are interesting. One important observation underlying the shift to talk about algorithmic systems rather than algorithms on their own is the fact that algorithms don‚Äôt exist in isolation. On this account, I recommend¬†Algorithms and their Others, written by Paul Dourish.

Another source of inspiration for me has been this popular piece on the similarities between bureaucracy and algorithmic systems: Rule by Nobody. The analogy does not work 1:1, of course, but there is something to it. And this points to where I think social psychology has an opening to step in and speak up: our field has a lot of expertise on social interactions (also strategic ones) and organizations. These are needed in conversations about algorithmic systems.

For theoretical bases to work on algorithmic systems and strategic interaction, I recommend as a less known book by Erving Goffman, Strategic Interaction. It is a microsociological take of game theory! As I see it, there are (at least) two levels worth thinking about here: First, computer-mediated communication, including questions about¬†how does social interaction play out in the context of algorithmic systems and how do individuals and groups use these systems in strategic ways in interacting with others? Second, human‚Äďcomputer interaction, with questions about¬†how individuals and groups ‚ÄĚgame the algorithm‚ÄĚ and work around systems that are making it hard for them to accomplish their goals. Here, one might think about Uber drivers strategizing with one another (and against the company and its app) to make more money, but also about the kinds of workarounds that have long been observed as part of the ‚ÄĚnormal‚ÄĚ repertoire of how people make socio-technical systems work. Goffman‚Äôs work gives us tools to consider how individuals can interact with algorithmic systems (and with one another in the presence of these systems) in active, purposeful ways, rather than the dopes fooled by black boxes that popular accounts sometimes make us to be! But we need to be careful in considering what we can take from this work, focused on rich interactional settings (face-to-face).

When it comes to algorithmic systems and bureaucracy,¬†Max Weber’s scholarship is one obvious candidate to work with. I, however, am intrigued to revisit Michel Crozier‚Äôs work, especially the book The Bureaucractic Phenomenon, as a resource for thinking about interactions with algorithmic systems. Crozier‚Äôs work challenges perspectives that overemphasize the rational organizational structure of bureaucracy, and places emphasis on the strategic efforts of different stakeholders within these organizational systems. Looking at algorithmic systems from this point of view allows for analysing strategic interactions on the system level in a manner that does not do away with the impact of networked systems but also keeps us focused on the possible tensions between the different human actors. Here, too, we need to be careful in applying old tricks to a new show, since as Minna Ruckenstein pointed out in the symposium, the rules in bureaucracies are typically public knowledge whereas this tends not to be the case with proprietary algorithms.

(Finally, while this talk deals with another domain, most of my recent research deals with the so-called sharing economy. If you’d like to hear more, I’d be happy to hear from you. For my academic papers, take a look at my Scholar profile.)

 

Algoritminen julkisuus on vinoutunutta kyborgijulkisuutta

2453788025_fd51aeb4d9_z
(cc) runran @Flickr

Teknologia nähdään helposti neutraalina tiedonvälittäjänä. Moni viestinnän ammattilainen ei tiedä, miten teknologia toimii tai miten sen kanssa pitäisi toimia. Meidän pitäisi kuitenkin olla yhä tietoisempia siitä, miten esimerkiksi algoritmit meitä  tulevaisuudessakin ohjaavat.

“Software is, in other words, a part of a ‚Äėtechnological unconscious‚Äô (Clough, 2000), a means of sustaining presence which we cannot access but which clearly has effects, a technical substrate of unconscious meaning and activity.‚Ä̬†(Thrift, 2005)

Maantieteilijä-sosiologi Sir Nigel Trift on käyttänyt teknologisen tiedostamattoman käsittettä kuvaamaan teknologian ja ohjelmistojen vaikutusta eräänlaisena sosiaalisen elämän kehikkona, joka tiedostomattomasti vaikuttaa toimintaamme.

Viestinnän ja julkisuuden näkökulmasta teknologisen tiedostamattoman käsite kuvaa kahta asiaa: Ensinnäkin niitä informaatioteknologian tuntemattomia ominaisuuksia ja tapoja, jotka muokkaavat arkea ja erityisesti media-arkeamme, mutta joista emme useinkaan ole kovin tietoisia. Toisaalta käsite muistuttaa siitä, että monella viestinnän ammattilaisella ei ole tarpeeksi tietoa siitä miten teknologia lopulta toimii tai miten sen kanssa pitäisi toimia.

Teknologinen tiedostamaton määrittelee monella tapaa sitä, miten julkisuus muotoutuu. Keskeisin tämän hetken julkisuuden rakennuspalikka on newsfeed, uutisvirta, joka eri palveluissa jäsentää verkon sisältöjä pyrkien maksimoimaan huomion ja palvelussa vietetyn ajan. Käytännössä tämä tapahtuu erilaisten algoritmien avulla: pienet tietokoneohjelmat tai laskukaavat ohjaavat sisällön esittämistä aiempaan käyttäytymiseemme perustuen.

Huolestuttavaa on, että teknologia nähdään neutraalina tiedonvälittäjänä. Vuoden 2017 Edelman Trust Barometerissä vastaajat arvioivat hakukoneet kaikkein luotettavimmaksi tiedonlähteeksi. Perinteisen median luottamus puolestaan on romahtanut. Teknologia vaikuttaa puolueettomalta ja virheettömältä toimijalta samalla kun perinteinen media nähdään eliitin käsikassarana.

Algoritmit ovat kuitenkin tasan yhtä hyviä kuin mekin. Ihmisten toimintatavat, vinoumat ja virhekäsitykset siirtyvät suoraan niihin joko ohjelmoinnin tai koneoppimisen kautta. Hakukone suoltaa sisältöä, josta se arvelee etsijän pitävän aiemman verkkokäyttäytymisen perusteella. Teknologia tuottaa kaikukammioita, koska ihmiset ovat sosiaalisessa toiminnassa tyypillisesti mieluten oman viiteryhmänsä kanssa. Työnhakualgoritmi syrjii tummaihoisia. Microsoftin tekoälybotti jouduttiin ottamaan pois linjoilta, kun se oppi päivässä suoltamaan rasistista vihapuhetta Twitterin elämänkoulussa.

Sisältöjen kohdentamisessa ja teknologiajättien bisnesmallina vinotkin algoritmit kuitenkin toimivat hyvin. Facebook tahkoaa rahaa 6,4 miljardin dollarin liikevaihdolla. Käyttäjämäärät suosituissa sosiaalisen median palveluissa jatkavat kasvuaan, ja alustat tuottavat uusia toimintamuotoja, joilla pyritään maksimoimaan niissä vietetty aika. Julkisuuden ja demokratian kannalta kuitenkin ongelmallista on, että algoritmi ei osaa tehdä eroa eri sisältöjen välillä. Se tarjoilee samalla logiikalla kenkiä, lääkkeitä ja politiikkaa. Syyskuussa 2017 Facebookissa pystyi esimerkiksi kohdentamaan mainoksia suoraan juutalaisvihaajille.

Rahalla siis saa. Bisneslogiikan nimissä samaan aikaan mediayhtiöt ovat huomanneet, että Facebookin algoritmi näyttää entistä vähemmän mediatalojen postauksia niiden seuraajille. Sen sijaan se painottaa sosiaalisuutta ja engagementtia: newsfeedissä näkyy todennäköisimmin sisältöjä, joita kaverisi ovat jakaneet, tykänneet tai kommentoineet. Faktoilla ei tässä pelissä ole arvoa. Sen sijaan tunteilla ja epärehellisyydellä on.

Tämä logiikka on voimalain logiikkaa (Matthew effect). Mikä tahansa tahmainen, ihastuttava tai vihastuttava sisältö päätyy todennäköisemmin näytetyksi, ja sisällön suosio kasvaa entisestään. Siksi julkisuudestamme muodostuu väistämättä tunnejulkisuus, joka etenee kohusta toiseen. Teknologinen tiedostamaton on siis lopulta hybridiä ihmisyyttä, julkisuuden muodostumista kyborgitoimijoiden kautta.

Viestinnän ammattilaisen näkökulmasta huolestuttavaa on se, että teknologian edistämä logiikka hiipii myös niihin tapoihin, joilla viestintää tehdään ja mittareihin, joilla sitä mitataan. Klikkien tuijottamisesta on kenties päästy piirun verran eteenpäin, mutta nyt uusi mittari, jota kaikki maanisesti tuijottavat on sisällön aikaansaama sitoutuminen, engagament.

Se on muuten Facebookin kaupallista menestymistä varten tehty mittari.

Mitäpä jos pakasta napatun mittarin sijasta viestinnän ammattilaiset itse rohkeasti määrittelisivät, mitä on hyvä viestintä, mitä on vaikuttavuus ja miten sitä halutaan mitata?

– –
Salla-Maaria Laaksonen (VTT) on viestinnän ja teknologian tutkija Viestinnän Tutkimuskeskus CRC:ssa ja Kuluttajatutkimuskeskuksella.

Blogikirjoitus on rinnakkaispostaus Viesti ry:n blogista. ja perustuu HY+:n ja Viesti ry:n Viestinnän tulevaisuus -tilaisuudessa 26.9.2017 pidettyyn puheenvuoroon.

Algoritmit uutisissa: ensimm√§isi√§ havaintoja

Minua kiinnosti kuinka suomenkielisessä mediassa puhutaan algoritmeistä, tekoälystä ja koneoppimisesta; tuosta tämän päivän maagisesta taikuudesta. Ensimmäinen yllätykseni on, että ensimmäinen osuma varsin laajassa media-aineistossamme on vuodelta 1994! Noin muutekin hämmennyin kun Aamulehden uutisoinnissa ei ole selkeää tihentymää tai määrän kasvua Рuutisointi on ollut erittäin aktiivista jo vuodesta 2000. Yleisradiolla sen sijaan nähdään selvästi, kuinka uutisointi on kasvanut noin 2012 vuodesta erittäin paljon, mutta sitä ennen uutisissa nämä taikasanat ovat olleet enemmänkin sivuhuomioita.

Screenshot 2017-07-12 16.42.20
Aamulehden uutiset missä on sana algoritmi, tekoäly tai koneoppiminen
Screenshot 2017-07-12 16.42.09
Yleisradion uutiset missä on sana algoritmi, tekoäly tai koneoppiminen

 

Havaitsimme Aamulehden olleen poikkeuksellisen aktiivinen algoritmiuutisoinnissaan jo 2000-luvun alkupuolella, kun Yle siitä villiintyi vasta 2010-luvun puolella. Selvää kuitenkin on, että 2010-luvulla algoritmeistä puhutaan merkittävästi enemmän kuin 2000-luvulla.

Aiheiden osalta käytimme aina yhtä trendikästä aihemallinnusta ja uutisaineistosta löytyikin 41 erilaista aihetta Рjotka selkeyden takia luokittelimme kymmeneen ryhmään:

  1. Pelit ja peliarvostelut
  2. Tekniikan kehitys, esimerkiksi itsestään ajava auto sekä tekoäly
  3. Elokuvat, viihde ja taide
  4. Kaupalliset palvelut ja niiden algoritmit
  5. Tutkimus algoritmeistä
  6. Tietoturvallisuus
  7. Ohjelmoinnin opetus peruskoulussa
  8. Työllisyys ja työelämän murros
  9. Algoritmien kaupallinen arvo
  10. Algoritmit ja maailmanpolitiikka
timeline.png
Algoritmit uutisissa teemoittain

Havainnoimalla eri teemojen näkyvyyttä mediassa huomaamme, että 2000-luvun alusta tähän päivään on tapahtunut siirtymä viihteistä ja peleistä erityisesti kaupallisten palveluiden algoritmien pohdiskeluun ja esimerkiksi algoritmien vaikutukseen työelämässä.

Temaattinen muutos on tervetullut algoritmisten järjestelmien yhteiskunnallisen merkittävyyden takia, mutta yhteiskuntatieteissä juuri nyt trendikäs kriittinen algoritmitutkimus ei ainakaan tämän analyysin perusteella ollut erityisesti esillä. Ehkäpä peruskoulun ohjelmointiopetuksessa kannattaisi käyttää myös muutama tunti pohtimaan teknologian valtaa eikä vain yrittää oppia ohjelmoinnin alkeita?

Kiitämme Yleisradiota sekä Alma mediaa tutkimukseen käytettyjen aineistojen tuomisesta käyttöömme. Perinteisestihän Suomessa on aina tutkittu Helsingin Sanomia, mutta heidän kautta media-aineistoa ei ole saatavilla.

Nyt malttia Kela – digitalisaatio ja julkinen hallinto

computer2bsays2bnoEräs työkaverini huomasi, että Kelakin on lähtenyt mukaan digitalisaatiopöhinään. Kela hienosti kuvaa, kuinka ensimmäisenä sujuvoitetaan prosesseja ja mietiään, miten tämä pitäisi tehdä; vasta tämän jälkeen asia digitalisoidaan. Samaan aikaan tekstistä kuitnekin huokuu tietty usko siihen, että palveluprosessia voi selkeyttää käyttämällä Suomessa tällä hetkellä ah-niin-trendikästä tekoälyä.

Jansson & Erlingsson (2014) kuvaavat sähköisen hallinnon (e-Government) kehittymistä Ruotsissa 1980-luvulta 2000-luvulle. Heidän mielenkiintoisin löydös liittyi useisiin yrityksiin automatisoida ja vähentää julkishallinnon asiakaspalvelun määrää: automaattiset prosessit eivät koskaan osaa tulkita sääntöjä rivien välistä sekä harkita kokonaisuutta. Toki voidaan sanoa, ettei kokonaistilanteen tulkinta ei ole ollut ennekään Kelan vahvuus, joten ehkä tässä ei menetetä mitään. On kuitenkin syytä pitää mielessä Janssonin & Erlingssonin huomio

The fact that technology does not discriminate, but treats everyone as equal, there- fore becomes both its biggest advantage and disadvantage‚ÄĒthe former because arbitrariness can be avoided and the latter because various needs, issues, or skills are not captured

Kelan kuvaama visio digitalisaation mahdollisuuksista todellakin tuo esille sitä, että vihdoinkin on mahdollista palvella kaikki samalla tavalla ja hehkutetaan, kuinka tämä on parannus nykytilanteeseen. Esimerkiksi Kelan esimerkki siitä kuinka työttömäksi jäänyttä autetaan tulevaisuudessa näyttää tietyn deterministisyyden lähestymistavassa:

Kone voi hahmottaa esimerkiksi työttömäksi jääneen ihmisen tilannetta jatkokysymyksillä. Tiedätkö, milloin uusi työ on alkamassa? Oletko kiinnostunut koulutuksesta? Haetko työttömyysetuutta?

Tarkoitukseni ei ole kuitenkaan vain nurista tai änkyröidä. Digitalisaatiossa on paljon mahdollisuuksia prosessien yksinkertaistamisessa. Esimerkiksi automaatisoitu veroehdotus on hyvä esimerkki siitä, miten kokonaista ajatusmaailmaa voidaan kääntää kerralla oikeaan suuntaan.

Kelassakin on varmasti prosesseja, joita voi automatisoida erittäin helpposti Рesimerkiksi opintotuen myöntäminen sekä lapsilisät. Näissä elämänvaiheissa ei yleensä ole muuten isoa kriisiä missä olisi syytä tarkastella koko yhteiskunnan turvaverkon toimintaa.

Mutta esimerkiksi ty√∂tt√∂myydess√§ – vaikka se perusturvan my√∂nt√§minen on helppoa – voisi olla hyv√§ksi samaan aikaan tarkastella el√§m√§√§ laajemmin. Olisiko syyt√§ yritt√§√§ hakea toimeentulotukea? Miten Kelan, kunnan ja ty√∂voimaviranomaisten palvelut muodostavat yhtenev√§n kokonaisuudeen? N√§it√§ kysymyksi√§ ei sellaisenaan voine j√§tt√§√§ automaation varaan, varsinkaan jos se toteutetaan mit√§ Neyland & M√∂llers (2016) kutsuivat if-then -s√§√§nn√∂ill√§, eli yksinkertaisiksi “jos t√§m√§ pit√§√§ paikkansa tee n√§in”-mallehin. Minun ei ole mit√§√§n syyt√§ ep√§il√§, etteik√∂ Kelan pyrkimys olisi t√§m√§n kaltaiseen automatisaatioon, koska kaikki ehdot voitaisiin silloin ottaa suoraan Kelan s√§√§ntelyst√§. T√§ll√∂in kyseess√§ on joustamaton ja etuk√§teen m√§√§ritelty l√§hestymistapa sosiaaliturvaan.

Toki tekoälyllä voisi tehdä paljon muutakin! Voidaan mielikuva-harjoituksena miettiä osittain ohjattua tai ohjaamatonta koneoppimista sosiaaliturvan osana: sen sijaan, että säädökset sanoisivat tarkkaan, mitä tukea annetaan ja kuinka paljon, annettaisiin tekoälylle hieman vapautta säädellä itseään. voitaisiin miettiä myös muuta tapaa lähteä (mihin uskon Kelan paljon puhuman tekoälyn perustuvan; siellä tuskin on taustalla esimerkiksi pyrkimystä tehdä laajaa koneoppivaa prosessia, joka korjaisi toimintaansa huomattuaan, mitä vaikutuksia sosiaaliturvapäätöksillä oli. (Ei, en pidä tätä hyvänä ideana; mutta venytellään vähän aivoja siitä, mitä tekoälyllä voisi saada aikaan.)

Tiivistäen: digitalisaatio ei mielestäni ole sellaisenaan hyvä tai paha. Kysymys on enemmän löytää tasapaino automatisoitujen palveluiden ja automatisoimattomien palveluiden kohdalla. Koen, että sosiaaliturva on eräs alue, missä tiukka byrokratia (joko algoritmisesti tai algoritmittomasti) ei välttämättä tuota yhteiskunnan kannalta parasta lopputulosta. Sen sijaan pitäisi pyrkiä arvioimaan kokonaiskuvaa ja rakentaa tukijärjestelmiä tämän kautta Рmissä ihmiset ovat usein parempia kuin mikään tekoälyllinen prosessi.

 

Hajaantukaa ‚Äď t√§√§ll√§ ei ole mit√§√§n n√§ht√§v√§√§ – algoritmikeskustelusta Suomessa (osa 1)

Screenshot 2017-03-15 11.42.35Algoritmit ovat kuuma aihe paitsi julkisessa keskustelussa, myös kansainvälisessä yhteiskuntatieteellisessä kirjallisuudessa. Pelkästään viime vuoden aikana julkaistiin ainakin kolme erikoisnumeroa, missä käsiteltiin algoritmeja ja niiden roolia yhteiskunnassa. Niin akateemisessa keskustelussa, kuin populaareissakin teksteissä on aistittavissa tietynlainen algoritmien musta magia. Algoritmit eivät ole mitään taikaotuksia jotka hallitsevat maailmaa. Algoritmi on Wikipedian ensimmäisen lauseen mukaan

yksityiskohtainen kuvaus tai ohje siitä, miten tehtävä tai prosessi suoritetaan; jota seuraamalla voidaan ratkaista tietty ongelma.

Maailma on siis täynnä digitaalisia ja vähemmän digitaalisia algoritmeja. Silti pääpaino tuntuu olevan digitaalisissa ympäristössä, kuten Kari Haakanan suomenkielisessä pohdinnassa, vaikka siinä taitavasti tuodaan yhteen jopa klassista teknologian tutkimuksen argumenttejä. On totta, että digitaalisuus todella muuttaa monia ympäröiviä tapahtumia ja algoritmit ovat digitaalisuudessa  keskeisessä roolissa. Vastaavia yksityiskohtaisia kuvauksia ja ohjeita ongelman ratkaisuun on kuitenkin  aina ollut olemassa.

Esimerkiksi Kelan viimeaikainen toimeentulotukisotku monine muotoineen her√§tt√§√§ varsin paljon kysymyksi√§ toimeentulotuen laskennassa k√§ytetyst√§ algoritmista. En tied√§ onko taustalla tietoj√§rjestelm√§n sotkut vai muuten prosessisuo, mutta julkisuuteen nostetut esimerkit ‚Äď kuten tarve my√∂nt√§√§ henkil√∂lle sentin toimeentulotuki maksusitoumusten saamiseksi eteenp√§in¬† ‚Äď kertovat, ett√§ ‚ÄĚalgoritmi‚ÄĚ ei nyt oikeastaan toimi erityisen j√§rkev√§sti. Ehk√§ t√§ss√§ tullaan keskeiseen huomioon, jota jo Jansson & Erlinngsson (2014)¬†havaitsivat jo aiemmasta tutkimuksesta: haasteena digitaalisissa (sek√§ ei-digitaalisissa) algoritmeissa on s√§√§nt√∂jen joustamattomuus ‚Äď usein todellinen maailma ei sopeudu tiukkaan algoritmin ajattelemaan muotoon.

Tässä kohtaa ehkä voi huokaista helpotuksesta, algoritmit ovat kuin todella tarkkoja byrokraatteja. Mutta missä sitten piilee digitalisaation suuri mullistus? Miksi algoritmit ovat niin tapetilla yhteiskuntatieteellisessä kirjallisuudessa ja miksi niistä vouhkotaan (juuri nyt) niin paljon?

On toki totta, että digitaalisten palveluiden myötä me kaikki altistumme mahdollisesti uudenlaiselle, näkymättömälle byrokratialle ja vallankäytölle. Uutta ehkä on, että nyt päätöksentekijänä voi olla joku kasvottomalta näyttävä järjestelmä (noh, en tiedä onko se Kela yhtään parempi esimerkki kasvollisesta järjestelmästä). Mutta, kuten useimmiten, kaiken takaa löytyy kuitenkin ihminen. Algoritmi on aina ihmistoimijoiden tuottama väline, joka toteuttaa ihmistoimijoiden suunnitteleman prosessin. Teknologia-alan demografian perusteella tuo ihmistoiija on melko varmasti valkoinen mies, vaikkei tosin keski-ikäinen. Ja tässä nyt ei ole mitään uutta taivaan alla, valitettavasti. Jyllääväthän valkoiset (keski-ikäiset) miehet monessa muussakin yhteiskunnan päätöksenteon koneessa.

Yhteiskuntatieteellinen mielenkiinto algoritmeihin selittyy niiden tuoreudella. Kyseess√§ on konkreettinen uusi ‚ÄĚesine‚ÄĚ, jota m√§tki√§ tutkimusmenetelmill√§ ja ajatuksilla. Ja tuoreet aiheet usein her√§tt√§v√§t tutkijoiden mielenkiintoa, koska ne ovat uusia ja tuoreita. Toki on tutkimukselle my√∂s tarvetta. Kuten Kitchin (2017) huomauttaa, kriittist√§ tutkimusta algoritmeista on v√§h√§n ‚Äď varsinkin verrattuna kaikkeen muuhun algoritmitutkimukseen esimerkiksi tietojenk√§sittelytieteess√§ ja insin√∂√∂ritieteiss√§.¬†Pohdinkin siis,

  • Miten julkisessa keskustelussa k√§ytet√§√§n sanaa algoritmi ja mit√§ sill√§ oikeastaan tarkoitetaan?
  • Miten perinteiset vallank√§yt√∂n muodot soveltuvat algoritmien kritisoimsieen ja mit√§ uutta algoritmit tuovat esimerkiksi perinteiseen byrokratian ajatukseen?
  • Voisimmeko silti koettaa olla nostamasta algoritmia kultaiselle jalustalle ja sen sijaan purkaa mit√§ oikeastaan tarkoitamme sill√§?

Postailen kevään aikana enemmän ajatuksiamme tästä aiheesta ja käsittelemme tematiikkaa myös meetupeissamme.