Algoritmit uutisissa: ensimmäisiä havaintoja

Minua kiinnosti kuinka suomenkielisessä mediassa puhutaan algoritmeistä, tekoälystä ja koneoppimisesta; tuosta tämän päivän maagisesta taikuudesta. Ensimmäinen yllätykseni on, että ensimmäinen osuma varsin laajassa media-aineistossamme on vuodelta 1994! Noin muutekin hämmennyin kun Aamulehden uutisoinnissa ei ole selkeää tihentymää tai määrän kasvua – uutisointi on ollut erittäin aktiivista jo vuodesta 2000. Yleisradiolla sen sijaan nähdään selvästi, kuinka uutisointi on kasvanut noin 2012 vuodesta erittäin paljon, mutta sitä ennen uutisissa nämä taikasanat ovat olleet enemmänkin sivuhuomioita.

Screenshot 2017-07-12 16.42.20
Aamulehden uutiset missä on sana algoritmi, tekoäly tai koneoppiminen
Screenshot 2017-07-12 16.42.09
Yleisradion uutiset missä on sana algoritmi, tekoäly tai koneoppiminen

 

Havaitsimme Aamulehden olleen poikkeuksellisen aktiivinen algoritmiuutisoinnissaan jo 2000-luvun alkupuolella, kun Yle siitä villiintyi vasta 2010-luvun puolella. Selvää kuitenkin on, että 2010-luvulla algoritmeistä puhutaan merkittävästi enemmän kuin 2000-luvulla.

Aiheiden osalta käytimme aina yhtä trendikästä aihemallinnusta ja uutisaineistosta löytyikin 41 erilaista aihetta – jotka selkeyden takia luokittelimme kymmeneen ryhmään:

  1. Pelit ja peliarvostelut
  2. Tekniikan kehitys, esimerkiksi itsestään ajava auto sekä tekoäly
  3. Elokuvat, viihde ja taide
  4. Kaupalliset palvelut ja niiden algoritmit
  5. Tutkimus algoritmeistä
  6. Tietoturvallisuus
  7. Ohjelmoinnin opetus peruskoulussa
  8. Työllisyys ja työelämän murros
  9. Algoritmien kaupallinen arvo
  10. Algoritmit ja maailmanpolitiikka
timeline.png
Algoritmit uutisissa teemoittain

Havainnoimalla eri teemojen näkyvyyttä mediassa huomaamme, että 2000-luvun alusta tähän päivään on tapahtunut siirtymä viihteistä ja peleistä erityisesti kaupallisten palveluiden algoritmien pohdiskeluun ja esimerkiksi algoritmien vaikutukseen työelämässä.

Temaattinen muutos on tervetullut algoritmisten järjestelmien yhteiskunnallisen merkittävyyden takia, mutta yhteiskuntatieteissä juuri nyt trendikäs kriittinen algoritmitutkimus ei ainakaan tämän analyysin perusteella ollut erityisesti esillä. Ehkäpä peruskoulun ohjelmointiopetuksessa kannattaisi käyttää myös muutama tunti pohtimaan teknologian valtaa eikä vain yrittää oppia ohjelmoinnin alkeita?

Kiitämme Yleisradiota sekä Alma mediaa tutkimukseen käytettyjen aineistojen tuomisesta käyttöömme. Perinteisestihän Suomessa on aina tutkittu Helsingin Sanomia, mutta heidän kautta media-aineistoa ei ole saatavilla.

Varovaisuutta aihemallinnuksen kanssa

Eräs laskennallisten menetelmien tällä hetkellä suosituin sovellus on aihemallinnus eli topic modeling. Se mahdollistaa laajojen tekstiaineistojen jakamisen ryhmiin ja tällä tavalla “kaukoluvun” aineistosta. Tietenkään sen ei koskaan ole tarkoitus korvata aineiston lähilukua (esim. Grimmer & Stewart, 2013), mihin voi käyttää vaikka etnograafisia menetelmiä.

Eräs valinta aihemallinnuksesta on aiheiden määrän, eli tutummin, k:n valinta. Kirjallisuudessa usein esiintynyt tapa tähän on katsoa muutama eri arvo ja valita näistä selkeiten tulkittavissa oleva. Kritisoin tapaa jo marraskuun Rajapinta-meetupissa. Yksinkertainen koeasetelma näytti kuinka ihmisten mielipide selkeydestä vaihtelee merkittävästi.

Aihemallinnus: tuloksia eri k:n arvoilla
Alustava luokitus aineiston sisällöstä eri aihemallinnuksilla. Katso vain kuva.

Kuvassa näemme kuinka niiden tulkinnat myös tuottavat hiukan erilaisia näkemyksiä aineistoista. (Varoitus: nämä ovat vielä alustavia nimiä, eli en ole vielä itse täysin tyytyväinen näihin.) Olen pyrkinyt ryhmittelemään aineiston niin, että samanteemaiset aiheet olisivat samalla rivillä.

Kuvasta nähdään esimerkiksi kuinka aiheiden määrän lisääntyminen kahteenkymmeneen aiheeseen selkeästi tuo jotain uusia ajatuksia aineistoon, erityisesti alueelisuuden ja globalisaation. Toisaalta aiheena esimerkiksi suomalaisuus on osassa malleissa mukana ja osassa ei, mikä luultavasti kuvaa aihemallinnusprosessissa olevaa satunnaisuutta. Toisaalta 26 ja 30 aiheen mallit tuovat esille taloudellisuuden, perusturvan sekä edustuksellisuuden aiheita.

Aihemallinnuksen soveltajille uutiset ovat valitettavia: en itse pitäisi sopivana ajaa aihemallinnusta teoreettisesti mielekkäällä lukumäärällä tai tutkimalla muutamaa eri aihemäärää. Riskit vääristä tulkinnoista ovat ilmeiset näissä tapauksissa. Sen sijaan pitäisin itse toivottavana aihemäärän valitsemista laskennallisin kriteerein, kuten log-likelihood arvoja käyttämällä. Vaikka näistäkin käydään ritstiriitaista keskustelua, tämä silti vähentäisi tiettyä epävarmutta mikä nykyiseen käytäntöön tulee.

Erityiskiitos Koneen Säätiölle tutkimuksen tukemisesta sekä Tieteen tietotekniikan keskus CSClle laskenta-ajasta.

Kuinka normatiivisia teorioita voisi hyödyntää käyttöliittymätutkimuksessa?

Slide27Tieteen ja teknologian tutkimuksessa on jo pitkään ymmärretty, että tekniset välineet sisältävät myös arvoja (esim. Nissenbaum, 2005)⁠. Jokainen järjestelmä on eräs valinta useista eri vaihtoehdoista ja mahdollisuuksista järjestelmän suunnittelussa (esimerkiksi Liste & Sørensen, 2015)⁠. Käyttöliittymätutkimuksessa onkin nostettu esille arvojen rooli osana suunnitteluprosessia. Esimerkiksi arvotietoiset suunnitteluprosessit (value sensitive design) perustuvat arvojen parempaan esilletuontiin suunnittelutyön aikana sekä ratkaisemaan mahdollisia arvoristiriitoja. Arvoja voisi kuitenkin käyttää laajemminkin käyttöliittymätutkimusessa – ne tarjoavat mahdollisuuden integroida teoriaa ja empiiristä tutkimusta. “Uuden” teknologian tutkimus kaipaakin tarkempaa teoriaotetta – jopa 70% yhteiskuntatieteellisestä tutkimuksesta oli teoriatonta (Borah, 2015)⁠; samanlaista vertailua ei ole toistaiseksi tehty käyttöliittymätutkimusyhteisöissä, mutta uskon, ettei tulos olisi merkittävästi parempi. Jotta tutkimus siirtyisi pois kuvailevata ja uusimman teknologian perässä juoksevasta tutkimuksesta keskeisempiin kysymyksiin, olisi mielestäni aika ryhdistäytyä ja pohtia teorian roolia osana tutkimustyötä.

Mutta, mikä oikeastaan on teoria? Yhteiskuntatietelijänä huomasin aikaa sitten, että teoria voi olla monelaisessa muodossa. Ennustavat ja selittävät teoriat pyrkivät kuvaamaan yhteyksiä, kun taas kuvailevat teoriat auttavat käsitteellistäään (ja usein jargonisoimaan) ilmiötä. Normatiiviset teoriat taas keskittyvät pohtimaan, että miten asioiden pitäisi olla. Ennustaville, selittäville ja kuvaileville teorioille on paljon ohjeita, mutta normatiiviset teoriat ovat – ainakin minulle – vielä piikki lihassa. Miten normatiivisia teorioita voisi esimerkiksi validoida? Kuitenkin, pidän normatiivisista teorioista koska niissä tuodaan selkeästi esille tutkijan subjektiivinen asema. Tutkija kun ei ole neutraali toimija vaan tutkijan asenne ja näkemykset vaikuttavat niin tutkimuskysymyksen valitaan kuin aina välillä myös tuloksiin. Normatiivissa teorioissa arvot on jo sisällytetty teoriaan itseensä.

Ratkaisuna normatiiviseen teoriaan pohjautuva tutkimus

Sovelsimme Harmasilaista maailmankuvaa julkisesta tilasta ymmärtääksemme tietokoneavusteista viestintää luokkahuoneessa. Havaitsimme, että tietokonevälitteinen viestintännässä on useampia osallistuja verrattuna kasvoikkain tapahtuvaan ryhmäkeskusteluun. Habermasilaista maailmankuvaa noudatellen, osallisuuden lisäksi myös toisten ihmisten arvostaminen sekä rationaalinen keskustelu ovat tärkeitä. Muiden osallistujien arvostamisessa emme havainneet merkittävää eroa muotojen välillä, mutta rationaalisen keskustelun osalta kasvokkain tapahtuva keskustelu oli parempaa. Työn mielenkiintoinen paino ei kuitenkaan ole täysin tässä teoriassa, vaan laajempi pohdinta kietoutuu normatiivisen teorian hyötyjen ympärille.

Normatiivisen teorian ensimmäinen hyöty tulee siitä, että se on teoria. Kuten muihinkin teorioihin, siihen liittyy monia menetelmällisiä ja empiirisiä havaintoja. Esimerkiksi deliberatiivisen teorian kautta käytössämme oli useita validoituja mittareita arvioidaksemme osallistumisen habermasilaisuutta. Lisäksi julkisen tilan käsitteestä on kirjoitettu jopa tietojenkäsittelytieteessä ja tätä kautta tutkimukselle syntyi ympäristö, johon se pystyi sitoutumaan. Tutkimus samassa tilassa olevien henkilöiden tietokonevälitteisestä viestinnästä on ollut varsin hajanaista ja aiheiltaan jopa poppivaa. Normatiivisen teorian kautta sille muodostui kuitenkin mielekäs ympäristö; hajanaisen tutkimuksen sai kursittua kasaan.

Käyttöliittymätutkimus ei ole vain empiiristä, vaan myös konstruktiivistä – vaihtoehtoisia tietokonelaitteita ja ohjelmia luovia. Normatiivisen teorian toinen hyöty onkin nimenomaan konstruktiiviselle tutkimuselle. Konstruktiivisessa tutkimuksessa isoimpia haasteita on perustella tehtyjä valintoja – mitä on aina useita. Miten tietynlainen käyttöliittymäongelma voitaisiin ratkaista mielekkäästi? Normatiivinen teoria auttaa rajaamaan kaikista mahdollisista suunnitteluvaihtoehdoista merkittävimmät teorian kannalta. Samaan aikaan se voi tukea löytämään uusia inspiraation lähteitä, kun muiden alan tutkijoiden työt voivat puhutella työtäsi selvästi – jopa siinä tilanteessa, että heidän sovelluskohde teorialle saattoi olla etäinen.

Tosin, normatiivinen teoria pakottaa myös tuomaan esille arvot jotka on koodattu kaikkiin teknisiin järjestelmiin. Perinteisin esimerkki on Winnerin (1985) esilletuomat Mosesin sillat – jotka olivat tehty niin mataliksi, ettei tiettyihin kaupungin osiin voinut julkisilla kulkea. Ongelma ei ole täysin tuntematon käyttöliittymätutkimuksessakaan. Arvojen mukaanottamiseksi kehittyi arvopohjaisen käyttöliittymätutkimuksen koulu ja siellä keskeinen kysymys on ollut miten eri käyttäjien arvojen välillä tasapainoillaan. Samalla tavoin normatiivisen teorian kohdalla voi hyvällä perusteella kysyä, millä perusteella tutkijat voivat vain ottaa tietyn normatiivisen aseman ja käyttää sitä tutkimuksessa. Tämä on erityisen huolestuttavaa jos tarkoituksena on muokata järjestelmää tarkemmin jotain arvoja noudatettavaksi – onko se eettistä, että koehenkilöt joutuvat käyttämään järjestelmää, missä arvot ovat voimakkaasti läsnä. Minulla ei ole vielä oikeaa vastausta mahdollisiin arvoristiriitoihin, joten jätetään se tässä välissä oman pohdinnan varaan.

Tiivistelmä: mitä oikeastaan opimme?

Tiivistelmänä – olen viettänyt nyt aika kauan pohdiskellen ja tutkien sanassa tilassa tapahtuvaa tietokonevälitteistä viestintää. Tämän tutkimuksen haaste mielestäni on sen teoreetiton luonne. Tutkimuksemme tavoite oli ehdoittaa mahdollisuuksia muodostaa teoriaa käyttäen normatiivisia teorioita ja näytämme, mitä mahdollisuuksia normatiivisilla teorioilla voisi olla käyttöliittymätutkimuksessa. Jäämmekin odottamaan mielenkiintoisia sovelluskohteita normatiivisille teorioille.

Blogipostaus pohjautuu CHI-konfferenssissa 2017 esitettyyn artikkeliin Nelimarkka, M., Salovaara, A., Semaan, B., & Jacucci, G. (2017). Theory-Driven Collocated CMC. An English version is available in Rajapinta’s Medium.com and Matti’s personal blog.

Nyt malttia Kela – digitalisaatio ja julkinen hallinto

computer2bsays2bnoEräs työkaverini huomasi, että Kelakin on lähtenyt mukaan digitalisaatiopöhinään. Kela hienosti kuvaa, kuinka ensimmäisenä sujuvoitetaan prosesseja ja mietiään, miten tämä pitäisi tehdä; vasta tämän jälkeen asia digitalisoidaan. Samaan aikaan tekstistä kuitnekin huokuu tietty usko siihen, että palveluprosessia voi selkeyttää käyttämällä Suomessa tällä hetkellä ah-niin-trendikästä tekoälyä.

Jansson & Erlingsson (2014) kuvaavat sähköisen hallinnon (e-Government) kehittymistä Ruotsissa 1980-luvulta 2000-luvulle. Heidän mielenkiintoisin löydös liittyi useisiin yrityksiin automatisoida ja vähentää julkishallinnon asiakaspalvelun määrää: automaattiset prosessit eivät koskaan osaa tulkita sääntöjä rivien välistä sekä harkita kokonaisuutta. Toki voidaan sanoa, ettei kokonaistilanteen tulkinta ei ole ollut ennekään Kelan vahvuus, joten ehkä tässä ei menetetä mitään. On kuitenkin syytä pitää mielessä Janssonin & Erlingssonin huomio

The fact that technology does not discriminate, but treats everyone as equal, there- fore becomes both its biggest advantage and disadvantage—the former because arbitrariness can be avoided and the latter because various needs, issues, or skills are not captured

Kelan kuvaama visio digitalisaation mahdollisuuksista todellakin tuo esille sitä, että vihdoinkin on mahdollista palvella kaikki samalla tavalla ja hehkutetaan, kuinka tämä on parannus nykytilanteeseen. Esimerkiksi Kelan esimerkki siitä kuinka työttömäksi jäänyttä autetaan tulevaisuudessa näyttää tietyn deterministisyyden lähestymistavassa:

Kone voi hahmottaa esimerkiksi työttömäksi jääneen ihmisen tilannetta jatkokysymyksillä. Tiedätkö, milloin uusi työ on alkamassa? Oletko kiinnostunut koulutuksesta? Haetko työttömyysetuutta?

Tarkoitukseni ei ole kuitenkaan vain nurista tai änkyröidä. Digitalisaatiossa on paljon mahdollisuuksia prosessien yksinkertaistamisessa. Esimerkiksi automaatisoitu veroehdotus on hyvä esimerkki siitä, miten kokonaista ajatusmaailmaa voidaan kääntää kerralla oikeaan suuntaan.

Kelassakin on varmasti prosesseja, joita voi automatisoida erittäin helpposti – esimerkiksi opintotuen myöntäminen sekä lapsilisät. Näissä elämänvaiheissa ei yleensä ole muuten isoa kriisiä missä olisi syytä tarkastella koko yhteiskunnan turvaverkon toimintaa.

Mutta esimerkiksi työttömyydessä – vaikka se perusturvan myöntäminen on helppoa – voisi olla hyväksi samaan aikaan tarkastella elämää laajemmin. Olisiko syytä yrittää hakea toimeentulotukea? Miten Kelan, kunnan ja työvoimaviranomaisten palvelut muodostavat yhtenevän kokonaisuudeen? Näitä kysymyksiä ei sellaisenaan voine jättää automaation varaan, varsinkaan jos se toteutetaan mitä Neyland & Möllers (2016) kutsuivat if-then -säännöillä, eli yksinkertaisiksi “jos tämä pitää paikkansa tee näin”-mallehin. Minun ei ole mitään syytä epäilä, etteikö Kelan pyrkimys olisi tämän kaltaiseen automatisaatioon, koska kaikki ehdot voitaisiin silloin ottaa suoraan Kelan sääntelystä. Tällöin kyseessä on joustamaton ja etukäteen määritelty lähestymistapa sosiaaliturvaan.

Toki tekoälyllä voisi tehdä paljon muutakin! Voidaan mielikuva-harjoituksena miettiä osittain ohjattua tai ohjaamatonta koneoppimista sosiaaliturvan osana: sen sijaan, että säädökset sanoisivat tarkkaan, mitä tukea annetaan ja kuinka paljon, annettaisiin tekoälylle hieman vapautta säädellä itseään. voitaisiin miettiä myös muuta tapaa lähteä (mihin uskon Kelan paljon puhuman tekoälyn perustuvan; siellä tuskin on taustalla esimerkiksi pyrkimystä tehdä laajaa koneoppivaa prosessia, joka korjaisi toimintaansa huomattuaan, mitä vaikutuksia sosiaaliturvapäätöksillä oli. (Ei, en pidä tätä hyvänä ideana; mutta venytellään vähän aivoja siitä, mitä tekoälyllä voisi saada aikaan.)

Tiivistäen: digitalisaatio ei mielestäni ole sellaisenaan hyvä tai paha. Kysymys on enemmän löytää tasapaino automatisoitujen palveluiden ja automatisoimattomien palveluiden kohdalla. Koen, että sosiaaliturva on eräs alue, missä tiukka byrokratia (joko algoritmisesti tai algoritmittomasti) ei välttämättä tuota yhteiskunnan kannalta parasta lopputulosta. Sen sijaan pitäisi pyrkiä arvioimaan kokonaiskuvaa ja rakentaa tukijärjestelmiä tämän kautta – missä ihmiset ovat usein parempia kuin mikään tekoälyllinen prosessi.

 

Hajaantukaa – täällä ei ole mitään nähtävää – algoritmikeskustelusta Suomessa (osa 1)

Screenshot 2017-03-15 11.42.35Algoritmit ovat kuuma aihe paitsi julkisessa keskustelussa, myös kansainvälisessä yhteiskuntatieteellisessä kirjallisuudessa. Pelkästään viime vuoden aikana julkaistiin ainakin kolme erikoisnumeroa, missä käsiteltiin algoritmeja ja niiden roolia yhteiskunnassa. Niin akateemisessa keskustelussa, kuin populaareissakin teksteissä on aistittavissa tietynlainen algoritmien musta magia. Algoritmit eivät ole mitään taikaotuksia jotka hallitsevat maailmaa. Algoritmi on Wikipedian ensimmäisen lauseen mukaan

yksityiskohtainen kuvaus tai ohje siitä, miten tehtävä tai prosessi suoritetaan; jota seuraamalla voidaan ratkaista tietty ongelma.

Maailma on siis täynnä digitaalisia ja vähemmän digitaalisia algoritmeja. Silti pääpaino tuntuu olevan digitaalisissa ympäristössä, kuten Kari Haakanan suomenkielisessä pohdinnassa, vaikka siinä taitavasti tuodaan yhteen jopa klassista teknologian tutkimuksen argumenttejä. On totta, että digitaalisuus todella muuttaa monia ympäröiviä tapahtumia ja algoritmit ovat digitaalisuudessa  keskeisessä roolissa. Vastaavia yksityiskohtaisia kuvauksia ja ohjeita ongelman ratkaisuun on kuitenkin  aina ollut olemassa.

Esimerkiksi Kelan viimeaikainen toimeentulotukisotku monine muotoineen herättää varsin paljon kysymyksiä toimeentulotuen laskennassa käytetystä algoritmista. En tiedä onko taustalla tietojärjestelmän sotkut vai muuten prosessisuo, mutta julkisuuteen nostetut esimerkit – kuten tarve myöntää henkilölle sentin toimeentulotuki maksusitoumusten saamiseksi eteenpäin  – kertovat, että ”algoritmi” ei nyt oikeastaan toimi erityisen järkevästi. Ehkä tässä tullaan keskeiseen huomioon, jota jo Jansson & Erlinngsson (2014) havaitsivat jo aiemmasta tutkimuksesta: haasteena digitaalisissa (sekä ei-digitaalisissa) algoritmeissa on sääntöjen joustamattomuus – usein todellinen maailma ei sopeudu tiukkaan algoritmin ajattelemaan muotoon.

Tässä kohtaa ehkä voi huokaista helpotuksesta, algoritmit ovat kuin todella tarkkoja byrokraatteja. Mutta missä sitten piilee digitalisaation suuri mullistus? Miksi algoritmit ovat niin tapetilla yhteiskuntatieteellisessä kirjallisuudessa ja miksi niistä vouhkotaan (juuri nyt) niin paljon?

On toki totta, että digitaalisten palveluiden myötä me kaikki altistumme mahdollisesti uudenlaiselle, näkymättömälle byrokratialle ja vallankäytölle. Uutta ehkä on, että nyt päätöksentekijänä voi olla joku kasvottomalta näyttävä järjestelmä (noh, en tiedä onko se Kela yhtään parempi esimerkki kasvollisesta järjestelmästä). Mutta, kuten useimmiten, kaiken takaa löytyy kuitenkin ihminen. Algoritmi on aina ihmistoimijoiden tuottama väline, joka toteuttaa ihmistoimijoiden suunnitteleman prosessin. Teknologia-alan demografian perusteella tuo ihmistoiija on melko varmasti valkoinen mies, vaikkei tosin keski-ikäinen. Ja tässä nyt ei ole mitään uutta taivaan alla, valitettavasti. Jyllääväthän valkoiset (keski-ikäiset) miehet monessa muussakin yhteiskunnan päätöksenteon koneessa.

Yhteiskuntatieteellinen mielenkiinto algoritmeihin selittyy niiden tuoreudella. Kyseessä on konkreettinen uusi ”esine”, jota mätkiä tutkimusmenetelmillä ja ajatuksilla. Ja tuoreet aiheet usein herättävät tutkijoiden mielenkiintoa, koska ne ovat uusia ja tuoreita. Toki on tutkimukselle myös tarvetta. Kuten Kitchin (2017) huomauttaa, kriittistä tutkimusta algoritmeista on vähän – varsinkin verrattuna kaikkeen muuhun algoritmitutkimukseen esimerkiksi tietojenkäsittelytieteessä ja insinööritieteissä. Pohdinkin siis,

  • Miten julkisessa keskustelussa käytetään sanaa algoritmi ja mitä sillä oikeastaan tarkoitetaan?
  • Miten perinteiset vallankäytön muodot soveltuvat algoritmien kritisoimsieen ja mitä uutta algoritmit tuovat esimerkiksi perinteiseen byrokratian ajatukseen?
  • Voisimmeko silti koettaa olla nostamasta algoritmia kultaiselle jalustalle ja sen sijaan purkaa mitä oikeastaan tarkoitamme sillä?

Postailen kevään aikana enemmän ajatuksiamme tästä aiheesta ja käsittelemme tematiikkaa myös meetupeissamme.

Infrastructures and publics – notes from Conference in Siegen

I attended the First Annual Conference 2016 Infrastructures of Publics — Publics of Infrastructures to gain some more insight about the most current thinking in Europe around topics like platforms, society, and algorithms. The University of Siegen organized this conference as they have a new center of excellence around these themes.

Putting it all together

I’ve tried to do some categorization and choose highlights from the conference, but before moving to these smaller bits, I think it’s worth to say something about the whole conference. Throughout the journey of the conference, it became apparent terms such as infrastructures and the public have various meanings. Their focus on infrastructures focused surprisingly lot on physical things to my taste, but give insights e.g., to archeology research (not that far from coding, actually) and enablers for digital interaction. The public was developed primarily from media scholarship.

If I understood it correctly, the center of excellence aims to mingle these two approaches together, to create some ideas how infrastructures and publics interact and shape each other. Sadly, these people seem more prominent in media and culture studies, which I don’t follow that actively, and are publishing less in my favorite venues (CSCW). I do hope that these ideas will move towards the CS people as well, they (we?) tend to forgot these type of research far too often.

Politics and infrastructures

There were several presentations focused on the political aspects of using various tools and infrastructures. So, a huge collection to come here.

Christopher Le Dantec presented his work around using sensors for the public participation. Sadly, I had already read his work in CSCW/CHI domain (e.g. the biking case), and thus the presentation had less interesting novelty aspects. Fundamentally, he has instrumented city bikers to map routes they use and used the data in collaborative design sessions to develop new routes for bikers. He did, however, use a word I have not heard before data literacy. Sadly, there was not a clear definition of this and thus I’m inclined to consider this in similar way computational literacy – just recently under criticism by Matti Tedre and Peter J. Denning.

The more interesting presentation was by M. Six Silberman, a Ph.D. computer science now working in German labor union on new platforms for work. He presented work on Turkopticon, a platform which manages the reputation of those putting out tasks in Mechanical Turk. The idea of this is to balance the current platform by providing those employed through it also insights about their employers. I really like this thinking as it shows how information technology can be used to challenge the society (created by other IT researchers) and try to find balance in platforms.

Finally, Hagen Schölzel presented the concept of communication control, more applied in the business or public relationships literature. The idea behind communication control is actions are planned before hand behind the curtains to shape the communication towards hoped directions; it is precise but does not look like it. Such idea can be applied to various social computing applications, where their interaction is often more strategic than it seems.

Studying the app ecologies

Carolin Gerlitz and Fernando van der Vlist have made an interesting study about the applications types which emerge to support the primarily platform, e.g., in the case of Twitter, all the various Twitter-based applications out there. They concluded that there are at least three application types

  1. strategic engagement, where applications aim to utilize the various forms of data in the app
  2. enhancing functionalities, where applications improve the existing platform functionalities
  3. innovative apps, which add new novel ways to use the application.

These relate further to the grammar of actions, which tell more about how applications are supposed to be used. These relate to the APIs and various rules related to the platform. Finally, the examination fo the extended applications describe the grammar in rather a clear manner.

Archeology and infrastructures

Jürgen Richter presented how the cabinets used by archeologist also have shaped the direction of the research domain as a whole. For example, the early focus to classify objects based on their materials have directed research towards different ages, like stone age. The organization of the cabins has become, almost accidentally, materialized politics. I started to think what similar type of things might exist in fields I’m familiar, and suspect that the overuse of demographic variables to explain phenomena might be such historic relic, passed over generations and still shaping how we examine human activity in various social processes.

Furthermore, he presented an interesting temporal observation: as the archaeology collection is generated over generations, the current curator collaborates with the previous curators and aims to understand their logic of data categorisation and storing. To adapt this idea to more digitalised area, programmers collaborate with all the previous coders with the aim to understand what the heck is going on. Naturally, this collaboration might be difficult: the previous actors might be out of reach, i.e., in another company or even passed away.

I’m grateful for the travel grant from the Doctoral Programme in Computer Science at the University of Helsinki. This post has been crossposted to my personal blog.

Väline on osa agendaa eduskuntavaaleissa 2015

Aiheet eri mediakanavissa. Klikkaa suuremmaksi.

Eräänä iltana ryhmä Digivaalit 2015-hankkeen tutkijoita oli kokoontunut Mattermostiin juonimaan uusinta artikkeliluonnosta vaikuttaja-indeksistä ja agendan normalisoitumisesta. Analysoidessamme ehdokkaiden vaikuttajuutta eri medioiden agendaan olimme aiemmin kirjoittaneet myös kuvailleet aiheiden esiintymistä eri viestintävälineissä. Artikkelikäsikirjoituksessa teemajakauman rooli oli ollut enemmänkin kuvaileva, mutta nyt ryhdyimme pohtimaan, saisiko siitä sittenkin nostettua havaintoja – ja tasapainotettua artikkelia, joka oli aika valtaindeksiin keskittynyt ja vähän hassun muotoinen sen takia.

Mielestäni “iltavuoro” on paras aika tälläiseen työhön. Silloin voi tuijotettaan ja pohtia melko rauhassa asioita, tällä kertaa arvioida mitä taulukossa oikeasti olikaan esillä. Yön aikana syntyneet havainnot olivat – ainakin minun mielestäni – kiinnostavia.

Taulukosta nähdään, kuinka perinteinen media on selvästi poliittiseen asiasisältöön keskittynyttä, kun taas sosiaalinen media, niin ehdokkaiden kuin kansalaisten käyttämänä, korosti kampanjointia ja mobilisointia. Tämä ei ehkä ole kovinkaan yllättävää, sillä journalistinen, toimitettu sisältö on aina erityistä. Sen sijaan yllättävää voi olla asiasisältöjen moninaisuus perinteisessä mediassa. Kun sosiaalisessa mediassa keskusteltiin vain muutamista asiasisällöistä, oli toimituksellinen sisältö paljon rikkaampaa ja moniäänisempää. Näyttäisi siis siltä, että aiheiden monipuolisuuden näkökulmasta perinteiselle medialle on paikkansa.

Toisaalta ehdokkaiden Twitter- ja Facebook-aiheissa oli eroja. Ehdokkaat käyttivät Twitteriä enemmän poliittisten asiakysymysten käsittelyyn, kun taas Facebook oli kampanjoinnin ja mobilisoinnin areena. Tulokset liittyvät läheisesti viimeaikaiseen keskusteluun sosiaalisen median alustojen välisestä eroista, ja tukevat myös Mari Tuokon gradussa tehtyjä havaintoja.

Voidaan olettaa, että viestinnän tyyliin ja aiheisiin vaikuttavat myös alustojen teknologiset ominaisuudet. Esimerkiksi Twitterissä tunnetusti on rajoitettu 140 merkin määrä sekä viesteissä että vastuksissa, kun taas Facebookissa viestit sekä vastaukset voivat olla paljon pidempiä. Lisäksi Twitter oli vielä vaalien alla suoraviivainen julkaisumekanismissaan – uusimmat viestit ylimpänä – kun taas Facebook kuratoi sisältöä algoritmisesti.

Koska molemmat palvelut ovat myös sosioteknisiä järjestelmiä, myös ihmiset vaikuttavat viestinnän käytäntöihin. Esimerkiksi yleisön kokoonpano tai ehdokkaiden oletukset yleisöjen tyypistä vaikuttavat viestintään. Suomen tapauksessa on ensinnäkin syytä muistaa, että Twitter on enemmän eliittimedia (Vainikka & Huhtamäki, 2015) kun taas Facebook on tavallisten kansalaisten areena.

Viimeisenä todettakoon, että harmiksemme (vaikuttajalaskelman kannalta) oli vain muutamia teemoja jotka esiintyivät useassa mediakanavassa: turvallisuuspolitiikka, talous, koulutus ja energiakeskustelut. Ehkäpä on niin, että julkisuuteen vaalien alla mahtuu vain muutama isompi teema, joista sekä ehdokkaat, media että kansalaiset keskustelevat.

Kokonaisuudessaan olen varsin tyytyväinen siihen, mitä kaikkea teemajakumasta saatiin nyhdettyä irti kun sitä tarpeeksi tuijotettiin. Mitä siis opimme? Ei koskaan pidä kyseenalaistaa viimisten iltojen paniikkia osana pohdintaa ja tulkintaa. Toivottavasti käsikirjoituksemme saadaan pian julkaistua, niin voimme linkata sen tänne   myöhemmin kokonaisuudessaan.

(Yhteiskirjoittanut: Matti Nelimarkka & Salla-Maaria Laaksonen)