Nyt malttia Kela – digitalisaatio ja julkinen hallinto

computer2bsays2bnoEräs työkaverini huomasi, että Kelakin on lähtenyt mukaan digitalisaatiopöhinään. Kela hienosti kuvaa, kuinka ensimmäisenä sujuvoitetaan prosesseja ja mietiään, miten tämä pitäisi tehdä; vasta tämän jälkeen asia digitalisoidaan. Samaan aikaan tekstistä kuitnekin huokuu tietty usko siihen, että palveluprosessia voi selkeyttää käyttämällä Suomessa tällä hetkellä ah-niin-trendikästä tekoälyä.

Jansson & Erlingsson (2014) kuvaavat sähköisen hallinnon (e-Government) kehittymistä Ruotsissa 1980-luvulta 2000-luvulle. Heidän mielenkiintoisin löydös liittyi useisiin yrityksiin automatisoida ja vähentää julkishallinnon asiakaspalvelun määrää: automaattiset prosessit eivät koskaan osaa tulkita sääntöjä rivien välistä sekä harkita kokonaisuutta. Toki voidaan sanoa, ettei kokonaistilanteen tulkinta ei ole ollut ennekään Kelan vahvuus, joten ehkä tässä ei menetetä mitään. On kuitenkin syytä pitää mielessä Janssonin & Erlingssonin huomio

The fact that technology does not discriminate, but treats everyone as equal, there- fore becomes both its biggest advantage and disadvantage—the former because arbitrariness can be avoided and the latter because various needs, issues, or skills are not captured

Kelan kuvaama visio digitalisaation mahdollisuuksista todellakin tuo esille sitä, että vihdoinkin on mahdollista palvella kaikki samalla tavalla ja hehkutetaan, kuinka tämä on parannus nykytilanteeseen. Esimerkiksi Kelan esimerkki siitä kuinka työttömäksi jäänyttä autetaan tulevaisuudessa näyttää tietyn deterministisyyden lähestymistavassa:

Kone voi hahmottaa esimerkiksi työttömäksi jääneen ihmisen tilannetta jatkokysymyksillä. Tiedätkö, milloin uusi työ on alkamassa? Oletko kiinnostunut koulutuksesta? Haetko työttömyysetuutta?

Tarkoitukseni ei ole kuitenkaan vain nurista tai änkyröidä. Digitalisaatiossa on paljon mahdollisuuksia prosessien yksinkertaistamisessa. Esimerkiksi automaatisoitu veroehdotus on hyvä esimerkki siitä, miten kokonaista ajatusmaailmaa voidaan kääntää kerralla oikeaan suuntaan.

Kelassakin on varmasti prosesseja, joita voi automatisoida erittäin helpposti – esimerkiksi opintotuen myöntäminen sekä lapsilisät. Näissä elämänvaiheissa ei yleensä ole muuten isoa kriisiä missä olisi syytä tarkastella koko yhteiskunnan turvaverkon toimintaa.

Mutta esimerkiksi työttömyydessä – vaikka se perusturvan myöntäminen on helppoa – voisi olla hyväksi samaan aikaan tarkastella elämää laajemmin. Olisiko syytä yrittää hakea toimeentulotukea? Miten Kelan, kunnan ja työvoimaviranomaisten palvelut muodostavat yhtenevän kokonaisuudeen? Näitä kysymyksiä ei sellaisenaan voine jättää automaation varaan, varsinkaan jos se toteutetaan mitä Neyland & Möllers (2016) kutsuivat if-then -säännöillä, eli yksinkertaisiksi “jos tämä pitää paikkansa tee näin”-mallehin. Minun ei ole mitään syytä epäilä, etteikö Kelan pyrkimys olisi tämän kaltaiseen automatisaatioon, koska kaikki ehdot voitaisiin silloin ottaa suoraan Kelan sääntelystä. Tällöin kyseessä on joustamaton ja etukäteen määritelty lähestymistapa sosiaaliturvaan.

Toki tekoälyllä voisi tehdä paljon muutakin! Voidaan mielikuva-harjoituksena miettiä osittain ohjattua tai ohjaamatonta koneoppimista sosiaaliturvan osana: sen sijaan, että säädökset sanoisivat tarkkaan, mitä tukea annetaan ja kuinka paljon, annettaisiin tekoälylle hieman vapautta säädellä itseään. voitaisiin miettiä myös muuta tapaa lähteä (mihin uskon Kelan paljon puhuman tekoälyn perustuvan; siellä tuskin on taustalla esimerkiksi pyrkimystä tehdä laajaa koneoppivaa prosessia, joka korjaisi toimintaansa huomattuaan, mitä vaikutuksia sosiaaliturvapäätöksillä oli. (Ei, en pidä tätä hyvänä ideana; mutta venytellään vähän aivoja siitä, mitä tekoälyllä voisi saada aikaan.)

Tiivistäen: digitalisaatio ei mielestäni ole sellaisenaan hyvä tai paha. Kysymys on enemmän löytää tasapaino automatisoitujen palveluiden ja automatisoimattomien palveluiden kohdalla. Koen, että sosiaaliturva on eräs alue, missä tiukka byrokratia (joko algoritmisesti tai algoritmittomasti) ei välttämättä tuota yhteiskunnan kannalta parasta lopputulosta. Sen sijaan pitäisi pyrkiä arvioimaan kokonaiskuvaa ja rakentaa tukijärjestelmiä tämän kautta – missä ihmiset ovat usein parempia kuin mikään tekoälyllinen prosessi.

 

Hajaantukaa – täällä ei ole mitään nähtävää – algoritmikeskustelusta Suomessa (osa 1)

nScreenshot 2017-03-15 11.42.35Algoritmit ovat kuuma aihe paitsi julkisessa keskustelussa, myös kansainvälisessä yhteiskuntatieteellisessä kirjallisuudessa. Pelkästään viime vuoden aikana julkaistiin ainakin kolme erikoisnumeroa, missä käsiteltiin algoritmeja ja niiden roolia yhteiskunnassa. Niin akateemisessa keskustelussa, kuin populaareissakin teksteissä on aistittavissa tietynlainen algoritmien musta magia. Algoritmit eivät ole mitään taikaotuksia jotka hallitsevat maailmaa. Algoritmi on Wikipedian ensimmäisen lauseen mukaan

yksityiskohtainen kuvaus tai ohje siitä, miten tehtävä tai prosessi suoritetaan; jota seuraamalla voidaan ratkaista tietty ongelma.

Maailma on siis täynnä digitaalisia ja vähemmän digitaalisia algoritmeja. Silti pääpaino tuntuu olevan digitaalisissa ympäristössä, kuten Kari Haakanan suomenkielisessä pohdinnassa, vaikka siinä taitavasti tuodaan yhteen jopa klassista teknologian tutkimuksen argumenttejä. On totta, että digitaalisuus todella muuttaa monia ympäröiviä tapahtumia ja algoritmit ovat digitaalisuudessa  keskeisessä roolissa. Vastaavia yksityiskohtaisia kuvauksia ja ohjeita ongelman ratkaisuun on kuitenkin  aina ollut olemassa.

Esimerkiksi Kelan viimeaikainen toimeentulotukisotku monine muotoineen herättää varsin paljon kysymyksiä toimeentulotuen laskennassa käytetystä algoritmista. En tiedä onko taustalla tietojärjestelmän sotkut vai muuten prosessisuo, mutta julkisuuteen nostetut esimerkit – kuten tarve myöntää henkilölle sentin toimeentulotuki maksusitoumusten saamiseksi eteenpäin  – kertovat, että ”algoritmi” ei nyt oikeastaan toimi erityisen järkevästi. Ehkä tässä tullaan keskeiseen huomioon, jota jo Jansson & Erlinngsson (2014) havaitsivat jo aiemmasta tutkimuksesta: haasteena digitaalisissa (sekä ei-digitaalisissa) algoritmeissa on sääntöjen joustamattomuus – usein todellinen maailma ei sopeudu tiukkaan algoritmin ajattelemaan muotoon.

Tässä kohtaa ehkä voi huokaista helpotuksesta, algoritmit ovat kuin todella tarkkoja byrokraatteja. Mutta missä sitten piilee digitalisaation suuri mullistus? Miksi algoritmit ovat niin tapetilla yhteiskuntatieteellisessä kirjallisuudessa ja miksi niistä vouhkotaan (juuri nyt) niin paljon?

On toki totta, että digitaalisten palveluiden myötä me kaikki altistumme mahdollisesti uudenlaiselle, näkymättömälle byrokratialle ja vallankäytölle. Uutta ehkä on, että nyt päätöksentekijänä voi olla joku kasvottomalta näyttävä järjestelmä (noh, en tiedä onko se Kela yhtään parempi esimerkki kasvollisesta järjestelmästä). Mutta, kuten useimmiten, kaiken takaa löytyy kuitenkin ihminen. Algoritmi on aina ihmistoimijoiden tuottama väline, joka toteuttaa ihmistoimijoiden suunnitteleman prosessin. Teknologia-alan demografian perusteella tuo ihmistoiija on melko varmasti valkoinen mies, vaikkei tosin keski-ikäinen. Ja tässä nyt ei ole mitään uutta taivaan alla, valitettavasti. Jyllääväthän valkoiset (keski-ikäiset) miehet monessa muussakin yhteiskunnan päätöksenteon koneessa.

Yhteiskuntatieteellinen mielenkiinto algoritmeihin selittyy niiden tuoreudella. Kyseessä on konkreettinen uusi ”esine”, jota mätkiä tutkimusmenetelmillä ja ajatuksilla. Ja tuoreet aiheet usein herättävät tutkijoiden mielenkiintoa, koska ne ovat uusia ja tuoreita. Toki on tutkimukselle myös tarvetta. Kuten Kitchin (2017) huomauttaa, kriittistä tutkimusta algoritmeista on vähän – varsinkin verrattuna kaikkeen muuhun algoritmitutkimukseen esimerkiksi tietojenkäsittelytieteessä ja insinööritieteissä. Pohdinkin siis,

  • Miten julkisessa keskustelussa käytetään sanaa algoritmi ja mitä sillä oikeastaan tarkoitetaan?
  • Miten perinteiset vallankäytön muodot soveltuvat algoritmien kritisoimsieen ja mitä uutta algoritmit tuovat esimerkiksi perinteiseen byrokratian ajatukseen?
  • Voisimmeko silti koettaa olla nostamasta algoritmia kultaiselle jalustalle ja sen sijaan purkaa mitä oikeastaan tarkoitamme sillä?

Postailen kevään aikana enemmän ajatuksiamme tästä aiheesta ja käsittelemme tematiikkaa myös meetupeissamme.

Infrastructures and publics – notes from Conference in Siegen

I attended the First Annual Conference 2016 Infrastructures of Publics — Publics of Infrastructures to gain some more insight about the most current thinking in Europe around topics like platforms, society, and algorithms. The University of Siegen organized this conference as they have a new center of excellence around these themes.

Putting it all together

I’ve tried to do some categorization and choose highlights from the conference, but before moving to these smaller bits, I think it’s worth to say something about the whole conference. Throughout the journey of the conference, it became apparent terms such as infrastructures and the public have various meanings. Their focus on infrastructures focused surprisingly lot on physical things to my taste, but give insights e.g., to archeology research (not that far from coding, actually) and enablers for digital interaction. The public was developed primarily from media scholarship.

If I understood it correctly, the center of excellence aims to mingle these two approaches together, to create some ideas how infrastructures and publics interact and shape each other. Sadly, these people seem more prominent in media and culture studies, which I don’t follow that actively, and are publishing less in my favorite venues (CSCW). I do hope that these ideas will move towards the CS people as well, they (we?) tend to forgot these type of research far too often.

Politics and infrastructures

There were several presentations focused on the political aspects of using various tools and infrastructures. So, a huge collection to come here.

Christopher Le Dantec presented his work around using sensors for the public participation. Sadly, I had already read his work in CSCW/CHI domain (e.g. the biking case), and thus the presentation had less interesting novelty aspects. Fundamentally, he has instrumented city bikers to map routes they use and used the data in collaborative design sessions to develop new routes for bikers. He did, however, use a word I have not heard before data literacy. Sadly, there was not a clear definition of this and thus I’m inclined to consider this in similar way computational literacy – just recently under criticism by Matti Tedre and Peter J. Denning.

The more interesting presentation was by M. Six Silberman, a Ph.D. computer science now working in German labor union on new platforms for work. He presented work on Turkopticon, a platform which manages the reputation of those putting out tasks in Mechanical Turk. The idea of this is to balance the current platform by providing those employed through it also insights about their employers. I really like this thinking as it shows how information technology can be used to challenge the society (created by other IT researchers) and try to find balance in platforms.

Finally, Hagen Schölzel presented the concept of communication control, more applied in the business or public relationships literature. The idea behind communication control is actions are planned before hand behind the curtains to shape the communication towards hoped directions; it is precise but does not look like it. Such idea can be applied to various social computing applications, where their interaction is often more strategic than it seems.

Studying the app ecologies

Carolin Gerlitz and Fernando van der Vlist have made an interesting study about the applications types which emerge to support the primarily platform, e.g., in the case of Twitter, all the various Twitter-based applications out there. They concluded that there are at least three application types

  1. strategic engagement, where applications aim to utilize the various forms of data in the app
  2. enhancing functionalities, where applications improve the existing platform functionalities
  3. innovative apps, which add new novel ways to use the application.

These relate further to the grammar of actions, which tell more about how applications are supposed to be used. These relate to the APIs and various rules related to the platform. Finally, the examination fo the extended applications describe the grammar in rather a clear manner.

Archeology and infrastructures

Jürgen Richter presented how the cabinets used by archeologist also have shaped the direction of the research domain as a whole. For example, the early focus to classify objects based on their materials have directed research towards different ages, like stone age. The organization of the cabins has become, almost accidentally, materialized politics. I started to think what similar type of things might exist in fields I’m familiar, and suspect that the overuse of demographic variables to explain phenomena might be such historic relic, passed over generations and still shaping how we examine human activity in various social processes.

Furthermore, he presented an interesting temporal observation: as the archaeology collection is generated over generations, the current curator collaborates with the previous curators and aims to understand their logic of data categorisation and storing. To adapt this idea to more digitalised area, programmers collaborate with all the previous coders with the aim to understand what the heck is going on. Naturally, this collaboration might be difficult: the previous actors might be out of reach, i.e., in another company or even passed away.

I’m grateful for the travel grant from the Doctoral Programme in Computer Science at the University of Helsinki. This post has been crossposted to my personal blog.

Väline on osa agendaa eduskuntavaaleissa 2015

Aiheet eri mediakanavissa. Klikkaa suuremmaksi.

Eräänä iltana ryhmä Digivaalit 2015-hankkeen tutkijoita oli kokoontunut Mattermostiin juonimaan uusinta artikkeliluonnosta vaikuttaja-indeksistä ja agendan normalisoitumisesta. Analysoidessamme ehdokkaiden vaikuttajuutta eri medioiden agendaan olimme aiemmin kirjoittaneet myös kuvailleet aiheiden esiintymistä eri viestintävälineissä. Artikkelikäsikirjoituksessa teemajakauman rooli oli ollut enemmänkin kuvaileva, mutta nyt ryhdyimme pohtimaan, saisiko siitä sittenkin nostettua havaintoja – ja tasapainotettua artikkelia, joka oli aika valtaindeksiin keskittynyt ja vähän hassun muotoinen sen takia.

Mielestäni “iltavuoro” on paras aika tälläiseen työhön. Silloin voi tuijotettaan ja pohtia melko rauhassa asioita, tällä kertaa arvioida mitä taulukossa oikeasti olikaan esillä. Yön aikana syntyneet havainnot olivat – ainakin minun mielestäni – kiinnostavia.

Taulukosta nähdään, kuinka perinteinen media on selvästi poliittiseen asiasisältöön keskittynyttä, kun taas sosiaalinen media, niin ehdokkaiden kuin kansalaisten käyttämänä, korosti kampanjointia ja mobilisointia. Tämä ei ehkä ole kovinkaan yllättävää, sillä journalistinen, toimitettu sisältö on aina erityistä. Sen sijaan yllättävää voi olla asiasisältöjen moninaisuus perinteisessä mediassa. Kun sosiaalisessa mediassa keskusteltiin vain muutamista asiasisällöistä, oli toimituksellinen sisältö paljon rikkaampaa ja moniäänisempää. Näyttäisi siis siltä, että aiheiden monipuolisuuden näkökulmasta perinteiselle medialle on paikkansa.

Toisaalta ehdokkaiden Twitter- ja Facebook-aiheissa oli eroja. Ehdokkaat käyttivät Twitteriä enemmän poliittisten asiakysymysten käsittelyyn, kun taas Facebook oli kampanjoinnin ja mobilisoinnin areena. Tulokset liittyvät läheisesti viimeaikaiseen keskusteluun sosiaalisen median alustojen välisestä eroista, ja tukevat myös Mari Tuokon gradussa tehtyjä havaintoja.

Voidaan olettaa, että viestinnän tyyliin ja aiheisiin vaikuttavat myös alustojen teknologiset ominaisuudet. Esimerkiksi Twitterissä tunnetusti on rajoitettu 140 merkin määrä sekä viesteissä että vastuksissa, kun taas Facebookissa viestit sekä vastaukset voivat olla paljon pidempiä. Lisäksi Twitter oli vielä vaalien alla suoraviivainen julkaisumekanismissaan – uusimmat viestit ylimpänä – kun taas Facebook kuratoi sisältöä algoritmisesti.

Koska molemmat palvelut ovat myös sosioteknisiä järjestelmiä, myös ihmiset vaikuttavat viestinnän käytäntöihin. Esimerkiksi yleisön kokoonpano tai ehdokkaiden oletukset yleisöjen tyypistä vaikuttavat viestintään. Suomen tapauksessa on ensinnäkin syytä muistaa, että Twitter on enemmän eliittimedia (Vainikka & Huhtamäki, 2015) kun taas Facebook on tavallisten kansalaisten areena.

Viimeisenä todettakoon, että harmiksemme (vaikuttajalaskelman kannalta) oli vain muutamia teemoja jotka esiintyivät useassa mediakanavassa: turvallisuuspolitiikka, talous, koulutus ja energiakeskustelut. Ehkäpä on niin, että julkisuuteen vaalien alla mahtuu vain muutama isompi teema, joista sekä ehdokkaat, media että kansalaiset keskustelevat.

Kokonaisuudessaan olen varsin tyytyväinen siihen, mitä kaikkea teemajakumasta saatiin nyhdettyä irti kun sitä tarpeeksi tuijotettiin. Mitä siis opimme? Ei koskaan pidä kyseenalaistaa viimisten iltojen paniikkia osana pohdintaa ja tulkintaa. Toivottavasti käsikirjoituksemme saadaan pian julkaistua, niin voimme linkata sen tänne   myöhemmin kokonaisuudessaan.

(Yhteiskirjoittanut: Matti Nelimarkka & Salla-Maaria Laaksonen)

Hackathons in Finland: free labor or open innovation?

Those following the Finnish technology scene have most likely observed that hackathons are this year’s megatrend. Everyone seems to be organizing a hackathon to get developers work with problems. You know, digitalisation is coming and everyone – public sector, private sector – need solutions that revolutionalize their operations using digitalisation … and hackathon is one of the trendy ways to bring digitalization gurus to the organization.

As an old-time hackathon participant, I have certain doubts about the whole concept, but as they are trendy, I think I should have something to say about them. I think we’re using hackathons in rather interesting ways – such as supplement procurement of software in public administration – which have some merits. However, there are also cases which seem more as exploitation of participants. I will first shortly address the academic literature around hackathons after which I move to my rant about hackathons.

What do we know about hackathons?

Sadly, the scholarly literature is still emerging around the whole phenomena (and, will most likely be fully developed only after hackathons are passé). But, let’s give it a try anyway and see what we know about hackathon based on the existing works.

Overall, hackathons can be technology-oriented (i.e., focus on particular platforms) or focused on problems; in particular solving societal problems in issue-based hackathons (Lodato & DiSalvo, 2016). These issue-based hackathons can serve multiple purposes; Johnson & Robinson (2014) see these type of hackathons mixed of a procurement process, civic engagement and innovation taking place. What these findings indicate is that people have motivations beyond just hacking things together; like improving the society or to make their views more concrete.

In general, hackathons have three phases; pre-hackathon, hackathon, and post-hackathon. Hackathons are intense collaborations require participants to set up the goals of the hack and the means of collaboration, including work processes. The hackathon itself is a face-to-face activity where participants work together intensively, but can also seek help from others in the team and engage in iterative development and critique. The challenge with post-hackathon activities is to continue with the same team without the collocated settings, as often the hacks need more love to be ready (Lodato & DiSalvo, 2016, Trainer et al., 2016).

Matti’s rant about some recent hackathons and challenges in Finland

Hackathons are a great way to bring bright people together to create something cool. While the process itself is difficult – as seen in above discussed literature – it may be rewarding for participants. Furthermore, at least my experience, hackathons are a great way to get uninterrupted thinking time for a problem in a creative manner. Having space, catering and time reserved in the calendar make it easy to focus on the problem.

In my view, the best hackathons have a somewhat open goal, allowing the developers to take different angles to the problem and demonstrate a variety of approaches, or to invent something new. Usually, the organizers in these cases seek out questions like “what is possible?” and in best cases contribute their skills and knowledge to help hackers. However, I’ve recently seen the term hackathon being used for events I don’t think live up to my ideals.

Hackathons and challenges should not be cheap software development

Some hackathons are organized with a super-specific goal already defined. In the Open Finland Challenge this year, there was a challenge organized by Aller Media, with the goal of

We want to add location data for discussions by offering the user an opportunity to find relevant information about ones’ surroundings. [shortly translated]

When reading this, I think the jury already had a rather clear vision of what they want to get as an outcome. Naturally, you can break the rules – and I did ask this in when the challenges were made public – it’s OK to hack whatever you want. But the jury will naturally read the challenge also. Just compare the challenge made by YLE in the same challenge competition

YLE has opened Elävä arkisto Data through an API. What interesting can you build using this information – maybe a new service to a special user group or something totally new? [shortly translated]

I think this challenge is open-ended, allowing participants to work in rather creative ways with the data. This aligns more within the ideas like open innovation, exposing the company to new ideas and approaches, and the creativity of hackathons. The former instead sounded to me that they might just want to consult a software company to produce a prototype of their idea and test it.

Hackathons and challenges should not be cheap consulting

The more recent case of this was from LähiTapiola Hack, where the goal was to develop “new digital solutions for inspiring young people to save and invest money. During the 5-day business hackathon teams will develop a new business or product concept for LähiTapiola (LocalTapiola), and finally pitch it to a jury consisting of LähiTapiola executives and business angels.”

I think this is a nicely open-ended problem to hack with, giving rather free hands to work with. There is opportunity for true creativity. However, in a closer look at the hackathon policies showed that there was something fishy about the IPR.

In hackathons I’ve attended, the IPR usually belongs to participants or its considered to become public domain. In this hackathon, instead, the conceptual innovations (whatever those are) are explicitly stated to belong to hackathon organizers if they emerge from data and materials by LähiTapiola. This means that these guys get free business consulting and ideas by buying food, space and 5,000 € reward for the winning team. If you want my ideas, you can just contact my consulting firm and we’ll discuss my pricing in detail. Or as it seems, they are actually incubating some business opportunities and startups for them – weirdly called a hackathon.

How to move forward?

I think the first step is to ensure we don’t call all things hackathons or challenges just to look trendy. If you aim to incubate startups or run public procurement, are you really doing a hackathon or something else which may have similar characteristics of a hackathon – collocated fast-paced and solution centric work, aiming to produce some concrete outcome by the final day. I would even avoid the name hackathon for everything that’s not what I would call traditional hackathon, a day or two of hard work in open context – just to make sure you don’t market the event in a wrong manner and get weirdos like me attending.

Second, if you’re sure you’re organizing a traditional hackathon, check that your hackathon task is semi-open to participation. Naturally, seasoned hackathon participants know how to read the tasks in an open manner and produce something cool. But it might be more inviting even for them if they can see that the organizer is truly seeking something novel and cool. Remember that hackathons, as I see them, should be much about open collaboration, open innovation and facilitating great minds to come together.

Finally, have some answer to the question ‘what next?’ If there are ideas the hackathon participants want to move further, how can your organization support those moving forward? I do have good experiences of these, including seed investment from organisations to develop the quick proof of concept into a true product and even launching those. And if you have plans like this, remember to tell about those beforehand and check you continue to support teams throughout the further process as well.

Acknowledgement

I was motivated to write this post thanks to the poor case from LähiTapiola hack and discussions with my nerd friends in the #fixme-irc channel. All views presented in this text are naturally my own and may not reflect the #fixme-community, the Rajapinta-community, my employer, my supporters, nor the future self.

Cross-posted to my personal blog, Science & Industry.

DCCS syyskuussa: aihemallinnusta sekä algoritmejä

Syyskuun viimeisenä perjantaina, tieteiden yön iltapäivällä, Digital Citizens, Communities, and Society kokoontui pohtimaan yhteiskuntatieteen ja tieto- ja viestintäteknologian rajamaastoa. Meillä oli kaksi vuorovaikutteista johdantoa, joita pyrin hiukan tiivistämään blogin muotoon.

Uusia menetelmämahdollisuuksia

Tuukka Ylä-Anttila puhuiaihemallinnuksesta (topic modeling) sosiologin työvälineenä, esitellen kolmea projektia: kehysanalyysiä ilmastopoliittisesta keskustelusta, poliittisten keskustelujen hakemista Suomi24-keskustelualueelta sekä MV-lehden sisällön luokittelua

Lyhyesti, aihemallinnuksessa algoritmi luokittelee sanoja sekä “dokumentteja” esiintymisien mukaan ryhmiin ohjaamattomasti. Yhteiskuntatieteilijä voi käyttää mallia keskustelunaiheiden luokitteluun, mutta suuri kysymys on, onnistuuko keskustelun tapojen kuten kehysten tai diskurssien luokittelu.

Käytimme varsin paljon aikaa pohtimalla miten aihemallinnukset tulisi validoida ja –  ainakin itse – valitin kunnon ohjekirjan puuttumista tälle osa-alueelle. Ylä-Anttila kolleegoineen ovat dokumentoineet prosessin, jossa ensin arvioidaan aihemallinnuksen sanapilviä, minkä jälkeen arvioidaan aiheissa olevien dokumenttien sisältöjä ja tarkennetaan aihetulkintaan jos se on tarpeen. Lähestymistapa kuulosti varsin toimivalta, jäänkin kuuntelemaan mitä mieltä vertaisarvioitsijat ovat siitä.

Toisaalta, myös aiheiden tulkinta herätti huolta: voivatko kyseessä olla framet, diskurssit tai mitkään muut yleisesti käyttämät teoretisoinnit sisällöstä. Tätä ei myöskään helpota, kuten Tuukka muistutti, että framestakin on useampia erilaisia merkityksiä ja tulkintoja yhteiskuntatieteessä. Itse pohdiskelin ääneen, että miksi aiheita pitäisi sanoa joksikin muuksi kuin aiheiksi, mutta Tuukka nopeasti vastasi, että tuo pohdinta liittyy siihen, mihin aiempaan tutkimustraditioon sitten itse sijoittuu. Teoreettisilla käsitteillä on pitkät juuret, jotka vaikuttavat niiden tulkintaan.

Tämä lieneekin valtavirtaistuksen suurin ongelma, jollain tavalla laskennalliset menetelmät ja niiden tulokset pitäisi saada puhumaan traditionaalisten yhteiskunnallisten menetelmien kanssa. Tällöin yhteinen terminologia esimerkiksi auttaa jo varsin paljon, helpoittaa valtavirta-yhteiskuntatieteilijän pohdintaa tulosten järkevyydestä ja merkittävyydestä.

Aiheesta lisää sekä muutama uudehko opinnnäytetyö

Algoritmit sosiaalisessa vuorovaikutuksessa

Jesse Haapoja kertoi juuri jättämästään Helsingin yliopiston jatko-opintosuunnitelmasta, algoritmeistä sosiaalipsykologian kannalta. Hänen keskeinen argumenttinsa on (tai, ehkä paremminkin, minun tulkinta hänen ajatuksestaan), että teknisillä järjestelmillä on toimijuutta mikrotasolla vuorovaikutukstilanteilla – näkökulma joka vielä toistaiseksi puuttuu isoista algoritmien vallankäytön keskustelusta. Algoritmit ja tekniset järjestelmät mahdollistavat ja rajoittavat ihmisten välistä vuorovaikutusta, Tinderin deittaussovelluksesta Pokémon Go:n algoritmin päättämiin vuorovaikutuspaikkoihin.

Jessen tavoite tutkimuksessaan on havainnoida kuinka algoritmit tulevat esille mikrotasolla ihmisten välisessä vuorovaikutuksessa sekä ajatella, miten ihmiset reagoivat algoritmien toimintaan. Eräs esimerkki on vaalikoneet, joiden algoritmit eivät vain neuvo meitä äänestämään vaan myös rakentavat poliittista identiteettiä.

Mikä on oikein ja mikä väärin?

Viimeisenä aiheena eräs pro gradu-työn tekijä Matti Autio esitteli pohdintaansa Facebookin kaupunginosa-ryhmien toiminnasta ja siellä esiintyvästä rajoittavasta sekä yhdentävästä viestittelystä. Hänen suurin kysymys oli tutkimuseettinen: saako tätä tutkimusta oikeastaan tehdä ja voiko gradussa olla lainauksia näistä ryhmistä ja saako ryhmiä edes tutkia.

Tämä herätti laajaa keskustelua DCCS-ryhmässä, tutkimuseettinen pohdinta on vielä kesken. Johtopäätöksemme taisi olla, ettei isojen ryhmien tutkimisessa ollut isompia ongelmia, mutta lainaukset olisi hyvä tarkistaa jokaiselta osallistujalta erikseen. Vaikka verkon tutkimusta onkin tehty jo useampi vuosikymmen, samat eettiset kysymykset ovat edelleen avoinna. Lopuksi päädyimme suosittelemaan vielä opiskelijaa tarkastaman Internet-tutkijoiden AOIRn eettisen toimikunnan ohjeita aiheesta.

 

Miksi Rajapintaa tarvitaan rasismitutkimuksessa?

Rajapintalaisista ainakin Salla, Matti, ja Jesse ovat Suomen Akatemian rahoittamassa Racisms and public communications in the hybrid media environment (HYBRA) -tutkimushankkeessa. Valtiotieteellinen tiedekunta (Helsingin yliopisto), Viestintätieteellinen tiedekunta (Tampereen yliopisto) sekä Tietoteniikan tutkimuslaitos HIIT (Tietojenkäsittelytieteen laitos, Aalto-yliopisto). Mitä Rajapinta yhteisönä voi luoda osaksi rasismitutkimusta? Pohdintaan vähän tutkimuksen suuntaviivoja.

Meditila on hybrinen sekä big

Verkkovälitteinen viestintä, Facebookissa, Twitterissä, blogeissa ja muissa verkkoyhteisöissä on nykyisin arkipäiväistä. Käyttäjälähtöinen sisältö sekoittuu osaksi perinteistä viestintää, kuten Salla kirjoitti Rajapinnassa kesäkuussa. Tiivistetysti, rasismin tutkimuksessa on välttämätöntä havainnoida myös verkkoa, ja rajapintalaisilla on siitä melko hyvin kokemusta.

Olemme aikaisemmin jo tutustuneet sosiaalisen median datan louhintaan ja sen ongelmiin sekä murskaamiseen tieteeksi. Modernissa datan keräyksessä siirrytään lähemmäksi big datan aikaa – kerätään paljon aineistoa ja laskennallisesti koitetaan repiä irti yhteiskuntatieteen kannalta tuloksia.

HYBRAssa meitä kiinnostaa kuinka rasistiset sekä antirasistiset keskustelut leviävät ja virtaavat mediasta ja yhteisöstä toiseen. Aloitamme varmaan kansallisella tarkastelulla suomalaisissa yhteisöissä, mutta puhuimme myös kansainvälisestä ulottuvuudesta. Voimmeko demonstroida kuinka Atlantin toisella puolella olevat tapahtuvat ilmenevät täällä pohjolassa, ja mikä niiden virtaus täsmällisesti onkaan.

Ensimmäinen askel onkin rakentaa datan keräysalustaa ja kerätä aineistoja. Perinteitämme kunnioittaen julkaisemme tästä ohjelmakoodista vapaan lähdekoodin lisenssillä GitHub-repositoriossa. Koodia lukemalla siis näkee vähän aikaisemmin mitä ihmettä teemme, vaikka kerrommekin myös Rajapinnassa tekemisistämme.

Mediatila on rakennettu

Sosiologit käyvät tällä hetkellä varsin villiä keskustelua algoritmien vallasta. Rajapinnassa ei ole vielä tiivistelmää tästä keskustelusta, mutta Microsoft Researchin tutkijat ylläpitävät ajantasaista listaa artikkeleista. Ehkä lyhyenä tiivistelmänä aika laajasta kirjallisuudesta: algoritmit vaikuttavat ihmisten toimintaan ja ovat siis piilossa olevia sääntöjä ja valtarakenteita (Kitchin, in press).

Onko mediatilaa rakennettu rasismin kannalta älykkäästi? Esimerkiksi Facebookin Trending sekoilu näytti, ettei algoritmitkaan aina toimi erityisen hienosti. Käykä niin, että rasistiset (sekä antirasistiset) henkilöt löytävät toisensa suosittelualgoritmien avulla? Miten eri uutiset käyttäytyvät sosiaalisessa mediassa – onko sosiaalisen huomion kannalta mielekästä kirjoittaa rasistisia (tai antirasistisia) uutisia? Mielessäni on myös ajatukseni vuodelta 2015: voimmeko testata jotain ajatuksiamme algoritmeistä, käyttöliittymistä sekä rasismista rakentamalla vuorovaikutteisia järjestelmiä.

Miksi rasismi tutkimuskohteena?

Olemme Rajapinnassa tutkineet varsin laajalla skaalalla erilaisia asioita ja rasismi saattaa vaikuttaa yllättävältä lisältä teemana yhteisöömme. Pohdiskelin vuoden vaihteessa tutkimuksen kehystämisen ongelmia – esimerkiksi vaalitutkimuksemme mielenkiinto tulosten osalta ei tule olemaan mitenkään suurta Suomen ulkopuolella. Vaalijärjestelmämme ja mediaympäristömme on hiukan outo kaikille muolle. Mahdollisesti jotkut menetelmällisemmät ajatukset, kuten valtaindeksit, etnografia osana laskennallista tutkimusta tai vuorovaikutuksen käsittellistäminen auttavat tiedettä eteenpäin, ovat jargonilla mielenkiintoisia kontribuutioita.

Rasismitutkimuksessa saamme omalle työllemme yhteiskunnallisen motiivin (se on aika tärkeää kun perjantai-iltana istuu Otaniemessä ja miettii, että viikonloppu palaa tämän parsissa sitten kuitenkin) sekä toisenlaisen yhteisön, jolle Suomi ei ehkä ole niin erikoinen lumihiutale tutkimusalueena.


Rajapinnassa tullaan julkaisemaan aktiivisesti pohdintoja ja miettimistä hankkeen aikana aihetunnistella hybra. Ei tarvitse aina odottaa varsin hidasta akateemista julkaisua.