Hate speech detection with machine learning — a guest post from Futurice

This blog post is a cross-posting from Futurice and written by Teemu Kinnunen (edits, comments and suggestions given by project participants Matti and Salla from Rajapinta)

* *

(Foreword by Teemu Turunen, Corporate Hippie of Futurice)

The fast paced and fragmented online discussion is changing the world and not always to the better. Media is struggling with moderation demands and major news sites are closing down commenting on their articles, because they are being used to drive an unrelated political agenda, or just for trolling. Moderation practice cannot rely on humans anymore, because a single person can easily generate copious amounts of content, and moderation needs to be done with care. It’s simply much more time consuming than cut and pasting your hate or ads all across the internet. Anonymity adds to the problem, as it seems to bring out the worst in people.

Early this year the nonprofit Open Knowledge Finland approached [Futurice] with their request to get pro bono data science help in prototyping and testing a machine learning hate speech detection system during our municipal elections here in Finland.

The solution would monitor public communications of the candidates in social media and attempt to flag those that contain hate speech, as it is defined by the European Commission and Ethical Journalism Network.

The Non-Discrimination Ombudsman (government official appointed by our government to oversee such matters) would review the results. There are also university research groups involved. This would be an experiment, not something that would remain in use.

After some discussion and head scratching and staring into the night we [at Futurice] agreed to take the pro bono project.

A tedious and time consuming repetitive task is a good candidate for machine learning, even if the task is very challenging. Moderation by algorithms is already done, just not transparently. An example? Perspective API by Jigsaw (formerly Google Ideas) uses machine learning models to score the perceived impact a comment might have on a conversation. The corporations that run the platforms we broadcast our lives on are not very forthcoming in opening up these AI models. The intelligence agencies of course even less so.

So we feel there’s a need for more open science. This technology will reshape our communication and our world. We all need to better understand its capabilities and limitations.

We understand that automatic online discussion monitoring is a very sensitive topic, but we trust the involved parties – specifically the non-discrimination ombudsman of Finland – to use the technology ethically and in line with the Finnish law.

In this article [Futurice’s] Data Scientist Teemu Kinnunen shares what we have done.


The hate speech detection problem is very challenging. There are virtually unlimited ways how people can express thoughts including also hate speech. Therefore, it is impossible to write rules by hand or a list of hate words, and thus, we crafted a method using machine learning algorithms.

The main goal in the project was to develop a tool that can process messages in social media and highlight the most likely messages containing hate speech for manual inspection. Therefore, we needed to design a process to find potential hate speech messages and to train the hate speech detector during the experiment period. The process we used in the project is described in Fig. 1.

Figure 1: Process diagram for hate speech detection.

At first, a manually labeled training set was collected by a University researcher. A subset from a dataset consists of public Facebook discussions from Finnish groups, collected for a University research project HYBRA, as well as another dataset containing messages about populist politicians and minorities from the Suomi24 discussion board. The training set was coded by several coders to confirm agreement of the data (kappa > .7). The training set was used to select a feature extraction and machine learning method and to train a model for hate speech detection. Then we deployed a trained model that was trained with manually labeled training samples. Next, we downloaded social media messages from a previous day and predicted their hate speech scores. We sorted the list of messages based on predicted hate speech scores and send messages and their scores to a manual inspection. After the manual inspection, we got new training samples which we used to retrain the hate speech detection model.

Feature extraction


There are many methods to extract features from text. We started with standard Natural Language Processing methods such as stemming and Bag-of-Words (BoW). At first, we stemmed words in the messages using Snowball method in the Natural Language Toolkit library (NLTK). Next, we generated a vocabulary for bag-of-words using the messages in manually labelled training samples. Finally, to extract features for each message, we computed a distribution of different words in the message i.e. how many times each word in the vocabulary exists in the message.

Some of the words appear nearly in each message, and therefore, provide less distinctive information. Therefore, we gave different weights for each word based on how often they appear in different messages using the Term Frequency – Inverse Document Frequency weighting (TF-IDF). TF-IDF gives higher importance for the words which are only in few documents (or messages in our case).

Word embeddings

One of the problems in bag-of-features is that it does not have any knowledge about semantics of words. The similarity between two messages is calculated based on how many matching words there are in the messages (and their weights from TF-IDF). Therefore, we tried word embeddings which encodes words that are semantically similar with similar vectors. For example, a distance from an encoding of ‘cat’ to an encoding of ‘dog’ is smaller than a distance from an encoding of ‘cat’ to an encoding of ‘ice-cream ’. There is an excellent tutorial to word embeddings on Tensorflow site for those who wants to learn more.

In practice, we used the fastText library with pre-trained models. With fastText, one can convert words into vector space where semantically similar words tend to appear close by each other. However, we need to have a single vector for each message instead of having varying number of vectors depending on the number of words in a message. Therefore, we used a very simple, yet effective, method: we computed a mean of word encodings.

Machine learning

The task in this project was to detect hate speech, which is a binary classification task. I.e the goal was to classify each sample into a no-hate-speech or a hate-speech class. In addition to the binary classification, we gave a probability score for each message, which we used to sort messages based on how likely they were hate speech.

There are many machine learning algorithms for binary classification task. It is difficult to know which of the methods would perform the best. Therefore, we tested a few of the most popular ones and choose the one that performed the best. We chose to test Naive Bayes, because it has been performing well in spam classification tasks and hate speech detection is similar to that. In addition we chose to test Support Vector Machine (SVM) and Random Forest (RF), because they tend to perform very well in the most challenging tasks.

Experiments and results

There are many methods for feature extraction and machine learning that can be used to detect hate speech. It is not evident which of the methods would work the best. Therefore, we carried out an experiment where we tested different combinations of feature extraction and machine learning methods and evaluated their performance.

To carry out an experiment, we needed to have a set of known sample messages containing hate speech and samples that do not contain hate speech. Aalto researcher Matti Nelimarkka, Juho Pääkkönen, HU researcher Salla-Maaria Laaksonen and Teemu Ropponen (OKFI) labeled manually 1500 samples which were used for training and evaluating models.

1500 known samples is not much for such as challenging problem. Therefore, we used k-Fold cross-validation with 10 splits (k=10). In this case, we can use 90% sample for training and 10% for testing the model. We tested Bag-of-Words (BOW) and FastText (FT) (Word embeddings) feature extraction methods and Gaussian Naive Bayes (GNB), Random Forest (RF) and Support Vector Machines (SVM) machine learning methods. Results of the experiment are shown in Fig. 2.

Figure 2: ROC curves for each feature extraction – machine learning method combination. True Positive Rate (TPR) and False Positive Rate (FRP). The FPR axis describes the ratio of mistake (lower is better) and the TPR axis describe the overall success (higher is better). The challenge is to find a balance between TPR and FPR so that TPR is high but FPR is low.

Based on the results presented in Fig. FIGEXP, we chose to use BOW + SVM to detect hate speech. It clearly outperformed other methods and provided the best TPR which was important for us, because we wanted to sort the messages based on how likely they were hate speech.

Model deployment

Based on the experiment, we chose a feature extraction and machine learning method to train a model for hate speech detection. In practice, we used the score of the binary classifier to sort the messages for manual inspection and annotation.

We ran the detector once a day. At first, we downloaded social media messages from a previous day, then predicted hate speech (scored each message) and stored the result in a CSV file. Next, we converted this CSV file to Excel for manual inspection. After manual inspection, we got new training samples which were used to retrain the hate speech detection model.

During the field experiment, we found out that the model was able to sort the messages based on the likelihood of containing hate speech. However, the model was originally trained with more biased set of samples, and therefore, it gave rather high scores also for messages not containing hate speech. Therefore, manual inspection was required to make the final decision for the most prominent messages. Further measures concerning these messages were done by the Non-Discrimination Ombudsman, who in the end contacted certain parties regarding the findings.


In a few weeks, we built a tool for hate speech detection to assist officials to harvest social media for hate speech. The model was trained with rather few samples for such a difficult problem. Therefore, the performance of the model was not perfect, but it was able to find a few most likely messages containing hate speech among hundreds of messages published each day.

In this work, training -> predicting -> manual inspection -> retraining – iteration loop was necessary, because in the beginning, we had quite limited set of training samples and the style of the hate speech can change rapidly e.g. when something surprising and big happens (A terrorist attack in Sweden happened during the pilot). The speed of the iteration loop defines how efficiently the detector works.

Hackathons in Finland: free labor or open innovation?

Those following the Finnish technology scene have most likely observed that hackathons are this year’s megatrend. Everyone seems to be organizing a hackathon to get developers work with problems. You know, digitalisation is coming and everyone – public sector, private sector – need solutions that revolutionalize their operations using digitalisation … and hackathon is one of the trendy ways to bring digitalization gurus to the organization.

As an old-time hackathon participant, I have certain doubts about the whole concept, but as they are trendy, I think I should have something to say about them. I think we’re using hackathons in rather interesting ways – such as supplement procurement of software in public administration – which have some merits. However, there are also cases which seem more as exploitation of participants. I will first shortly address the academic literature around hackathons after which I move to my rant about hackathons.

What do we know about hackathons?

Sadly, the scholarly literature is still emerging around the whole phenomena (and, will most likely be fully developed only after hackathons are passé). But, let’s give it a try anyway and see what we know about hackathon based on the existing works.

Overall, hackathons can be technology-oriented (i.e., focus on particular platforms) or focused on problems; in particular solving societal problems in issue-based hackathons (Lodato & DiSalvo, 2016). These issue-based hackathons can serve multiple purposes; Johnson & Robinson (2014) see these type of hackathons mixed of a procurement process, civic engagement and innovation taking place. What these findings indicate is that people have motivations beyond just hacking things together; like improving the society or to make their views more concrete.

In general, hackathons have three phases; pre-hackathon, hackathon, and post-hackathon. Hackathons are intense collaborations require participants to set up the goals of the hack and the means of collaboration, including work processes. The hackathon itself is a face-to-face activity where participants work together intensively, but can also seek help from others in the team and engage in iterative development and critique. The challenge with post-hackathon activities is to continue with the same team without the collocated settings, as often the hacks need more love to be ready (Lodato & DiSalvo, 2016, Trainer et al., 2016).

Matti’s rant about some recent hackathons and challenges in Finland

Hackathons are a great way to bring bright people together to create something cool. While the process itself is difficult – as seen in above discussed literature – it may be rewarding for participants. Furthermore, at least my experience, hackathons are a great way to get uninterrupted thinking time for a problem in a creative manner. Having space, catering and time reserved in the calendar make it easy to focus on the problem.

In my view, the best hackathons have a somewhat open goal, allowing the developers to take different angles to the problem and demonstrate a variety of approaches, or to invent something new. Usually, the organizers in these cases seek out questions like “what is possible?” and in best cases contribute their skills and knowledge to help hackers. However, I’ve recently seen the term hackathon being used for events I don’t think live up to my ideals.

Hackathons and challenges should not be cheap software development

Some hackathons are organized with a super-specific goal already defined. In the Open Finland Challenge this year, there was a challenge organized by Aller Media, with the goal of

We want to add location data for discussions by offering the user an opportunity to find relevant information about ones’ surroundings. [shortly translated]

When reading this, I think the jury already had a rather clear vision of what they want to get as an outcome. Naturally, you can break the rules – and I did ask this in when the challenges were made public – it’s OK to hack whatever you want. But the jury will naturally read the challenge also. Just compare the challenge made by YLE in the same challenge competition

YLE has opened Elävä arkisto Data through an API. What interesting can you build using this information – maybe a new service to a special user group or something totally new? [shortly translated]

I think this challenge is open-ended, allowing participants to work in rather creative ways with the data. This aligns more within the ideas like open innovation, exposing the company to new ideas and approaches, and the creativity of hackathons. The former instead sounded to me that they might just want to consult a software company to produce a prototype of their idea and test it.

Hackathons and challenges should not be cheap consulting

The more recent case of this was from LähiTapiola Hack, where the goal was to develop “new digital solutions for inspiring young people to save and invest money. During the 5-day business hackathon teams will develop a new business or product concept for LähiTapiola (LocalTapiola), and finally pitch it to a jury consisting of LähiTapiola executives and business angels.”

I think this is a nicely open-ended problem to hack with, giving rather free hands to work with. There is opportunity for true creativity. However, in a closer look at the hackathon policies showed that there was something fishy about the IPR.

In hackathons I’ve attended, the IPR usually belongs to participants or its considered to become public domain. In this hackathon, instead, the conceptual innovations (whatever those are) are explicitly stated to belong to hackathon organizers if they emerge from data and materials by LähiTapiola. This means that these guys get free business consulting and ideas by buying food, space and 5,000 € reward for the winning team. If you want my ideas, you can just contact my consulting firm and we’ll discuss my pricing in detail. Or as it seems, they are actually incubating some business opportunities and startups for them – weirdly called a hackathon.

How to move forward?

I think the first step is to ensure we don’t call all things hackathons or challenges just to look trendy. If you aim to incubate startups or run public procurement, are you really doing a hackathon or something else which may have similar characteristics of a hackathon – collocated fast-paced and solution centric work, aiming to produce some concrete outcome by the final day. I would even avoid the name hackathon for everything that’s not what I would call traditional hackathon, a day or two of hard work in open context – just to make sure you don’t market the event in a wrong manner and get weirdos like me attending.

Second, if you’re sure you’re organizing a traditional hackathon, check that your hackathon task is semi-open to participation. Naturally, seasoned hackathon participants know how to read the tasks in an open manner and produce something cool. But it might be more inviting even for them if they can see that the organizer is truly seeking something novel and cool. Remember that hackathons, as I see them, should be much about open collaboration, open innovation and facilitating great minds to come together.

Finally, have some answer to the question ‘what next?’ If there are ideas the hackathon participants want to move further, how can your organization support those moving forward? I do have good experiences of these, including seed investment from organisations to develop the quick proof of concept into a true product and even launching those. And if you have plans like this, remember to tell about those beforehand and check you continue to support teams throughout the further process as well.


I was motivated to write this post thanks to the poor case from LähiTapiola hack and discussions with my nerd friends in the #fixme-irc channel. All views presented in this text are naturally my own and may not reflect the #fixme-community, the Rajapinta-community, my employer, my supporters, nor the future self.

Cross-posted to my personal blog, Science & Industry.

Vaihtoehtoja alustatalouteen?

Digitaaliset alustat ovat toimijoiden välisten vuorovaikutusten välittäjiä. Ne toimivat paitsi uusien markkinoiden luojina ja olemassa olevien markkinoiden tehostajina, myös näiden markkinoiden sääntelijöinä. Arvonluontia varten alustat keräävät ja käsittelevät laajasti tietoja alustan käyttäjistä. Motiivit markkinoiden luomiseen, sääntelyyn ja datan käsittelyyn juontuvat alustan omistuspohjasta ja organisointitavasta. Käsittelen lyhyesti näitä alustatoimijoiden rooleja sekä esittelen kaksi vaihtoehtoa alustojen organisointiin. Teksti perustuu puheenvuoroon Eduskunnan Tulevaisuusvaliokunnan kuulemisessa jakamistaloudesta ja alustataloudesta.

Alustat markkinoiden välittäjinä

Digitaaliset alustat toimivat vuorovaikutusten välittäjinä. Taloudellisessa mielessä alustoja ylläpitävät alustatoimijat tarjoavat tuotteita ja palveluita, joiden avulla markkinaosapuolet, esimerkiksi kuluttaja ja tuottajat, löytävät toisensa ja tekevät vaihtoja (Evans 2011). Alustatoimijat siis luovat markkinoita. Alustan arvonluonnin perusta on, että markkinaosapuolet eivät kohtaisi ilman alustan välittämiä markkinoita, ainakaan ilman korkeampia kustannuksia. Alustojen välittämät vuorovaikutukset voivat olla luonteeltaan monenlaisia: Uber välittää kyytien tarvitsijoiden ja kyytien tarjoajien vuorovaikutuksia, Googlen hakualusta taas välittää kolmen osapuolen vuorovaikutuksia kahdella eri segmentillä: yhtäältä haun käyttäjien ja internetin sisällöntuottajien, toisaalta mainostajien ja haun käyttäjien vuorovaikutuksia.

Alustatoimijat ovat usein yrityksiä, ja ne luovat markkinoita ja sääntelevät luomiaan markkinoita hyötyäkseen niistä taloudellisesti. Alustatoimijoiden harjoittama markkinoiden yksityinen sääntely voi kohdistua siihen, mitkä toimivat voivat kohdata markkinoilla, tai kuka pääsee käytännössä tarjoamaan tuotteita ja palveluita ja kenelle. Myös hinnoittelumallit, hinnat itsessään, tai alustan määrittelemistä säännöistä poikkeamisen sanktioinnit voivat olla sääntelyn kohteena. Keskeistä on pitää mielessä alustatoimijoiden harjoittaman markkinoiden sääntelyn pääasiallinen motiivi, liiketoiminnan ja arvonluonnin tukeminen. Tämä ei välttämättä ole yhdenmukainen esimerkiksi julkisen sääntelyn tavoitteiden kanssa. Luodessaan uusia markkinoita alustatoimijoilla on lisäksi ollut pyrkimys toimia normittamattomalle alueelle ja ratkoa juridiset tai muut seuraamukset jälkikäteen. Esimerkiksi Uberin ja Google Street View -palvelun toiminta on useissa maissa käynnistynyt ennen kuin niiden laillinen asema on ollut selvä.

Alustan toiminnallisuuksien kautta alustatoimijat voivat käyttää merkittävää vaikutusvaltaa suhteessa alustan käyttäjiin. Esimerkiksi Googlella on kannustin ohjata hakukonealustan avulla haun käyttäjien näkemiä hakutuloksia ja mainoksia niin, että sen keräämät mainostulot ovat mahdollisimman suuret (Rieder & Sire 2013). Koska alustojen tarkemmat toimintaperiaatteet eivät yleensä ole julkisia, tällainen vaikutusvallan käyttäminen on suurelta osin läpinäkymätöntä, ja käyttäjät voivat vain arvailla sen merkitystä erilaisissa alustoissa. Lisäksi alustan sisällä alustan teknisten toimintojen kautta tapahtuva sääntely ja vaikuttaminen ovat pakottavia siinä mielessä, että käyttäjillä on käytössään varsin vähän keinoja puuttua niihin.

Käyttäjistä kerätyn tiedon merkitys

Digitaalisten alustojen – ja ylipäätään informaatioteknologian – ominaisuus on, että erilaisten prosessien tehokkaan automatisoinnin lisäksi ne tuottavat informaatiota näistä prosesseista. Informaatioteknologia tekee aikaisemmin näkymättömistä asioista näkyviä, ja aikaisemmin mittaamattomista asioista mitattavia. Tärkeäksi kysymykseksi muodostuu, miten tätä tiedon tuottamiskykyä käytetään (Zuboff 2015). Mitä tietoa kerätään? Kuka käyttää kerättyjä tietoja? Mihin tarkoitukseen niitä käytetään? Kuka näistä päättää ja millä perustein? Alustojen järjestämien markkinoiden kannalta nämä kysymykset ovat oleellisia, koska alustojen arvonluonnissa keskeistä on alustan käyttäjistä kerätyn tiedon jalostaminen käyttäytymisen ennusteiksi, tuotteiden ja palveluiden personoinniksi ja kohdentamiseksi, suosituksiksi, sekä kysynnän ja tarjonnan ennakoinniksi ja yhteensovittamiseksi. Näiden tuottamiseksi tarvitaan tietoja ihmisten toiminnasta, ominaisuuksista ja valinnoista.

Jonkinlaista alustamarkkinoiden oletusmallia voisi tyypitellä suurten alustatoimijoiden toiminnan perusteella (Zuboff 2015). Alustatoimija pyrkii keräämään alustan käyttäjistä mahdollisimman paljon tietoa tuottaakseen mahdollisimman tarkkoja ennusteita käyttäjien ominaisuuksista ja tekemisistä. Ennusteiden perusteella alustatoimija muokkaa käyttäjän kokemaa palvelua ja suuntaa alustan välittämiä vuorovaikutuksia. Käyttäjät eivät usein itse osallistu itseään koskevien ennusteiden markkinoille – esimerkiksi mainosrahoitteisten alustojen tapauksessa alustatoimija myy ennusteet mainostajille kohdentamisen muodossa. Ihmisen rooliksi ennusteiden tuottamisessa jää lähinnä alustapalvelun käyttöehtojen hyväksyminen, mikä ei usein käytännössä mahdollista merkityksellistä päätöksentekoa omien tietojen käytöstä (Solove 2013). Huomattavaa on myös alustatoimijoiden pyrkimys levittää alustan vaikutuspiiriä sen välittömien rajojen ulkopuolelle avoimeen internetiin (Helmond 2015), yhtenä tavoitteena laajemmat tiedonkeruun mahdollisuudet.

Vaihtoehtoja alustojen organisointiin?

Yllä esitetyn perusteella alustat kykenevät monin tavoin tehostamaan markkinoilla toimivien tuotteiden ja palveluiden kysyjien ja tarjoajien löytämistä ja kohtaamista. Tehostamiskyky perustuu merkittäviltä osin alustan käyttäjistä kerättyihin tietoihin ja niiden pohjalta tuotettuihin ennusteisiin. Vaikka alustat ovat tällä hetkellä pääsääntöisesti (suurten yhdysvaltalais)yritysten hallinnoimia ja tietynlainen tapa organisoida alustan välittämiä markkinoita on tällä hetkellä normi, eivät alustojen tuottamat hyödyt sinänsä edellytä tietynlaista alustan omistusrakennetta tai markkinoiden organisoinnin tapaa. Alustatalouden valtavirran ulkopuolelta löytyy vaihtoehtoisia kehityssuuntia, joista voi ajan oloon tulla merkittäviäkin uusia toimintamalleja. Kaksi esimerkkiä valottavat vaihtoehtoisia alustatalouden kehityssuuntia: osuuskuntapohjaisesti omistettu alusta sekä henkilödatan hallintaan erikoistuneet palvelut.

Ajatus osuuskuntapohjaisista alustoista on luultavimmin lähtenyt liikkeelle havainnosta, että ei ole mitään erityistä syytä sille, että taksi- tai siivouspalveluiden välittämiseen tarvittaisiin riskirahoitettu, kaupallisista lähtökohdista toimiva teknologiayritys. Saman palvelun voisi toteuttaa myös työntekijöiden yhdessä omistama osuuskunta. Alustojen käyttämän teknologian ei pitäisi olla niin kallista tai monimutkaista, että se olisi yhteistoiminnallisesti järjestäytyneiden alustan käyttäjien saavuttamattomissa. Osuuskuntamallin tavoitteena on, että alustan organisointi tapahtuisi nykyistä demokraattisemmin. Tällöin alustan käyttäjät osallistuisivat alustan toimintaa koskeviin päätöksiin ja alustan välittämien markkinoiden sääntelyyn, ja voisivat vaikuttaa esimerkiksi omiin työehtoihin ja palkkaukseen nykyisiä työnvälitysalustoja paremmin. Osuuskuntamuotoisen organisoitumisen mahdollistama läpinäkyvyys voisi lisätä alustan käyttäjien – palvelujen kysyjien ja tarjoajien – luottamusta alustan toimintaan. Kysymyksiin tiedon keräämisestä ja käytöstä osuuskuntamuotoinen alusta tarjoaa vastaukseksi, että alusta päättää edelleen, mutta käyttäjät osallistuvat päätöksiin alustan omistajina.

Toinen suunta alustojen toiminnan muuttamiseksi ovat henkilödatan hallintapalvelut. Ne keskittyvät alustojen rooliin ihmisiä koskevan tiedon keräämisessä. Tällöin ajatellaan, että ihmisillä täytyisi olla mahdollisuus vaikuttaa nykyistä enemmän itseään koskevien tietojen käyttöön. Pragmaattisesti ajatellen kyse on datan ohjaamisesta ihmisille itselleen hyödyllisiin palveluihin. Moraalisesti kyse voisi olla itseisarvosta, eräänlaisesta digitaalisesta ihmisoikeudesta. Yksi kehityssuunta on luoda henkilödatan hallintaan välittäjä, uusi alustatoimija, jonka kautta käyttäjät olisivat suhteessa dataa käyttäviin ja kerääviin muihin alustoihin. Kysymyksiin tiedon keräämisestä ja käytöstä henkilötiedon hallintaan erikoistuneet palvelut tarjoavat ratkaisuksi käyttäjien lisääntynyttä vaikutusvaltaa alustojen kannalta keskeisen raaka-aineen, alustan käyttäjiä koskevan tiedon, virtoihin.

Osuuskuntamuotoisista alustoista on olemassa lähinnä kehitteillä olevia aloitteita, henkilödatan hallintapalveluista jo toimiviakin esimerkkejä, mutta valtavirtaa ne eivät ole. Näiden ja muiden vaihtoehtoisten kehityssuuntien liikkeelle saaminen riippuu alustojen toiminnassa keskeisistä verkostovaikutuksista. Alustojen käyttäjille luoma arvo kasvaa, kun niihin eri puolilta kytkeytyneiden toimijoiden määrä kasvaa. Yksi ehdotettu ratkaisu tähän ns. muna-kana -ongelmaan on alustojen yhteentoimivuus, jolloin esimerkiksi paikallisten osuuskunta-alustojen teknologia voisi toimia osuuskuntien rajojen yli.

Lopuksi: joitain ajatuksia

  • Voisiko alustoilla luoda tilaa uudenlaisille järjestäytymisen muodoille, voiko yhteistoiminnallisesti organisoiduista alustoista syntyä internet-ajan työväenliike?
  • Jos ihmisiä koskevan datan hallinta on alustojen ytimessä, olisiko se toimiva regulaation kanava puuttua alustatalouden markkinoiden keskittymiseen tarvittaessa?
  • Onko oikeus hallita itseään koskevia tietoja digitaalinen ihmisoikeus? Jos on, tulisiko kansalaisille taata työkalut ja keinot itseään koskevan tiedon hallintaan?


Evans, David S. 2011. Platform Economics: Essays on Multi-Sided Businesses. Competition Policy International.

Helmond, A. 2015. “The Platformization of the Web: Making Web Data Platform Ready.” Social Media + Society 1(2).

Rieder, B., and G. Sire. 2013. “Conflicts of Interest and Incentives to Bias: A Microeconomic Critique of Google’s Tangled Position on the Web.” New Media & Society 16(2):195–211.

Solove, Daniel J. 2013. “Privacy Self-Management and the Consent Dilemma.” Harvard Law Review 126(7):1880–1903.

Zuboff, Shoshana. 2015. “Big Other: Surveillance Capitalism and the Prospects of an Information Civilization.” Journal of Information Technology 30:75–89.

Alustatalous ja vallan uusjako

Perustuu puheenvuorooni Eduskunnan tulevaisuusvaliokunnalle jakamistaloudesta ja alustataloudesta.

Alustatalouden vaikutuksista käytävä keskustelu on pääsääntöisesti pohtinut taloudellisia, erityisesti verotukseen liittyviä vaikutuksia ja alustatoimijoiden lainmukaisuutta. Näiden lisäksi alustat teknologisina välineinä vaikuttavat myös arkipäiväisesti kansalaisten elämään. Esittelen lyhyesti tieteen ja teknologian tutkimuksen kirjallisuutta, jossa pohdiskellaan teknologiaa vallankäyttäjinä ja esittelen tätä kirjallisuutta alustatalouden näkökulmasta.

Teknologian kehittäminen vallankäyttönä

Tällä hetkellä alustataloudesta (platform economy) puhutaan paljon. Alusta yhdistää tuottajan ja kuluttajan ja tukee heidän arvoaan tuottavaa vuorovaikutusta (Evans 2011). Esimerkiksi kauppakeskusta voi pitää alustana. Digitaalisessa muodossa alustojen toiminta voi helposti ylittää perinteisiä sijaintiin ja aikaan liittyviä rajoitteita ja vähentää viestintäkuluja. Nämä muutokset ovat luonteenomaisia digitaalisille palveluille. Digitaaliset palvelut perustuvat teknologian soveltamiseen, ja sen vallan roolista on keskustelu paljon akateemisessa kirjallisuudessa.

Tieteen ja teknologian tutkijat (science and technology studies, STS) ovat korostaneet kuinka teknologiaa voidaan käyttää vallankäytön välineenä. Klassikko alalla on Winnerin (1985) essee “Do artifacts have politics?” jossa pohditaan suunnittelijan mahdollisuuksia käyttää valtaa käyttäjiä kohtaan. Hänen yksi keskeinen argumentti on ns. Winnerin silta, joka oli niin matala ettei julkinen liikenne voinut kulkea sen ali – eristäen näin osan kaupunkia autottomilta yhteiskuntaluokilta. Vaikka perusajatus onkin yksinkertainen, on samaa ajattelua sovellettu myöhemmin esimerkiksi algoritmien (esim. Gillespie 2012) osalta. Vaikkakin myöhempi kirjallisuus on korostanut, ettei kyseessä ole näin yksiselitteinen “teknologian määrittelee vallankäytön”-ajatus, on ilmeistä ettei teknologian kehittäjän valtaa ole syytä jättää huomiotta alustataloudessa. Esimerkiksi ajankohtainen akateeminen kirjallisuus kysyy, onko Netflixin suosittelualgoritmien kehitys muuttanut kulttuurin määrittelyn humanistisesta ongelmasta insinööritieteiden ongelmaksi (Hallinan & Striphas 2016).

Keskeiset alustatoimijat vallankäyttäjinä

Alustataloudessa keskeinen ominaisuus on monopolisoituminen ja voittavan alustan ylivoimaisuus (esim. Brynjolfsson & McAfee 2014). Voittavien alustojen kehittäjät myös käyttävät valtaa – tietoisesti tai tiedostamatta – liittyen erityisesti käyttäjän ja alustan vuorovaikutukseen. Esimerkkejä vallankäytöstä ovat

  • Miten käyttäjä tunnistetaan verkossa (esimerkiksi: Facebookin vaatimus “oikean nimen” käytöstä käyttäjien tunnuksissa 2012-2015)
  • Miten käyttäjien välistä vuorovaikutusta tuetaan alustan kautta (esimerkiksi: Uberin alustalla ei ole ollut mahdollista antaa juomarahaa kuljettajalle)
  • Minkä maan regulaation piirissä käyttäjän oletetaan toimivan (esimerkiksi: Airbnb:n käyttöehtojen mukaisesti sovelletaan Irlannin lakia)

Kuten esimerkeistä havaitaan, valta ilmenee niin käyttäjän ja järjestelmän kuin käyttäjän ja käyttäjän välisessä vuorovaikutuksessa, koska alustat määrittelevät ihmisten välisen vuorovaikutuksen muotoja. Edelleen, valtaa käytetään erilaisin välinein: muunmuassa alustan omien sääntöjen muodossa, muokkaamalla alustan toimintatapaa tai määrittelemällä alustan ja kansallisen lainsäädännön suhdetta. Samoin vallankäyttöä voivat olla loppukäyttäjälle näkymättömät muutokset alustan toiminnassa, kuten muutokset haussa tai käyttäjän mittaamisessa. Esimerkiksi Facebook voi muuttaa käyttäjänsä tunnetilaa muokkaamalla uutisvirran sisältöä (Kramer et al. 2014). Koska muokkaus käyttäjältä salassa, nostaa esimerkki esille vallankäytön haasteita erityisesti läpinäkyvyyden osalta.

Vallankäytön kannalta on kuitenkin syytä korostaa, ettei monia yllä kuvattuja muutoksia välttämättä pidettäisi vallankäyttönä, vaan normaalina alustan kehittämisenä ja alustan liiketoimintamallien suunnitteluna ja verifiointina (vertaa Hallinan & Striphas 2016) Olen tietoisesti valinnut hyvin kriittisen näkökulman voidakseni korostaa vallan ja alustaratkaisuiden välistä yhteyttä. Tällä hetkellä useat kuluttaja-alustapalvelut (mm. Google, Microsoft, Apple, Facebook, Amazon) ovat yhdysvaltalaisia ja tällöin alustaa koskevat  päätökset tehdään Yhdysvalloissa. Samaan aikaan alustatalouden keskeinen lupaus on globaali toiminta ja mahdollisuus skaalautua kansainvälisiksi, kansallisvaltioita suuremmiksi kokonaisuuksiksi.

Mikä on kansallisvaltioiden rooli?

Yksittäisen pienen valtion, kuten Suomen, mahdollisuudet vaikuttaa ylikansalliseen alustatoimijaan ovat vähäiset. Suomessa on ehdotettu sääntöjen soveltavaa tulkintaa alustatalouden toimijoita kohtaan, jotta voitaisiin tukea alustatalouden syntymistä Suomessa (esim. Allisto et al. 2016). Uskon, että kansainvälinen ulottuvuus, erityisesti Euroopan unioni, on mielekkäämpi tapa pyrkiä muokkaamaan alustatalouden toimintaympäristöä. Ensinnäkin, eurooppalainen yhteinen markkina-alue (European Digital Single Marketplace) tukisi myös Suomessa syntyviä alustatoimijoita. Toiseksi Euroopan unioni on onnistuneesti – vaikkakin hitaasti – pystynyt haastavaan toimijoita, kuten Microsoft yli kymmenen vuotta kestäneessä rajapintojen avoimuutta käsitelleessä prosessissa. Haasteena alustatoimijoiden säännöstelyssä voi kuitenkin olla jähmeys ja hitaus (julkishallinnon lainsäädäntötyössä, esimerkiksi Nelimarkka 2011). Usein säännöstely on reaktiivista, kun alustatoimijat ovat jo muodostaneet oman toimintatapansa. Olisikin tärkeää nopeuttaa kykyä reagoida uusiin alustatoimijoihin ja toimintatapoihin.

Avoimia kysymyksiä

  • Miten alustatalouden vallankäyttö näkyy ihmisten arjessa ja mitä regulaatiotarpeita tämä vallankäyttö nostaa esille?
  • Miten regulaatio voi puuttua digitaalisiin alustatoimijoihin, jos tarvetta?
  • Kuinka eurooppalaisella tasolla voi kehittää valtaa paremmin jakavia alustatalouden muotoja?


Evans, David S. 2011. Platform Economics: Essays on Multi-Sided Businesses. Competition Policy International.

Winner, L. (1985). Do artifacts have politics? In D. MacKenzie & J. Wajcman (Eds.), The social shaping of technology (pp. 26–38). Buckingham: Open University Press.

Gillespie, T. (2012). The relevance of algorithms. In Media Technologies: Essays on Communication, Materiality, and Society (pp. 167–194).

Hallinan, B., & Striphas, T. (2016). Recommended for you: The Netflix Prize and the production of algorithmic culture. New Media & Society, 18(1), 117–137.

Brynjolfsson, E., & McAfee, A. (2014). The second machine age: work, progress, and prosperity in a time of brilliant technologies. WW Norton & Company.

Kramer, Adam DI, Jamie E. Guillory, and Jeffrey T. Hancock (2014). “Experimental evidence of massive-scale emotional contagion through social networks.”Proceedings of the National Academy of Sciences 111(24), 8788-8790.

Ailisto, Heikki (toim.), Jari Collin  (toim.), Jari Juhanko (toim.), Martti Mäntylä (toim.), Sampsa Ruutu (toim.), Timo Seppälä (toim.), Marco Halén, Kari Hiekkanen, Kirsi Hyytinen,, Eeva Kiuru, Heidi Korhonen , Jukka Kääriäinen , Päivi Parviainen, Jaakko Talvitie: Onko Suomi jäämässä alustatalouden junasta? Valtioneuvoston selvitys- ja tutkimustoiminnan julkaisusarja 19/2016

Nelimarkka, M. (2011). Viranomaiset ja sähköinen kansalaisosallistuminen – asiantuntijahaastatteluiden perusteella luotu aktantiaalinen malli. Hallinnon Tutkimus, 30(2), 158–169.