A critical researcher’s uncritical manifesto: We should fall in love with the Internet again

Video art by Taru N Hohtonen
Video art by Taru N Hohtonen presented at the club.

This is a blog post version of Salla-Maaria Laaksonen’s festive speech at the WorldWideWeb 30-year anniversary party at Lavaklubi, Helsinki, March 12th 2019.

Dear friends of the World Wide Web,

As all of us here today, I definitely would not be here if it wasn’t for the world wide web.

I am a social media researcher, and I represent here a researcher collective Rajapinta that focuses on Internet research. However, my own story with the Internet goes far beyond my researcher career. It is a love story that started over 20 years ago, somewhere between IRC and Java-based online chats. Me and the world wide web grew together, from IRC to KissFM chats, from Jaiku to Twitter.

I believe this is a common story for many. A couple of years ago I attended a professional workshop on influencing. The consultant asked us to write down the name of the biggest influencer of our life. Four out of seven participants, independently, wrote down “the Internet”. I bet many of you would as well.

Indeed, the Internet has influenced our lives in many ways. It has changed the way we communicate, how we shop and how we read news. It has even changed the way we die or at least how me memorize those who have passed.

Yet, if you follow the current discussions of the Internet or read the news that concern social media, it becomes difficult to find these narratives of the technology that so profoundly changed our lives.

Instead, we talk about hate speech and cyberbullying, we talk about influencing elections, we talk about misusing personal data, and technology addiction. We hear politicians talk about ‘nettiväki’, the ‘social media folk’ to refer to online users who emotionally herd from one topic to another, who need to be civilized and controlled. Behind these claims there often is the idea that the technology is somehow making us humans do these things.

But I think there is so much more to the web than these alarmist notions. The web is also a marvelous place, where many forms of culture and communication live side by side.

And it is precisely this what makes it interesting for a researcher.

For a researcher the Internet is a bird-watching tower to climb into and see what is happening in the world, or sometimes a small campfire for storytelling.

In my own studies, I have climbed that bird-watching tower and sat on that campfire to study political discussions, online protests, social media influencers and social media stirs.

In all these what I see is genuine conversations, I see learning and I see peer support, I see real political debates.

This brings me to my title and my manifesto:

For a researcher, the world wide web is a sociotechnical system, constituted by both humans and technology.

This means the web is a technology that affords and limits what it’s users can do, but it is also constantly shaped by us users, it has to adapt to the practices we invent on that technology. So it’s not that the web can dictate what we do with it, but we have power to use it for own purposes.

That is why we can also shape the web and make it a something we want it to be.

We can keep alive the anonymous peer support from the 90s forums.

We can support the flat communication arenas, where a citizen can go and talk to a politician.

We can build the tower of Babel, where people speaking different languages around the globe can exchange ideas.

What I’m describing here sounds like the lost Internet imaginary of the 90s, but it is still alive somewhere over there. I see it on my researcher’s table and I want to bring it back to the public communication as well.

So, I will end with a call for us all: to celebrate the 30 years, let’s cherish the best parts of online communication and make sure we are acting so that our actions are building and rebuilding that web that exists in those early utopias. It is up to us to shape the web.

Happy birthday, dear WWW! We will take care of you!

Eettinen tekoäly toteutuu punnituissa käytännöissä

Tekoälyä kuvataan maiden tai maanosien välisenä kilpajuoksuna, jonka ennakkosuosikkeina ovat USA ja Kiina, sekä haastajana EU. Asetelma näkyy EU-maissa tekoälystrategioina, ohjelmina ja rahoitusinstrumentteina.

Valtioneuvoston tuoreen eettistä tietopolitiikkaa koskevan selonteon mukaan Suomi tavoittelee kilpailuetua eettisesti kestävällä tekoälyn kehittämisellä ja soveltamisella. Päämääränä ovat hyödyt yhteiskunnalle ja tavallisille ihmisille, esimerkkinä maailman parhaat julkiset palvelut. Eettisyyttä tavoitellaan yhteisesti sovituilla periaatteilla, joita palveluiden kehittäjät ja ihmisiä koskevien tietoaineistojen hyödyntäjät noudattavat.

Eettisesti kestävän tekoälyn viitekehys korostaa yleisiä periaatteita kuten läpinäkyvyttä, ihmiskeskeisyyttä, ymmärrettävyyttä, syrjimättömyyttä ja ihmisarvoa – yleviä päämääriä, joiden arvoa tuskin kukaan kiistää. Periaatteita edistetään vetoamalla yritysten itsesäätelyn tarpeeseen muuttuvassa teknologiaympäristössä, jossa ajantasainen sääntely lakien tai määräysten avulla on vaikeaa.

Eettiset viitekehykset ovat erityisen tärkeitä silloin, kun sääntely tai yhteiskunnalliset oikeudenmukaisuuden normit eivät auta jäsentämään toiminnan reunaehtoja. Periaatteet rajaavat toimintatapoja, jotka ilmiselvästi rikkovat ihmisten itsemääräämisoikeutta tai tuottavat epäterveitä käytäntöjä arkeen ja työelämään. Yleisten periaatteiden ongelma voi kuitenkin piillä niiden tulkinnallisessa avoimuudessa. Se mikä on yhdelle yritykselle vastuullisuutta tai syrjimättömyyttä, ei välttämättä ole sitä toiselle.

Olemme seuranneet vuosien ajan eettisen tietopolitiikan vahvuudeksi tunnistetun MyData-ajattelun kehittymistä Suomessa ja kansainvälisesti. MyDatan, tai omadatan, perusajatuksen mukaan kansalaisten tulee saada hallita itseään koskevien tietojen käyttöä yrityksissä ja julkisella sektorilla. MyDatassa yksilöä ajatellaan digitaalisen talouden keskuksena ja datavirtojen keskipisteenä. Tavoitteena on haastaa henkilökohtaisten tietojen taloudellisen hyödyntämisen epätasa-arvoisuus siirtämällä kontrolli yrityksiltä ihmisille, joista aineistoja kerätään.

MyDatan edistäjät ovat tehokkaasti osoittaneet ihmiskeskeisyyden tarpeellisuuden datatalouden rakenteissa. Samalla ihmiskeskeisyyttä kuitenkin tulkitaan varsin joustavasti. Se voi tarkoittaa kansalaiselle tasavertaista osallistumista digitaaliseen yhteiskuntaan, yritykselle taas väylää päästä yksilön kautta käsiksi datajättien hallussa oleviin aineistoihin.

Mikä merkitsee yhdelle toimijalle kaikkien digitaalisten oikeuksien suojaamista, voi toiselle tarkoittaa mahdollisuutta tarjota maksukykyisille yksityisyyttä turvaavia palveluja. Ihmiskeskeisyydestä tulee eräänlainen musteläiskä, jossa toimijat näkevät omasta näkökulmastaan edistämisen arvoisia piirteitä.

Yleiset eettiset periaatteet eivät siis takaa tavoiteltujen yhteiskunnallisten seurausten toteutumista. Pikemminkin yleisellä tasolla pysyminen tuottaa epämääräistä puhetta ja mitäänsanottamia vastauksia. Siksi eettisiä periaatteita tulee konkretisoida ja koetella käytännössä. Jotta käytännön toimijat saavat tukea päätöksilleen, tarvitaan yksityiskohtaisia esimerkkejä palveluista, joissa eettiset periaatteet toteutuvat. Inspiraatiota eettisyyteen voi hakea myös yhteistä hyvää tuottavista digitaalisista palveluista kuten Wikipediasta, tai osuuskuntaperiaatteella toimivista yrityksistä.

Henkilökohtaisten tietojen käytön eettiset periaatteet toteutuvat, kun pääsy aineistoihin pohditaan huolellisesti ja samalla määritetään, kuka voi hyötyä aineistojen käytöstä ja miten. Keskeisiä ovat aineistojen käyttöön liittyvän päätöksenteon säännöt. Tässä ei itse asiassa ole mitään uutta. Vaikka teknologia kehittyykin nopeasti, henkilökohtaisten aineistojen käytön rajoja ja mahdollisuuksia on pohdittu vuosikymmenien ajan.

On päätettävä millaista aineistoa voi kerätä tai käyttää, mihin tarkoituksiin ja kenen toimesta, missä kulkevat hyväksyttävän ja vältettävän rajat, ja kuka niihin voi vaikuttaa ja millä aikavälillä. Vastaukset eivät kumpua yleisistä periaatteista, eivätkä ole yleispäteviä. Se mikä esimerkiksi liikenteen älypalveluissa on hyväksyttävää, voi terveyden kentällä olla eettisesti arveluttavaa.

Tämän ajan suuri haaste on digitaalisen ympäristön ohjaus ja hallinnointi. Pikemminkin kuin teknologian kehittäjien kilpajuoksusta, tässä on kysymys eri näkökulmien ja käytäntöjen huolellisesta yhteensovittamisesta. Kilpailuetua tulisi hakea eettisten tavoitteiden toteutumisesta eri alojen osaamisten risteyskohdissa. Siinä missä tekoälykisaajat näkevät maalin edessään, eettinen kestävyys löytyy pikemminkin yhdistelemällä kekseliäästi vanhaa ja uutta.

– –
Tuukka Lehtiniemi (@tlehtiniemi) & Minna Ruckenstein (@minruc).
Kirjoittajat ovat tutkijoita Helsingin yliopiston Kuluttajatutkimuskeskuksessa.

Kirjoitus on rinnakkaisjulkaistu Etiikka.fi-sivulla.

8 tapaa pyristellä irti digijättien verkoista

https://www.flickr.com/photos/treehouse1977/36015094302/
Photo (cc) Jim Champion@Flickr

Tällä viikolla vietetään Mediataitoviikkoa. Myös digitaalisen yksityisyyden varjelemisen taidot ovat tärkeä osa nykypäivän mediataitoja. Sen kunniaksi Rajapinnassa päätimme koota muutaman helpon keinon parantaa verkkoyksityisyyttä ja vähentää digijättien valtaa elämässäsi.

  1. Tiukenna yksityisyysasetuksia. Monissa palveluissa voit itse valita, mitä kaikkea tietoja sinusta kerätään ja tallennetaan ja minne muualle kyseinen palvelu niitä saa jakaa. Esimerkiksi Googlessa voit määritellä, saako se tallentaa lokaatiotietoja, tietoja sovellusten käytöstä, tai nauhoittaa Google Assistentin kanssa käymäsi keskustelut. Facbookissa kannattaa säännöllisesti tarkistaa mitkä ulkopuoliset sovellukset saavat käyttää tietojasi. Omat mainosprofilointitietosi voi tarkistaa ja niiden asetuksia säätää. Voit esimerkiksi kieltää Facebookia näyttämästä sinua ystävillesi suosittelijana sellaisessa mainoksessa, jonka on tehnyt tykkäämäsi sivu.
  2. Rajoita sovellusten oikeuksia älypuhelimessasi. Älypuhelimissa sovellusten käyttöjärjestelmältä saamia tietoja voi säätää sovelluskohtaisesti. iPhonessa kannattaa käydä katsomassa puhelimen asetuksista hieman epäintuitiivisesti Screen Time -sovelluksen alle sijoitetut sovelluskohtaiset sisältö- ja yksityisyysrajoitukset. Android-laitteissa asetusten alta löytyy kohta Sovellukset / Sovelluksen käyttöoikeudet (Apps / App Permissions), josta voit säätää erikseen kunkin sovelluksen oikeuksia esimerkiksi mikrofoniin tai konktakteihin.
  3. Eristä digijätit. Monet alustapalvelut, erityisesti Facebook ja Google seuraavat upotusten avulla myös sitä, mitä teet muilla verkkosivuilla. Tätä voi estää esimerkiksi käyttämällä näitä palveluita eri selaimelle, jolla et tee muuta. Lisäksi on olemassa erilaisia selainlisäosia, jolla haluamansa palvelun voi eristää muusta selainkäytöstä. Esimerkiksi Firefoxin lisäosa Facebook Container eristää Facebookin muusta nettikäytöstä. Facebookia voi mobiilissakin pyörittää selaimella, tosin hieman Facebook-sovellusta kankeammin. Esimerkiksi yksityisviesteihin ei helposti pääse mobiiliselaimesta käsiksi.
  4. Estä seuranta. Selaimiin löytyy erilaisia lisäosia, joiden avulla kolmansien osapuolien palvelut (esim. mainostajat) eivät voi seurata jälkiäsi eri sivustojen yli. Esimerkiksi useaan eri selaimeen sopiva Ghostery tai Firefoxiin Lightbeam. Lightbeam myös havainnollistaa visualisaatioilla verkon jäljittäjien piilevää infrastruktuuria. Sama onnistuu kännykässäkin, esim. iPhonessa tämä tapahtuu sisällön lataamista estävän sovelluksen avulla (engl. content blocker, esimerkiksi AdGuard), jonka voi yhdistää eri selaimiin.
  5. Harhauta mainostajia. Monet palvelut ja lisäosat harhauttavat mainostaloutta myös ikään kuin sotkemalla profiilisi. Esimerkiksi Adnauseam-lisäosa klikkaa jokaista selaimessasi näkyvää mainosta, mikä voi tehdä kohdennusprofiilistasi melkoisen sekamelskan. Omaa Google-historiaansa. Ruin My Search History -palvelu puolestaan tekee selaimellasi valtavan määrän omituisia Google-hakuja ja yrittää siten sotkea profiilisi – ja tarjoaa hyvät naurut kaupan päälle. Kannattaa pohtia haluaako tällaisia palveluita käyttää vai ei. Mainostus- ja hakuprofiilien sotkeminen on digiajan vastarinnan muoto, jonka kääntöpuolena suositukset ja mainokset voivat muuttua oudoiksi tai jossain tilanteissa jopa kiusallisiksi.
  6. Käytä vaihtoehtoista hakukonetta. Esimerkiksi DuckDuckGo lupaa olla träkkäämättä käyttäjien tekemisiä. Se kuitenkin käyttää hyväkseen Googlen hakuindeksiä, eli eroon Googlen hakukoneesta et tällä tavalla pääse vaikka sen datankeruusta ehkä pääsetkin. Muita vaihtoehtoja on myös tarjolla, esim. ainoaksi eurooppalaiseksi hakukoneeksi itseään mainostava Qwant.
  7. Poista historiatiedot eri palveluista säännöllisesti. Jotkut alustat tarjoavat mahdollisuuden poistaa kerralla tai aikarajauksella historiatietoja esimerkiksi tehdyistä hauista. Esimerkiksi Googlen palveluista voi poistaa lokitietojaan data-asetuksista. Facebookin kohdalla tilanne on hiukan mutkikkaampi ellet ole valmis poistamaan koko tiliä, mutta vaihtoehtoisia keinoja on listattu esimerkiksi tässä iMoren artikkelissa. Yksi ratkaisu on myös tuhota tili ja luoda se sitten kokonaan uudestaan.
  8. Suosi vaihtoehtoisia viestintävälineitä. Digijättien palveluille on myös vaihtoehtoja, joiden puolesta voi puhua. Sosiaaliset verkostot liikkuvat hitaasti, mutta pikaviestien kohdalla vaihto onnistuu helpommin. Asenna puhelimeesi vaikkapa Signal ja käytä sitä viestittelyyn Facebookin omistaman WhatsAppin tai Facebook-viestien sijaan. Vaikka Facebook lupaa WhatsApp-viestien sisällön olevan päästä päähän salattuja, viestinnän metatietojen käytöstä ei luvata mitään.
  • BONUS: Vaalivahti Keväällä 2019 Suomessa järjestetään kahdet vaalit, mikä todennäköisesti saa poliittiset mainostajat liikkeelle. Vaalivahti on Open Knowledge Foundation Finlandin tutkimusprojekti, joka kerää tietoa Facebookissa tehdyistä mainoskohdennuksista vaalien aikana. Asenna projektin tarjoama WhoTargetsMe-lisäosa selaimeesi, niin pystyt seuraamaan kuka yrittää kohdentaa kaltaisiisi käyttäjiin ja lahjoitat samalla tiedot tutkimukselle.

Lopuksi: Tutkijan huomio

Digitaalisessa ympäristössä on tärkeää oppia ajattelemaan tekemisiään tiedonkeruun mahdollisuuksien ja seurausten kannalta. Jokapäiväisen tiedonkeruun estäminen, tai ainakin vähentäminen, voi myös ajatella olevan osa tämän päivän kansalaistaitoja. Samaan aikaan kansalaistaidoista puhumalla tulee korostaneeksi yksilön vastuuta omista tekemisistään tilanteessa, jossa tiedonkeruun tavat ja tiedon käytön seuraukset ovat vaikeasti hahmotettavia ja koko ajan muutoksessa, eikä ns. tavallinen tallaaja mitenkään pysy niiden perässä.

On hyvä pitää mielessä että palveluntarjoajan omat yksityisyysasetukset eivät välttämättä ole sitä miltä ne vaikuttava, ja esimerkiksi käyttäjän sijaintia on seurattu yksityisyysasetuksista riippumatta. Samoin profiilin tietoja poistaessa ja selaimen lisäosia tai yksityistä selausmoodia käyttäessä olemme palveluntarjoajan tai asiantuntijoiden vakuuttelujen varassa siitä, että tiedot todella poistuvat tai että meitä ei todella enää seurata. Datajättien poistaminen omasta elämästä omalla aktiivisuudella on vaikeaa tai mahdotonta, jos haluaa pysyä jollain tavalla nyky-yhteiskunnan jäsenenä — monen palvelun käyttö ei esimerkiksi äärimmäisen suojatun Tor-verkon kautta edes onnistu.

Viime kädessä ratkaisua ongelmiin täytyy etsiä muualtakin kuin yksilöiden käyttäytymisen muutoksista. Tasapainoisempaa ja reilumpaa digiympäristöä odotellessa ei ole kuitenkaan pahitteeksi pitää verhojaan suljettuna ja oviaan lukittuna.

– –
Tekstiä varten on kerätty vinkkejä Rajapinta ry:n Slackissa. Tekstin ovat kirjoittaneet Salla-Maaria Laaksonen ja Tuukka Lehtiniemi ja sen ideointiin ovat osallistuneet Jesse Haapoja ja Jukka Huhtamäki.

Eliitti, mitä haluatte – bulkkikoodareita liukuhihnalta vai digitalisaatiovelhoja?

Joukko ohjelmistoalan yrittäjiä, liikejohtajia ja muuta yhteiskunnan eliittiä argumentoivat (HS 18.6.), että Suomi tarvitsee enemmän koodareita. He esimerkiksi sanovat, että

Koodarivajeen paikkaaminen on suomalaisyritysten kasvun elinehto. Tarvitsemme lisää koodauksen koulutuspaikkoja, rohkeita uudelleenkouluttautujia, jatkuvaa osaamisen kehittämistä ja kansainvälisten huippujen aktiivista houkuttelemista Suomeen.

Samanlaista puhetta on kuulunut nyt vuoden-kahden ajan, esimerkiksi Elinkeinoelämän valtuuskunta EVA sekä valtavirran media (Talouselämä, YLE) ovat nostaneet esille täysin samaa kriisiä. 2010-luku ei ole ensimmäinen vuosikymmen kun koodarien puutetta on valiteltu. Nokian vaatimuksesta ohjelmistoalan koulutusta lisättiin merkittävästi aikanaan; tyydyttämään sen aikaista koodaripulaa. Kuitenkin, nyt on ilmeistä ettei koodarien koulutuksen lisääminen pelastanut matkapuhelinliiketoimintaa. Miksi olettaa siis, että tilanne olisi nyt toisenlainen – ja miksi ratkaisu olisi nimenomaan kouluttaa koodareita?

Digitaalinen murros on muuttanut ja tulee muuttamaan yhteiskunnan ja liike-elämän toimintaa. Digitaaliset työvälineet ja ympäristöt ovat läsnä yhä useamman työläisen arjessa. Myös niiden suunnittelu sekä kehittäminen koskettaa yhä useampia työpaikoilla.. Tietotekniikan pohdinta leviää aloille, joissa ei ole perinteisesti mietitty tietotekniikkaa kovinkaan paljon. Mutta tämä on eri asia kuin tarve koodareille!

Vaikka puhutaankin koodarivajeesta, niin ei ole selvää tarvitaanko lisää tietotekniikan koulutusputken läpikäyneitä koodareita. Myös HSn mielipidekirjoituksessa kuvataan tulevaisuuden koodareita varsin laajasti, kritisoiden nykyistä koulutustamme:

Ammattitaitoisten koodaajien joukko on tätä nykyä paitsi liian pieni myös liian homogeeninen. Suomi tarvitsee lisää alan koulutusta sekä uuden käsityksen siitä, kenelle koodaus on oikea ammatinvalinta. Tulevaisuuden koodareilta tarvitaan matemaattisen tai teknisen taidon rinnalle luovaa ja yhteiskunnallista ajattelua. Psykologiaa, sosiologiaa, palvelumuotoilua. Tulevaisuuden taiteilijat ja tuloksentekijät, innovaattorit ja muotoilijat ovat myös koodaajia.

Vastaus koodaripulaan ei siis voi olla vain koulutuksen kasvattaminen tietojenkäsittelytieteen ja tietotekniikan koulutuksessa. Koodaamisen ja ohjelmistotuotannon sijaan ensiarvoisen tärkeää olisi, että yhä useampi ihminen osaisi ottaa käyttöönsä teknologian suomia mahdollisuuksia. Digitaalisen murroksen keskeinen muutos on ymmärtää mitä voidaan automatisoida, tai kuten nykyaikana sanottaisiin, siirtää tekoälyn hoidettavaksi. Digitalisaation avulla voidaan luoda uudenlaisten tuotteiden ja palveluita, mutta missä koulutamme tällaisia taitoja esimerkiksi psykologeille, sosiologeille tai palvelumuotoilijoille?

Koulutukseksi ei uskoakseni riitä tietojenkäsittelytieteen sivuainekokonaisuus. Sen sijaan  tarvitaan uudenlaisia kurssikokonaisuuksia, jotka käsittelevät informaatioteknologiaa alan oman oppihistorian ehtojen mukaisesti. Esimerkiksi opettamani valtiotieteellisen tiedekunnan ohjelmointikurssi eroaa tietojenkäsittelytieteen laitoksen kurssista. Ohjelmoinnin opetus kytkettyy osaksi  yhteiskuntatieteen tutkimusta. Esimerkiksi luemme yhteiskuntatieteellisiä artikkeleita, joissa ohjelmoimalla on tehty mielenkiintoisia osia tutkimuksesta. Toivon, että kurssin lopulla opiskelijat eivät vain osaa ohjelmoida, vaan myös näkevät paremmin, miten ohjelmointia voidaan käyttää yhteiskuntatieteen kannalta mielekkäästi. Ohjelmointiopetuksen lisäksi olisi välttämätöntä muodostaa selkeitä kokonaisuuksia informaatioteknologian ymmärtämisen, analyysin ja hyödyntämisen ympärille. Rajapinta-kurssi on ollut hyvä avaus tässä, mutta onko se tarpeeksi?

Ymmärrän täysin huolen osaamisvajeesta. Kuitenkin osaamisvajeen käsitteleminen nimenomaisesti koodarien puutteena voi johtaa väärintulkintaan ongelmasta. Uskon, että ongelma ei ole vain tietotekniikan koulutuksen vähäisyys vaan myös digitalisaation ymmärtämistä käsittelevän koulutuksen puute muilla aloilla.

Viime vuosina ainakin Helsingin yliopistolla on otettu varovaisia ensiaskelia digitaalisuuden ymmärryksen tukemiseen. Askeleet ovat varmasti olleet hitaita ja varovaisia, koska digitaalisuus nykymaailmassa on poikkitieteellinen ilmiö: sen sijoittaminen tieteenalojen päällä toimivalle yliopistolle ei ole ollut helppoa. Kansainvälisestihän ongelma on ratkaistu perustamalla vanhoista tieteenaloista irrallisia rakenteita.

Ehkäpä koodarien massakoulutuksen sijaan kansakuntamme kannattaisi vihdoin panostaa digitaalisuutta käsittelevien poikkitieteellisien koulutus- ja tutkimusinstituutioiden pitkäjänteiseen kehittämiseen.

Hate speech detection with machine learning — a guest post from Futurice

This blog post is a cross-posting from Futurice and written by Teemu Kinnunen (edits, comments and suggestions given by project participants Matti and Salla from Rajapinta)

* *

(Foreword by Teemu Turunen, Corporate Hippie of Futurice)

The fast paced and fragmented online discussion is changing the world and not always to the better. Media is struggling with moderation demands and major news sites are closing down commenting on their articles, because they are being used to drive an unrelated political agenda, or just for trolling. Moderation practice cannot rely on humans anymore, because a single person can easily generate copious amounts of content, and moderation needs to be done with care. It’s simply much more time consuming than cut and pasting your hate or ads all across the internet. Anonymity adds to the problem, as it seems to bring out the worst in people.

Early this year the nonprofit Open Knowledge Finland approached [Futurice] with their request to get pro bono data science help in prototyping and testing a machine learning hate speech detection system during our municipal elections here in Finland.

The solution would monitor public communications of the candidates in social media and attempt to flag those that contain hate speech, as it is defined by the European Commission and Ethical Journalism Network.

The Non-Discrimination Ombudsman (government official appointed by our government to oversee such matters) would review the results. There are also university research groups involved. This would be an experiment, not something that would remain in use.

After some discussion and head scratching and staring into the night we [at Futurice] agreed to take the pro bono project.

A tedious and time consuming repetitive task is a good candidate for machine learning, even if the task is very challenging. Moderation by algorithms is already done, just not transparently. An example? Perspective API by Jigsaw (formerly Google Ideas) uses machine learning models to score the perceived impact a comment might have on a conversation. The corporations that run the platforms we broadcast our lives on are not very forthcoming in opening up these AI models. The intelligence agencies of course even less so.

So we feel there’s a need for more open science. This technology will reshape our communication and our world. We all need to better understand its capabilities and limitations.

We understand that automatic online discussion monitoring is a very sensitive topic, but we trust the involved parties – specifically the non-discrimination ombudsman of Finland – to use the technology ethically and in line with the Finnish law.

In this article [Futurice’s] Data Scientist Teemu Kinnunen shares what we have done.

Technology

The hate speech detection problem is very challenging. There are virtually unlimited ways how people can express thoughts including also hate speech. Therefore, it is impossible to write rules by hand or a list of hate words, and thus, we crafted a method using machine learning algorithms.

The main goal in the project was to develop a tool that can process messages in social media and highlight the most likely messages containing hate speech for manual inspection. Therefore, we needed to design a process to find potential hate speech messages and to train the hate speech detector during the experiment period. The process we used in the project is described in Fig. 1.

Figure 1: Process diagram for hate speech detection.

At first, a manually labeled training set was collected by a University researcher. A subset from a dataset consists of public Facebook discussions from Finnish groups, collected for a University research project HYBRA, as well as another dataset containing messages about populist politicians and minorities from the Suomi24 discussion board. The training set was coded by several coders to confirm agreement of the data (kappa > .7). The training set was used to select a feature extraction and machine learning method and to train a model for hate speech detection. Then we deployed a trained model that was trained with manually labeled training samples. Next, we downloaded social media messages from a previous day and predicted their hate speech scores. We sorted the list of messages based on predicted hate speech scores and send messages and their scores to a manual inspection. After the manual inspection, we got new training samples which we used to retrain the hate speech detection model.

Feature extraction

Bag-of-features

There are many methods to extract features from text. We started with standard Natural Language Processing methods such as stemming and Bag-of-Words (BoW). At first, we stemmed words in the messages using Snowball method in the Natural Language Toolkit library (NLTK). Next, we generated a vocabulary for bag-of-words using the messages in manually labelled training samples. Finally, to extract features for each message, we computed a distribution of different words in the message i.e. how many times each word in the vocabulary exists in the message.

Some of the words appear nearly in each message, and therefore, provide less distinctive information. Therefore, we gave different weights for each word based on how often they appear in different messages using the Term Frequency – Inverse Document Frequency weighting (TF-IDF). TF-IDF gives higher importance for the words which are only in few documents (or messages in our case).

Word embeddings

One of the problems in bag-of-features is that it does not have any knowledge about semantics of words. The similarity between two messages is calculated based on how many matching words there are in the messages (and their weights from TF-IDF). Therefore, we tried word embeddings which encodes words that are semantically similar with similar vectors. For example, a distance from an encoding of ‘cat’ to an encoding of ‘dog’ is smaller than a distance from an encoding of ‘cat’ to an encoding of ‘ice-cream ’. There is an excellent tutorial to word embeddings on Tensorflow site for those who wants to learn more.

In practice, we used the fastText library with pre-trained models. With fastText, one can convert words into vector space where semantically similar words tend to appear close by each other. However, we need to have a single vector for each message instead of having varying number of vectors depending on the number of words in a message. Therefore, we used a very simple, yet effective, method: we computed a mean of word encodings.

Machine learning

The task in this project was to detect hate speech, which is a binary classification task. I.e the goal was to classify each sample into a no-hate-speech or a hate-speech class. In addition to the binary classification, we gave a probability score for each message, which we used to sort messages based on how likely they were hate speech.

There are many machine learning algorithms for binary classification task. It is difficult to know which of the methods would perform the best. Therefore, we tested a few of the most popular ones and choose the one that performed the best. We chose to test Naive Bayes, because it has been performing well in spam classification tasks and hate speech detection is similar to that. In addition we chose to test Support Vector Machine (SVM) and Random Forest (RF), because they tend to perform very well in the most challenging tasks.

Experiments and results

There are many methods for feature extraction and machine learning that can be used to detect hate speech. It is not evident which of the methods would work the best. Therefore, we carried out an experiment where we tested different combinations of feature extraction and machine learning methods and evaluated their performance.

To carry out an experiment, we needed to have a set of known sample messages containing hate speech and samples that do not contain hate speech. Aalto researcher Matti Nelimarkka, Juho Pääkkönen, HU researcher Salla-Maaria Laaksonen and Teemu Ropponen (OKFI) labeled manually 1500 samples which were used for training and evaluating models.

1500 known samples is not much for such as challenging problem. Therefore, we used k-Fold cross-validation with 10 splits (k=10). In this case, we can use 90% sample for training and 10% for testing the model. We tested Bag-of-Words (BOW) and FastText (FT) (Word embeddings) feature extraction methods and Gaussian Naive Bayes (GNB), Random Forest (RF) and Support Vector Machines (SVM) machine learning methods. Results of the experiment are shown in Fig. 2.

Figure 2: ROC curves for each feature extraction – machine learning method combination. True Positive Rate (TPR) and False Positive Rate (FRP). The FPR axis describes the ratio of mistake (lower is better) and the TPR axis describe the overall success (higher is better). The challenge is to find a balance between TPR and FPR so that TPR is high but FPR is low.

Based on the results presented in Fig. FIGEXP, we chose to use BOW + SVM to detect hate speech. It clearly outperformed other methods and provided the best TPR which was important for us, because we wanted to sort the messages based on how likely they were hate speech.

Model deployment

Based on the experiment, we chose a feature extraction and machine learning method to train a model for hate speech detection. In practice, we used the score of the binary classifier to sort the messages for manual inspection and annotation.

We ran the detector once a day. At first, we downloaded social media messages from a previous day, then predicted hate speech (scored each message) and stored the result in a CSV file. Next, we converted this CSV file to Excel for manual inspection. After manual inspection, we got new training samples which were used to retrain the hate speech detection model.

During the field experiment, we found out that the model was able to sort the messages based on the likelihood of containing hate speech. However, the model was originally trained with more biased set of samples, and therefore, it gave rather high scores also for messages not containing hate speech. Therefore, manual inspection was required to make the final decision for the most prominent messages. Further measures concerning these messages were done by the Non-Discrimination Ombudsman, who in the end contacted certain parties regarding the findings.

Conclusions

In a few weeks, we built a tool for hate speech detection to assist officials to harvest social media for hate speech. The model was trained with rather few samples for such a difficult problem. Therefore, the performance of the model was not perfect, but it was able to find a few most likely messages containing hate speech among hundreds of messages published each day.

In this work, training -> predicting -> manual inspection -> retraining – iteration loop was necessary, because in the beginning, we had quite limited set of training samples and the style of the hate speech can change rapidly e.g. when something surprising and big happens (A terrorist attack in Sweden happened during the pilot). The speed of the iteration loop defines how efficiently the detector works.

Hackathons in Finland: free labor or open innovation?

Those following the Finnish technology scene have most likely observed that hackathons are this year’s megatrend. Everyone seems to be organizing a hackathon to get developers work with problems. You know, digitalisation is coming and everyone – public sector, private sector – need solutions that revolutionalize their operations using digitalisation … and hackathon is one of the trendy ways to bring digitalization gurus to the organization.

As an old-time hackathon participant, I have certain doubts about the whole concept, but as they are trendy, I think I should have something to say about them. I think we’re using hackathons in rather interesting ways – such as supplement procurement of software in public administration – which have some merits. However, there are also cases which seem more as exploitation of participants. I will first shortly address the academic literature around hackathons after which I move to my rant about hackathons.

What do we know about hackathons?

Sadly, the scholarly literature is still emerging around the whole phenomena (and, will most likely be fully developed only after hackathons are passé). But, let’s give it a try anyway and see what we know about hackathon based on the existing works.

Overall, hackathons can be technology-oriented (i.e., focus on particular platforms) or focused on problems; in particular solving societal problems in issue-based hackathons (Lodato & DiSalvo, 2016). These issue-based hackathons can serve multiple purposes; Johnson & Robinson (2014) see these type of hackathons mixed of a procurement process, civic engagement and innovation taking place. What these findings indicate is that people have motivations beyond just hacking things together; like improving the society or to make their views more concrete.

In general, hackathons have three phases; pre-hackathon, hackathon, and post-hackathon. Hackathons are intense collaborations require participants to set up the goals of the hack and the means of collaboration, including work processes. The hackathon itself is a face-to-face activity where participants work together intensively, but can also seek help from others in the team and engage in iterative development and critique. The challenge with post-hackathon activities is to continue with the same team without the collocated settings, as often the hacks need more love to be ready (Lodato & DiSalvo, 2016, Trainer et al., 2016).

Matti’s rant about some recent hackathons and challenges in Finland

Hackathons are a great way to bring bright people together to create something cool. While the process itself is difficult – as seen in above discussed literature – it may be rewarding for participants. Furthermore, at least my experience, hackathons are a great way to get uninterrupted thinking time for a problem in a creative manner. Having space, catering and time reserved in the calendar make it easy to focus on the problem.

In my view, the best hackathons have a somewhat open goal, allowing the developers to take different angles to the problem and demonstrate a variety of approaches, or to invent something new. Usually, the organizers in these cases seek out questions like “what is possible?” and in best cases contribute their skills and knowledge to help hackers. However, I’ve recently seen the term hackathon being used for events I don’t think live up to my ideals.

Hackathons and challenges should not be cheap software development

Some hackathons are organized with a super-specific goal already defined. In the Open Finland Challenge this year, there was a challenge organized by Aller Media, with the goal of

We want to add location data for discussions by offering the user an opportunity to find relevant information about ones’ surroundings. [shortly translated]

When reading this, I think the jury already had a rather clear vision of what they want to get as an outcome. Naturally, you can break the rules – and I did ask this in when the challenges were made public – it’s OK to hack whatever you want. But the jury will naturally read the challenge also. Just compare the challenge made by YLE in the same challenge competition

YLE has opened Elävä arkisto Data through an API. What interesting can you build using this information – maybe a new service to a special user group or something totally new? [shortly translated]

I think this challenge is open-ended, allowing participants to work in rather creative ways with the data. This aligns more within the ideas like open innovation, exposing the company to new ideas and approaches, and the creativity of hackathons. The former instead sounded to me that they might just want to consult a software company to produce a prototype of their idea and test it.

Hackathons and challenges should not be cheap consulting

The more recent case of this was from LähiTapiola Hack, where the goal was to develop “new digital solutions for inspiring young people to save and invest money. During the 5-day business hackathon teams will develop a new business or product concept for LähiTapiola (LocalTapiola), and finally pitch it to a jury consisting of LähiTapiola executives and business angels.”

I think this is a nicely open-ended problem to hack with, giving rather free hands to work with. There is opportunity for true creativity. However, in a closer look at the hackathon policies showed that there was something fishy about the IPR.

In hackathons I’ve attended, the IPR usually belongs to participants or its considered to become public domain. In this hackathon, instead, the conceptual innovations (whatever those are) are explicitly stated to belong to hackathon organizers if they emerge from data and materials by LähiTapiola. This means that these guys get free business consulting and ideas by buying food, space and 5,000 € reward for the winning team. If you want my ideas, you can just contact my consulting firm and we’ll discuss my pricing in detail. Or as it seems, they are actually incubating some business opportunities and startups for them – weirdly called a hackathon.

How to move forward?

I think the first step is to ensure we don’t call all things hackathons or challenges just to look trendy. If you aim to incubate startups or run public procurement, are you really doing a hackathon or something else which may have similar characteristics of a hackathon – collocated fast-paced and solution centric work, aiming to produce some concrete outcome by the final day. I would even avoid the name hackathon for everything that’s not what I would call traditional hackathon, a day or two of hard work in open context – just to make sure you don’t market the event in a wrong manner and get weirdos like me attending.

Second, if you’re sure you’re organizing a traditional hackathon, check that your hackathon task is semi-open to participation. Naturally, seasoned hackathon participants know how to read the tasks in an open manner and produce something cool. But it might be more inviting even for them if they can see that the organizer is truly seeking something novel and cool. Remember that hackathons, as I see them, should be much about open collaboration, open innovation and facilitating great minds to come together.

Finally, have some answer to the question ‘what next?’ If there are ideas the hackathon participants want to move further, how can your organization support those moving forward? I do have good experiences of these, including seed investment from organisations to develop the quick proof of concept into a true product and even launching those. And if you have plans like this, remember to tell about those beforehand and check you continue to support teams throughout the further process as well.

Acknowledgement

I was motivated to write this post thanks to the poor case from LähiTapiola hack and discussions with my nerd friends in the #fixme-irc channel. All views presented in this text are naturally my own and may not reflect the #fixme-community, the Rajapinta-community, my employer, my supporters, nor the future self.

Cross-posted to my personal blog, Science & Industry.

Vaihtoehtoja alustatalouteen?

Digitaaliset alustat ovat toimijoiden välisten vuorovaikutusten välittäjiä. Ne toimivat paitsi uusien markkinoiden luojina ja olemassa olevien markkinoiden tehostajina, myös näiden markkinoiden sääntelijöinä. Arvonluontia varten alustat keräävät ja käsittelevät laajasti tietoja alustan käyttäjistä. Motiivit markkinoiden luomiseen, sääntelyyn ja datan käsittelyyn juontuvat alustan omistuspohjasta ja organisointitavasta. Käsittelen lyhyesti näitä alustatoimijoiden rooleja sekä esittelen kaksi vaihtoehtoa alustojen organisointiin. Teksti perustuu puheenvuoroon Eduskunnan Tulevaisuusvaliokunnan kuulemisessa jakamistaloudesta ja alustataloudesta.

Alustat markkinoiden välittäjinä

Digitaaliset alustat toimivat vuorovaikutusten välittäjinä. Taloudellisessa mielessä alustoja ylläpitävät alustatoimijat tarjoavat tuotteita ja palveluita, joiden avulla markkinaosapuolet, esimerkiksi kuluttaja ja tuottajat, löytävät toisensa ja tekevät vaihtoja (Evans 2011). Alustatoimijat siis luovat markkinoita. Alustan arvonluonnin perusta on, että markkinaosapuolet eivät kohtaisi ilman alustan välittämiä markkinoita, ainakaan ilman korkeampia kustannuksia. Alustojen välittämät vuorovaikutukset voivat olla luonteeltaan monenlaisia: Uber välittää kyytien tarvitsijoiden ja kyytien tarjoajien vuorovaikutuksia, Googlen hakualusta taas välittää kolmen osapuolen vuorovaikutuksia kahdella eri segmentillä: yhtäältä haun käyttäjien ja internetin sisällöntuottajien, toisaalta mainostajien ja haun käyttäjien vuorovaikutuksia.

Alustatoimijat ovat usein yrityksiä, ja ne luovat markkinoita ja sääntelevät luomiaan markkinoita hyötyäkseen niistä taloudellisesti. Alustatoimijoiden harjoittama markkinoiden yksityinen sääntely voi kohdistua siihen, mitkä toimivat voivat kohdata markkinoilla, tai kuka pääsee käytännössä tarjoamaan tuotteita ja palveluita ja kenelle. Myös hinnoittelumallit, hinnat itsessään, tai alustan määrittelemistä säännöistä poikkeamisen sanktioinnit voivat olla sääntelyn kohteena. Keskeistä on pitää mielessä alustatoimijoiden harjoittaman markkinoiden sääntelyn pääasiallinen motiivi, liiketoiminnan ja arvonluonnin tukeminen. Tämä ei välttämättä ole yhdenmukainen esimerkiksi julkisen sääntelyn tavoitteiden kanssa. Luodessaan uusia markkinoita alustatoimijoilla on lisäksi ollut pyrkimys toimia normittamattomalle alueelle ja ratkoa juridiset tai muut seuraamukset jälkikäteen. Esimerkiksi Uberin ja Google Street View -palvelun toiminta on useissa maissa käynnistynyt ennen kuin niiden laillinen asema on ollut selvä.

Alustan toiminnallisuuksien kautta alustatoimijat voivat käyttää merkittävää vaikutusvaltaa suhteessa alustan käyttäjiin. Esimerkiksi Googlella on kannustin ohjata hakukonealustan avulla haun käyttäjien näkemiä hakutuloksia ja mainoksia niin, että sen keräämät mainostulot ovat mahdollisimman suuret (Rieder & Sire 2013). Koska alustojen tarkemmat toimintaperiaatteet eivät yleensä ole julkisia, tällainen vaikutusvallan käyttäminen on suurelta osin läpinäkymätöntä, ja käyttäjät voivat vain arvailla sen merkitystä erilaisissa alustoissa. Lisäksi alustan sisällä alustan teknisten toimintojen kautta tapahtuva sääntely ja vaikuttaminen ovat pakottavia siinä mielessä, että käyttäjillä on käytössään varsin vähän keinoja puuttua niihin.

Käyttäjistä kerätyn tiedon merkitys

Digitaalisten alustojen – ja ylipäätään informaatioteknologian – ominaisuus on, että erilaisten prosessien tehokkaan automatisoinnin lisäksi ne tuottavat informaatiota näistä prosesseista. Informaatioteknologia tekee aikaisemmin näkymättömistä asioista näkyviä, ja aikaisemmin mittaamattomista asioista mitattavia. Tärkeäksi kysymykseksi muodostuu, miten tätä tiedon tuottamiskykyä käytetään (Zuboff 2015). Mitä tietoa kerätään? Kuka käyttää kerättyjä tietoja? Mihin tarkoitukseen niitä käytetään? Kuka näistä päättää ja millä perustein? Alustojen järjestämien markkinoiden kannalta nämä kysymykset ovat oleellisia, koska alustojen arvonluonnissa keskeistä on alustan käyttäjistä kerätyn tiedon jalostaminen käyttäytymisen ennusteiksi, tuotteiden ja palveluiden personoinniksi ja kohdentamiseksi, suosituksiksi, sekä kysynnän ja tarjonnan ennakoinniksi ja yhteensovittamiseksi. Näiden tuottamiseksi tarvitaan tietoja ihmisten toiminnasta, ominaisuuksista ja valinnoista.

Jonkinlaista alustamarkkinoiden oletusmallia voisi tyypitellä suurten alustatoimijoiden toiminnan perusteella (Zuboff 2015). Alustatoimija pyrkii keräämään alustan käyttäjistä mahdollisimman paljon tietoa tuottaakseen mahdollisimman tarkkoja ennusteita käyttäjien ominaisuuksista ja tekemisistä. Ennusteiden perusteella alustatoimija muokkaa käyttäjän kokemaa palvelua ja suuntaa alustan välittämiä vuorovaikutuksia. Käyttäjät eivät usein itse osallistu itseään koskevien ennusteiden markkinoille – esimerkiksi mainosrahoitteisten alustojen tapauksessa alustatoimija myy ennusteet mainostajille kohdentamisen muodossa. Ihmisen rooliksi ennusteiden tuottamisessa jää lähinnä alustapalvelun käyttöehtojen hyväksyminen, mikä ei usein käytännössä mahdollista merkityksellistä päätöksentekoa omien tietojen käytöstä (Solove 2013). Huomattavaa on myös alustatoimijoiden pyrkimys levittää alustan vaikutuspiiriä sen välittömien rajojen ulkopuolelle avoimeen internetiin (Helmond 2015), yhtenä tavoitteena laajemmat tiedonkeruun mahdollisuudet.

Vaihtoehtoja alustojen organisointiin?

Yllä esitetyn perusteella alustat kykenevät monin tavoin tehostamaan markkinoilla toimivien tuotteiden ja palveluiden kysyjien ja tarjoajien löytämistä ja kohtaamista. Tehostamiskyky perustuu merkittäviltä osin alustan käyttäjistä kerättyihin tietoihin ja niiden pohjalta tuotettuihin ennusteisiin. Vaikka alustat ovat tällä hetkellä pääsääntöisesti (suurten yhdysvaltalais)yritysten hallinnoimia ja tietynlainen tapa organisoida alustan välittämiä markkinoita on tällä hetkellä normi, eivät alustojen tuottamat hyödyt sinänsä edellytä tietynlaista alustan omistusrakennetta tai markkinoiden organisoinnin tapaa. Alustatalouden valtavirran ulkopuolelta löytyy vaihtoehtoisia kehityssuuntia, joista voi ajan oloon tulla merkittäviäkin uusia toimintamalleja. Kaksi esimerkkiä valottavat vaihtoehtoisia alustatalouden kehityssuuntia: osuuskuntapohjaisesti omistettu alusta sekä henkilödatan hallintaan erikoistuneet palvelut.

Ajatus osuuskuntapohjaisista alustoista on luultavimmin lähtenyt liikkeelle havainnosta, että ei ole mitään erityistä syytä sille, että taksi- tai siivouspalveluiden välittämiseen tarvittaisiin riskirahoitettu, kaupallisista lähtökohdista toimiva teknologiayritys. Saman palvelun voisi toteuttaa myös työntekijöiden yhdessä omistama osuuskunta. Alustojen käyttämän teknologian ei pitäisi olla niin kallista tai monimutkaista, että se olisi yhteistoiminnallisesti järjestäytyneiden alustan käyttäjien saavuttamattomissa. Osuuskuntamallin tavoitteena on, että alustan organisointi tapahtuisi nykyistä demokraattisemmin. Tällöin alustan käyttäjät osallistuisivat alustan toimintaa koskeviin päätöksiin ja alustan välittämien markkinoiden sääntelyyn, ja voisivat vaikuttaa esimerkiksi omiin työehtoihin ja palkkaukseen nykyisiä työnvälitysalustoja paremmin. Osuuskuntamuotoisen organisoitumisen mahdollistama läpinäkyvyys voisi lisätä alustan käyttäjien – palvelujen kysyjien ja tarjoajien – luottamusta alustan toimintaan. Kysymyksiin tiedon keräämisestä ja käytöstä osuuskuntamuotoinen alusta tarjoaa vastaukseksi, että alusta päättää edelleen, mutta käyttäjät osallistuvat päätöksiin alustan omistajina.

Toinen suunta alustojen toiminnan muuttamiseksi ovat henkilödatan hallintapalvelut. Ne keskittyvät alustojen rooliin ihmisiä koskevan tiedon keräämisessä. Tällöin ajatellaan, että ihmisillä täytyisi olla mahdollisuus vaikuttaa nykyistä enemmän itseään koskevien tietojen käyttöön. Pragmaattisesti ajatellen kyse on datan ohjaamisesta ihmisille itselleen hyödyllisiin palveluihin. Moraalisesti kyse voisi olla itseisarvosta, eräänlaisesta digitaalisesta ihmisoikeudesta. Yksi kehityssuunta on luoda henkilödatan hallintaan välittäjä, uusi alustatoimija, jonka kautta käyttäjät olisivat suhteessa dataa käyttäviin ja kerääviin muihin alustoihin. Kysymyksiin tiedon keräämisestä ja käytöstä henkilötiedon hallintaan erikoistuneet palvelut tarjoavat ratkaisuksi käyttäjien lisääntynyttä vaikutusvaltaa alustojen kannalta keskeisen raaka-aineen, alustan käyttäjiä koskevan tiedon, virtoihin.

Osuuskuntamuotoisista alustoista on olemassa lähinnä kehitteillä olevia aloitteita, henkilödatan hallintapalveluista jo toimiviakin esimerkkejä, mutta valtavirtaa ne eivät ole. Näiden ja muiden vaihtoehtoisten kehityssuuntien liikkeelle saaminen riippuu alustojen toiminnassa keskeisistä verkostovaikutuksista. Alustojen käyttäjille luoma arvo kasvaa, kun niihin eri puolilta kytkeytyneiden toimijoiden määrä kasvaa. Yksi ehdotettu ratkaisu tähän ns. muna-kana -ongelmaan on alustojen yhteentoimivuus, jolloin esimerkiksi paikallisten osuuskunta-alustojen teknologia voisi toimia osuuskuntien rajojen yli.

Lopuksi: joitain ajatuksia

  • Voisiko alustoilla luoda tilaa uudenlaisille järjestäytymisen muodoille, voiko yhteistoiminnallisesti organisoiduista alustoista syntyä internet-ajan työväenliike?
  • Jos ihmisiä koskevan datan hallinta on alustojen ytimessä, olisiko se toimiva regulaation kanava puuttua alustatalouden markkinoiden keskittymiseen tarvittaessa?
  • Onko oikeus hallita itseään koskevia tietoja digitaalinen ihmisoikeus? Jos on, tulisiko kansalaisille taata työkalut ja keinot itseään koskevan tiedon hallintaan?

Lähteet

Evans, David S. 2011. Platform Economics: Essays on Multi-Sided Businesses. Competition Policy International.

Helmond, A. 2015. “The Platformization of the Web: Making Web Data Platform Ready.” Social Media + Society 1(2).

Rieder, B., and G. Sire. 2013. “Conflicts of Interest and Incentives to Bias: A Microeconomic Critique of Google’s Tangled Position on the Web.” New Media & Society 16(2):195–211.

Solove, Daniel J. 2013. “Privacy Self-Management and the Consent Dilemma.” Harvard Law Review 126(7):1880–1903.

Zuboff, Shoshana. 2015. “Big Other: Surveillance Capitalism and the Prospects of an Information Civilization.” Journal of Information Technology 30:75–89.