Kuka saa päättää, mitä dataa tutkijalla on käytössään? Ei ainakaan amerikkalainen suuryritys

social media logos and light beams
Photo (cc) Kevin Dooley Flickr, edits by Salla L

Sosiaalisen median datan käyttöä tutkimuksessa suitsitaan nyt monelta kantilta. Tämän vuoden keväällä paljastuneen Cambridge Analytica -skandaalin jälkeen sekä Facebook että Twitter ovat uudistaneet pikavauhdilla datapolitiikkaansa. Samaan aikaan tutkijoita ja yliopistojen lakimiehiä on huolestuttanut toukokuussa voimaan tullut GDPR sekä Suomen tuleva uusi tietosuojalaki, joka on hyväksytty eduskunnassa marraskuussa.

On pelkästään hyvä asia, että aineistojen käyttöön kiinnitetään enemmän huomiota, ja että tutkijat joutuvat entistä tarkemmin miettimään aineistojen käytön oikeutuksia. Pohdinnoissa näyttäisi kuitenkin kummallisesti sekoittuvan aineiston tekninen saatavuus, laillisuus ja eettisyys.

Teknisestä näkökulmasta aineistojen saatavuus on hiukan hankaloitunut. Esimerkiksi Facebookin julkisilta sivuilta ei pysty enää rajapinnan (API) kautta lataamaan koneluettavassa muodossa viestejä kirjoittaneiden käyttäjien nimiä. Ryhmistä dataa saa ladata ainoastaan ryhmän ylläpitäjän luvalla. Yksittäisistä profiileista ladattavan datan käyttöä Facebook on rajoittanut jo huomattavasti aiemmin; toki käyttäjä voi halutessaan edelleen sovellusten kautta luovuttaa aineistojaan. Tämän kevään uudistusten myötä kuitenkin myös laajempia käyttäjätietoja tarvitsevat sovellukset joutuvat Facebookilla tarkempaan syyniin. Samanlainen prosessi on syntymässä myös Twitterin osalta: jatkossa jokaisen rajapintaa käyttävän sovelluksen on saatava Twitterin hyväksyntä.

Tutkijayhteisössä keskustelu API-rajoituksista on ollut varsin dramaattista. Tutkijat ovat kansainvälisesti huolestuneet Facebook-tutkimuksen tulevaisuudesta siinä määrin, että aiheesta on julkaistu kirjelmiä ja tehty listauksia rajapintojen avulla tehdyistä tutkimuksista. Akateemiset tutkijat ovat – oikeutetusti – huolissaan siitä, että aineistojen saatavuuden rajoittaminen rajaa myös tiettyjä tutkimusaiheita pois ja siten ohjaa tutkimusta. Toisaalta rajapintojen rajoitukset eivät estä tutkijaa tutkimuseettisten rajojen ja lainsäädännön puitteissa keräämästä laadullista aineistoa esimerkiksi Facebook-ryhmistä.

Toiset ovat huolestuneet palvelujen käyttöehdoissa (Terms of Service, TOS) mainittavista käytön rajoituksista. Joidenkin tulkintojen mukaan esimerkiksi YouTuben käyttö tutkimusaineistona ei ole lainkaan sallittua, koska palvelun käyttöehdot kieltävät palvelun muun kuin yksityisen käytön (jos tilanne olisi tämä Googlen mielestä, luulisi että joku niistä melkein kolmesta miljoonasta YouTube-hakusanalla löytyvästä tutkimusartikkelista olisi jo päätynyt raastupaan). Todennäköisesti amerikkalaisyrityksen ehdoista puuttuu erillismaininta akateemisesta käytöstä, koska se sisältyy jo Yhdysvaltojen lainsäädännössä olevaan fair use -pykälään.

GDPR:n ja Suomen tulevaisuudessa voimaan astuvan tietosuojalain myötä sosiaalisen median aineistojen henkilötietomaisuus on noussut uudella tavalla valokeilaan, vaikka tilanne ei käytännössä juuri ole muuttunut Suomen vanhaan henkilötietolakiin verrattuna.  Sosiaalisen median aineisto on käyttäjänimien vuoksi usein henkilödataa, ja tuoreiden tiukimpien tulkintojen mukaan sen kerääminen on nyt tietosuojasyistä kokonaan kielletty.

Sekä GDPR, tuleva tietosuoja-asetus että Suomen nykyinen henkilötietolaki mainitsevat kuitenkin tieteellisen tutkimuksen poikkeuksena henkilötietojen käsittelyyn. Tutkimus on erityisasemassa myös arkaluontoisia tietoja käsiteltäessä sekä rekisteröityjen oikeudessa tietojen poistoon (ns. oikeus tulla unohdetuksi ei automaattisesti päde, ks. Kohta 2.3.8). Henkilötietojen käsittely vaatii rekisteriselosteen ja GDPR:n ohjeistuksien mukaan myös vaikutustenarvioinnin, jos aineistossa on arkaluontoisia tietoja.

Lain noudattaminen ja tutkimuksen poikkeusasema eivät kuitenkaan tarkoita, että kaikenlainen henkilötietojen käsittely olisi eettisesti oikein, tai että kaikenlaisen avoimen aineiston käyttö olisi eettistä. Tämän määrittelee tutkimuseettinen harkinta, jonka periaatteet tiedeyhteisö on itse määritellyt ja joita se myös valvoo. Siksi GDPR:n nostattama keskustelu on tervetullutta ja omiaan parantamaan tutkittavien oikeuksia ja lisäämään tutkimusaineistoista käyttävää eettistä keskustelua. Aiemmin on ehkä luotettu liikaakin siihen, että TOS ratkaisee suostumuksen ongelmat, jotka on ikään kuin ulkoistettu yrityksen tuottamalle dokumentille. Samaan aikaan on varsin hyvin tiedossa, etteivät käyttäjät juuri lue käyttöehtoja.

Eettisen keskustelun keskiössä on usein tutkittavan suostumus (informed consent). Tutkimuseettisen neuvottelukunnan ihmistieteiden eettinen ohjeistus muistuttaa, että tutkittavan “suostumuksen periaatteesta voidaan poiketa tutkittaessa julkistettuja ja julkisia tietoja sekä arkistoaineistoja”. Tästä näkökulmasta sosiaalisen median aineistojen käyttöön ei tarvita tutkittavan suostumusta, jos aineisto on julkisesti saatavilla.

Oleellisempi on kuitenkin ohjeistuksen toinen kohta: vahingoittamisen välttäminen. Siihen keskittyy myös esimerkiksi Association of Internet Researchers AoIR:n eettinen ohjeistus. Vahingoittamisen välttäminen tarkoittaa esimerkiksi sosiaalisten ja taloudellisten haittojen minimointia sekä tutkimustulosten julkaisemisen mahdollisten seurausten pohdintaa. Se on keskeinen osa tutkimuseettistä harkintaa ja tutkijan ammattitaitoa.

Mutta tutkijalla on myös toinen ammatillinen ja eettinen velvoite: tuottaa yhteiskunnalle kriittistä tietoa. Yhteiskunnalliset ilmiöt Suomessa ja muualla heijastuvat entistä isommin myös digitaalisille alustoille. Siksi ei ole eettisesti kestävää tulkita lakeja ja käyttösääntöjä tiukasti niin, että amerikkalainen alustayritys sanelisi, mitä suomalainen tieteellinen tutkija saa sosiaalisesta mediasta tutkia. Sen sijaan se tarkoittaa, että eettisten pohdintojen perusteella toisinaan voi olla jopa perusteltua rikkoa käyttöehtoja – alkaen esimerkiksi siitä, että käyttöehtojen vastaisesti anonymisoidaan tutkimusaineisto. Tällaista tieteen vapautta puolustaa myös Suomen tuleva tietosuoja-asetus.

* Teksti: Salla-Maaria Laaksonen (Helsingin yliopisto, @jahapaula) & Margareta Salonen (Jyväskylän yliopisto, @MaakeSalonen)

Ps. Rajapinta ry. yhdessä MEVI ry:n kanssa järjestää 10. tammikuuta Tieteiden yössä tapahtuman, jossa kerromme sosiaalisen median aineistojen tutkimuskäytöstä. Työpajassa pääset myös itse penkomaan someaineistoja. Tervetuloa mukaan Tieteiden talolle!

Pps. Erinomaista pohdintaa tutkijoiden ja käyttöehtojen yhteiselosta kriminologian professori Matthew Williamsin ja kumppaneiden artikkelissa Sociology-lehdessä.

Bitit ja politiikka: Tervetuloa, laskennallinen politiikan tutkimus

https://www.flickr.com/photos/videocrab/4630988238/
(cc) Kevin Simpson @Flickr

Teksti on julkaistu 8.8. ilmestyneessä Politiikka-lehden numerossa 2/2018 “Bitit ja politiikka” -minisymposiumin johdantona.

Tietoyhteiskuntakehitys ja teknologian muutokset ovat vaikuttaneet yhteiskuntatieteisiin, mukaan lukien politiikan tutkimukseen. Digitaalisissa toimintaympäristöissä tapahtuva poliittinen toiminta näyttäytyy houkuttelevana tutkimuskohteena ja toisaalta esimerkiksi digitaalisten alustojen ja algoritmien tutkimus nostaa esille politiikan perimmäisiä kysymyksiä vallasta (esim. Gillespie 2010; Beer 2017; Neyland ja Möllers 2016). Monet kiinnostavista kysymyksistä kytkeytyvät poliittiseen viestintään: sosiaalinen media on jo haastanut perinteisiä viestinnän portinvartijateorioita (esim. Chadwick 2014, Castells 2007) ja uudet digitaaliset viestintävälineet muuttavat kansalaisosallistumisen tapoja (esim. Bennett ja Segerberg 2013; Juris 2012). Myös marxilainen pohdinta on tehnyt paluun alustatalouden myötä tapahtuneen pääoman jakautumisen seurauksena (esim. Spencer 2018). Jo tämä  tutkimusnäkökulmien lyhyt lista osoittaa, että politiikan tutkimusperinteet ovat tärkeässä roolissa myös nykyisen digitaalisen yhteiskunnan aikana.

Digitaalisuus ei muuta vain tutkimuskohteita, vaan myös aineistoja ja menetelmiä. Digitaaliset jalanjäljet (digital trace data) ja massadata (big data) mahdollistavat uudenlaisten kysymysten esittämisen: aiemmin tutkijoilla ei ollut käytettävissä samankaltaisia yksityiskohtaisia ja laajoja aineistoja ihmisten, organisaatioiden ja liikkeiden toiminnasta, vaan tutkimuksessa on turvauduttu havainnointiin, haastatteluihin, kyselyaineistoihin ja rekisteriaineistoihin. Lazerin ja kumppaneiden (2009) mukaan uudet digitaaliset aineistot ja niitä hyödyntävät laskennalliset menetelmät ovat kuin uusi mikroskooppi yhteiskuntatieteelliseen tutkimukseen. Sekä Rob Kitchin (2014) että danah boyd ja Kate Crawford (2012) kehottavat tutkijoita kuitenkin kriittisesti arvioimaan niitä tapoja, joilla tutkimusta tehdään massadatan aikana ja sitä, kuinka laskennalliset menetelmät muokkaavat yhteiskuntatieteellistä tutkimusta. Hyvä esimerkki peräänkuulutetusta kriittisyydestä on Grimmerin ja Stewartin (2013) artikkeli, jossa he perinteisiin laadullisiin lähestymistapohin verraten pohtivat, miten tekstianalyysiä voidaan toteuttaa esimerkiksi sanojen esiintymisfrekvenssejä tarkastelemalla.

Uusien menetelmien ja aineistojen myötä myös muut tieteenalat ovat innostuneet tarkastelemaan yhteiskuntatieteellisiä kysymyksiä. Justin Grimmerin (2015) mukaan laskennallisten menetelmien avulla yhteiskuntatieteellisiä kysymyksiä käsittelevät yhteiskuntatieteilijöiden lisäksi myös datatietelijät, tietojenkäsittelytietelijät ja fyysikot, usein monitieteisissä ryhmissä. Poikkitieteellinen lähestymistapa helposti tukee tietynlaisia institutionalisoituneita politiikan tutkimuksen muotoja. Se voi aiheuttaa esimerkiksi behavioralistisen politiikan tutkimuksen paluun, koska perspektiivin ajatus teoriapohjaisesta mallintamisesta on yhteensopiva perinteisten laskennallisten tieteen osaajien kanssa — eivätkä he tunne behavioralistista politiikan tutkimusta kohtaan esitettyä ansiokasta kritiikkiä. Toisaalta yhteiskuntatieteilijöiden perinteinen koulutus ei ole sisältänyt opetusta laskennallisista menetelmistä ja niiden käytöstä. Siksi yhteiskuntatieteellisen koulutuksen ulkopuolelta on helppo tarjota näkökantoja ja lähestymistapoja yhteiskuntatieteellisten kysymysten käsittelyyn, vaikka ne yhteiskuntatieteellisin silmin voivat näyttää naiiveilta. Hanna Wallach (2018) muistuttaakin tietojenkäsittelytieteilijöille, että yhteiskuntatiedettä ei synny automaattisesti käyttämällä yhteiskuntatieteellistä aineistoa. Vastaavasti Grimmer (2015) argumentoi, että jos haluamme luoda yhteiskuntatieteellisemmän lähestymistavan laskennalliseen yhteiskuntatieteeseen, on välttämätöntä että yhteiskuntatieteilijät ovat mukana tekemässä ja kehittämässä laskennallisten menetelmien käyttöä.

Tämän symposiumin artikkelit ovat esimerkkejä tällaisesta yhteistyöstä ja menetelmäkehityksestä. Symposium koostuu kolmesta toisiaan täydentävästä tekstistä. Kaksi ensimmäistä esittelevät laskennallisten menetelmien käyttöä politiikan tutkimuksen kentällä, kolmas pohtii laskennallisten menetelmien institutionalisoitumista suomalaiseen politiikan tutkimukseen. Tekstit siis omalta osaltaan vastaavat Grimmerin (2015) ehdotukseen pyrkiä muodostamaan selkeämmin yhteiskuntatieteellisesti painottunut näkökulma laskennallisten menetelmien käyttöön ja kehitykseen.

Salla-Maaria Laaksosen ja Matti Nelimarkan artikkeli tutkii digitaalista vaalijulkisuutta vuoden 2015 eduskuntavaaleissa. Tutkimuksessa laskennallisesti analysoidaan vaalien julkisella agendalla olleet teemat ja yhdistetään saatua tietoa toisaalta poliittisen viestinnän agendatutkimuksen teorioihin ja puolueiden aiheomistajuuden analyysiin. Tuukka Ylä-Anttila, Veikko Eranti ja Anna Kukkonen taas käsittelevät katsauksessaan ilmastonmuutoksesta käytyä julkista keskustelua aihemallinnuksen avulla. Kirjoittajat käyvät läpi menetelmän reunaehtoja ja ehdottavat laadullista validointiprosessia, jonka avulla menetelmää voisi käyttää tekstien kehysanalyysina.

Molemmat tekstit tarkastelevat agendan muodostumista laskennallisesti ja osoittavat samalla, että laskennalliset menetelmät voivat tarjota uusia työkaluja poliittisten argumenttien tutkimiseen ja sellaisiin politiikan ja poliittisen viestinnän polttaviin klassisiin kysymyksiin kuten agendan rakentaminen ja teemojen kehystäminen. Ennen kaikkea menetelmät mahdollistavat tällaisen analyysin tekemisen paljon aiempaa laajemmilla aineistoilla. Molemmat tekstit käyttävät menetelmänä ohjaamatonta koneoppimista, tarkemmin aihemallinnusta, mutta sitovat valitun menetelmän perinteiseen yhteiskuntatieteelliseen kysymyksenasetteluun. Lisäksi tekstit käyvät keskustelua laskennallisia menetelmiä soveltavan yhteiskuntatieteen käsitteiden kanssa — nähdäksemme tämä ei ole vain tarpeellinen, vaan myös välttämätön keskustelu.

Professori Pertti Ahonen luo katsauksessaan näkymän laskennallisten menetelmien institutionalisoitumiseen politiikan tutkimuksessa. Hän keskittyy nimenomaisesti laskennallisiin menetelmiin, joita on kehitetty politiikan tutkimuksen institutionalisoituneiden kysymysten tarkasteluun politiikan tutkijoiden toimesta. Ahonen päätyy toteamaan, että laskennallisten menetelmien käyttö politiikan tutkimuksessa on yhä sivupolku, ja varsinkin suomalaisessa politiikan tutkimuksessa melko vähäistä. Ahonen myös aiheellisesti peräänkuuluttaa syvällisempää keskustelua menetelmien filosofisista taustaoletuksista.

Menetelmäkeskustelua onkin yhä syytä käydä, ja sitä tulisi käydä poikkitieteellisesti. Poikkitieteellisyyden haasteeseen on herätty myös tietojenkäsittelytieteilijöiden joukossa (vrt. Wallach, 2018). Oleellista on, että vaikka laskennallisia menetelmiä voi usein soveltaa suoraan “out of the box”, ne eivät ole taikalaatikoita, jotka ratkaisevat aiemmat tutkimukseen liittyvät ongelmat ja luotettavuuskysymykset; laadullista tarkastelua ja teorialähtöisyyttä tarvitaan yhä rinnalle. Robotti ei vie politiikan tutkijan töitä, kuten Tuukka Ylä-Anttila ja kumppanit toteavat analyysinsa päätteeksi – eikä ehkä datatieteilijäkään.

Matti Nelimarkka & Salla-Maaria Laaksonen
Nelimarkka on tutkijatohtori Tietotekniikan laitoksella ja Tietotekniikan tutkimuslaitos HIIT:llä Aalto-yliopistossa ja opettaja Menetelmäkeskuksessa (Valtiotieteellinen tiedekunta, Helsingin yliopisto). Laaksonen on tutkijatohtori Kuluttajatutkimuskeskuksessa (Valtiotieteellinen tiedekunta, Helsingin yliopisto)
Lähteet

  • Beer, David. 2017. The social power of algorithms. Information, Communication & Society 20:1, 1–13.
  • Bennett, Lance ja Segerberg Alexandra. 2013. The Logic of Connective Action : Digital Media and the Personalization of Contentious Politics. Cambridge: Cambridge University Press.
  • boyd, danah ja Crawford, Kate. 2012. Critical Questions for Big Data. Information, Communication & Society 15:5, 662–679.
  • Castells, Manuel. 2007. Communication, Power and Counter-Power in the Network Society. International Journal of Communication 1:29, 238-266.
  • Chadwick, Andrew. 2013. The Hybrid Media System: Politics and Power. Oxford: Oxford University Press.
  • Gillespie, Tarleton. 2010. The politics of “platforms.” New Media and Society 12:3, 347–364.
  • Grimmer, Justin. 2015. We Are All Social Scientists Now: How Big Data, Machine Learning, and Causal Inference Work Together. PS: Political Science & Politics 48:01, 80–83.
  • Grimmer, Justin ja Stewart, Brandon M. 2013. Text as Data: The Promise and Pitfalls of Automatic Content Analysis Methods for Political Texts. Political Analysis 21:3, 267–297.
  • Juris, Jeffrey. 2012. Reflections on #Occupy Everywhere: Social Media, Public Space, and Emerging Logics of Aggregation. American Ethnologist 39:2, 259–79.
  • Kitchin, Rob. 2014. Big Data, new epistemologies and paradigm shifts. Big Data & Society 1:1, 1–12.
  • Lazer, David, Pentland Alex, Adamic Lada, ym. 2009. Life in the network: the coming age of computational social science. Science 323:5915, 721–723.
  • Neyland, Daniel ja Möllers, Norma. 2016. Algorithmic IF … THEN rules and the conditions and consequences of power. Information, Communication & Society 4462, 1–18.
  • Spencer, David. 2018. Fear and hope in an age of mass automation: debating the future of work. New Technology, Work and Employment 33:1, 1–12.
  • Wallach, Hanna. 2018. Computational social science ≠ computer science + social data. Communications of the ACM 61:3, 42–44.

Cambridge Analytica -vuoto sai suuren yleisön kiinnostumaan ongelmasta, josta kriittinen teknologiatutkimus on puhunut jo vuosia

Screen Shot 2018-03-21 at 12.07.46
Screenshot from Twitter #deletefacebook

Cambridge Analytican Facebook-datan väärinkäyttö Yhdysvaltain 2016 presidentinvaaleissa on nostattanut ison kritiikkivyöryn teknologiajättejä kohtaan. Miksi kohu nousee vasta nyt, vaikka kriitikot ja tutkijat ovat kirjoittaneet aiheesta jo vuosia?

Cambridge Analytica -kohu nousi uusiin ulottuvuuksiin lauantaina, analytiikkayhtiön entisen työntekijän Christopher Wylien tehtyä paljastuksen yhtiön datankäytöstä The Guardianille ja The New York Timesille. Uutismedia on raportoinut paljastuksesta laajalti, ja jatkojutuissa on muun muassa annettu neuvoja omien Facebook-asetuksien säätämiseen. Twitterissä leviää hashtag #deletefacebook, jossa ihmiset kehottavat tuhoamaan Facebook-tilinsä kokonaan. Facebookin pörssikurssi laski, mikä on viesti sijoittajien kokemista riskeistä ja sitä kautta melko vahva viesti kohun laajuudesta. Kenties tärkeimpänä seurauksena näyttäytyy kuitenkin se, että poliitikot niin Euroopassa kuin Yhdysvalloissakin ovat heränneet vaatimaan Facebookia tilivelvolliseksi. Tähän ei riittänyt vielä NSA-kohu eikä aiemmat tiedot venäläisten kohdentamista vaalimainoksista. Miksi nyt kriittinen reaktio kasvoi näin suureksi?

Ensinnäkin on hyvä pitää mielessä, että breach-termin käytöstä huolimatta kyseessä ei ole tietovuoto siinä mielessä, että data on alun perin kerätty Facebookin ohjelmointirajapinnan käyttösääntöjen puitteissa. Dataa on vain myöhemmin päädytty luovuttamaan kolmansille osapuolille sääntöjen vastaisesti. Myöskin alkuperäinen väite siitä, että applikaatio kerää dataa vain tutkimustarkoituksiin on tässä vaiheessa rikottu.

Vastaava data on siis vuoteen 2014 asti ollut kenen tahansa Facebookin ohjelmointirajapintaa käyttävän ladattavissa, jos hän on saanut Facebookilta hyväksynnän applikaatiolleen, ja saanut houkuteltua ihmiset sitä käyttämään. Vuonna 2014 Facebook rajoitti API:n kautta saatavan tiedon määrää suuresti, mutta vanhempia datasettejä todennäköisesti vielä pyörii kovalevyillä.

Tietyllä tavalla keskustelu siitä onko kyseessä teknisessä mielessä tietovuoto, ja missä vaiheessa sääntöjä on rikottu, on kuitenkin sivujuonne. Käyttäjien datan kerääminen perustui käyttäjien antamaan suostumukseen, jonka pitäisi olla harkittu ja perustua tietoon (englanniksi informed consent). Tähän sisältyy useita ongelmia, esimerkiksi mahdollisuus edes teoriassa olla tietoinen tulevista datan käytöistä sekä se, että data käytännössä koskee myös muita kuin suostumuksen antajaa. Kuinka monella Cambridge Analytican sovelluksen asentaneella kävi mielessä pohtia sitä, mihin omien tai Facebook-kavereiden tietojen tullaan käyttämään? Kuinka moni olisi edes voinut ennakoida teknologian kehitystä ja siihen liittyen tietojen tulevia käyttöjä? Kuinka usein jokainen meistä tulee antaneeksi suostumuksen datan keräämisen ja käyttöön pohtimatta näitä asioita?

Osa ongelmaa piilee pohjimmiltaan myös siinä, että yksityisyys ajatellaan asiaksi josta kukin käyttäjä päättää itse. Yksityisyys on kuitenkin monessa mielessä myös yhteinen asia. Tässä tapauksessa konkretisoituu hyvin myös se, mitä tämä voi tarkoittaa käytännössä.

Isossa mittakaavassa Facebookin asiakkailleen, siis mainostajille, antama lupaus on se, että maksavien asiakkaiden viestejä kohdennetaan tehokkaasti ja tämä vaikuttaa ihmisten käyttäytymiseen. Tätä lupausta yritys on toteuttanut mm. Yhdysvaltain vaalien alla, myös ennen viimeisimpiä presidentinvaaleja. On kenties väistämätöntä, että tällaista kohdentamiseen perustuvaa järjestelmää käytetään myös tavoilla joita pidämme väärinkäyttönä, ja nyt käynnissä oleva tapaus osoittaa konkreettisesti mitä tämä voi tarkoittaa. Se on myös osoittanut, ettei Facebookia ole erityisemmin kiinnostanut puuttua asiaan.

Facebookin ja muiden ns. GAFA-yritysten toimia kritisoiva techlash-ilmiö ei ole uusi: erityisesti teknologiajättien entiset työntekijät ovat kritisoineet avoimesti yritysten toimintatapaa ja eettisyyttä. Muun muassa ex-googlelainen Tristan Harris on varoittanut siitä, miten teknologiajätit hallitsevat mieliämme ja perustanut Center for Humane Technology -aloitteen ratkaisemaan teknologian vinoutunutta kehitystä. Like-nappulan kehittänyt Justin Rosenstein on myöhemmin kritisoinut keksintöään addiktiivisuudesta.

Myös tutkijat ovat kirjoittaneet kriittisiä havaintoja teknologiajättien toiminnasta. Esimerkiksi hollantilaiset José Van Dijck ja David Nieborg analysoivat artikkelissaan jo vuonna 2009, miten teknologiayritysten konehuoneessa pyörivä bisneslogiikka taitavasti piilotetaan sosiaalisia suhteita ja kulttuuria korostavan retoriikan taakse. Samasta teemasta kirjoittaa myös esimerkiksi Sarah Myers West, joka kuvaa kaupallisen valvonnan tuottamaa yhteiskuntaa datakapitalismiksi.

Harvardin emeritaprofessori Shoshana Zuboff on myös kirjoittanut kriittiseen ja melko dystooppiseenkin sävyyn valvontaan perustuvasta kapitalismista ja demokraattisen informaatioyhteiskunnan tulevaisuudesta käyttäen Googlea esimerkkitapauksena (ks. myös Zuboffin akateeminen, kieltämättä hieman työläslukuinen artikkeli aiheesta). Professori Joseph Turow on kirjoittanut ja puhunut jo vuosia mediayhtiöiden ja kohdentamisen logiikasta. Hän on tehnyt myös lukuisia empiirisiä analyyseja siitä, kuinka käyttäjät eivät ymmärrä sitä, millä laajuudella he tietojaan teknologiayrityksille luovuttavat, ja miten niitä voidaan jatkokäyttää.

Yleisemmän yhteiskuntateoreettisen näkökulman lisäksi tutkijat ovat tarttuneet myös yksityisyyden ja teknologian rajapintoihin. Muun muassa apulaisprofessori Bernhard Rieder on tehnyt kriittisiä havaintoja Facebookin luovuttamista datoista jo vuonna 2013. Blogipostauksessaan Rieder osoittaa, että viattomalta näyttävä “access to posts in your newsfeed” tarkoittaa itse asiassa pääsyä suureen määrään kyseisen käyttäjän verkoston tuottamaa sisältöä ja informaatiota. Myös Jen King kollegoineen kiinnitti asiaan huomiota jo vuonna 2011 julkaistussa applikaatioita itsekin hyödyntäneessä tutkimuksessa. Yksityisyyden yksilön yli menevästä sosiaalisesta ja verkottuneesta luonteesta on ylipäänsä kirjoittanut moni tutkija vuosien varrella. Hyvänä johdantona toimii esim. tämä teknologian tutkija danah boydin teksti vuodelta 2011.

Jostakin syystä tämä kriittinen puhe ei kuitenkaan ole kovin hyvin mennyt läpi – kenties emme ole olleet kovin herkkiä kuuntelemaan vastarannan kiiskiä startup-buumin ja teknologiahypen keskellä? Kenties vasta maailman merkittävimmät vaalit ja poliittinen vaikuttaminen ovat tarpeeksi vakava käyttökohde, johon jokaisella on tarttumapinta?

Joka tapauksessa nyt vallalla olevan tekoälypöhinän kohdalla voisimme kenties kuunnella kritiikkoja ja akateemikkoja vähän aikaisemmin. Esimerkiksi professori Luciano Floridin teksti Should we be afraid of AI on hyvä paikka aloittaa.

Teksti: Salla-Maaria Laaksonen & Tuukka Lehtiniemi