Cambridge Analytica -vuoto sai suuren yleisön kiinnostumaan ongelmasta, josta kriittinen teknologiatutkimus on puhunut jo vuosia

Screen Shot 2018-03-21 at 12.07.46
Screenshot from Twitter #deletefacebook

Cambridge Analytican Facebook-datan väärinkäyttö Yhdysvaltain 2016 presidentinvaaleissa on nostattanut ison kritiikkivyöryn teknologiajättejä kohtaan. Miksi kohu nousee vasta nyt, vaikka kriitikot ja tutkijat ovat kirjoittaneet aiheesta jo vuosia?

Cambridge Analytica -kohu nousi uusiin ulottuvuuksiin lauantaina, analytiikkayhtiön entisen työntekijän Christopher Wylien tehtyä paljastuksen yhtiön datankäytöstä The Guardianille ja The New York Timesille. Uutismedia on raportoinut paljastuksesta laajalti, ja jatkojutuissa on muun muassa annettu neuvoja omien Facebook-asetuksien säätämiseen. Twitterissä leviää hashtag #deletefacebook, jossa ihmiset kehottavat tuhoamaan Facebook-tilinsä kokonaan. Facebookin pörssikurssi laski, mikä on viesti sijoittajien kokemista riskeistä ja sitä kautta melko vahva viesti kohun laajuudesta. Kenties tärkeimpänä seurauksena näyttäytyy kuitenkin se, että poliitikot niin Euroopassa kuin Yhdysvalloissakin ovat heränneet vaatimaan Facebookia tilivelvolliseksi. Tähän ei riittänyt vielä NSA-kohu eikä aiemmat tiedot venäläisten kohdentamista vaalimainoksista. Miksi nyt kriittinen reaktio kasvoi näin suureksi?

Ensinnäkin on hyvä pitää mielessä, että breach-termin käytöstä huolimatta kyseessä ei ole tietovuoto siinä mielessä, että data on alun perin kerätty Facebookin ohjelmointirajapinnan käyttösääntöjen puitteissa. Dataa on vain myöhemmin päädytty luovuttamaan kolmansille osapuolille sääntöjen vastaisesti. Myöskin alkuperäinen väite siitä, että applikaatio kerää dataa vain tutkimustarkoituksiin on tässä vaiheessa rikottu.

Vastaava data on siis vuoteen 2014 asti ollut kenen tahansa Facebookin ohjelmointirajapintaa käyttävän ladattavissa, jos hän on saanut Facebookilta hyväksynnän applikaatiolleen, ja saanut houkuteltua ihmiset sitä käyttämään. Vuonna 2014 Facebook rajoitti API:n kautta saatavan tiedon määrää suuresti, mutta vanhempia datasettejä todennäköisesti vielä pyörii kovalevyillä.

Tietyllä tavalla keskustelu siitä onko kyseessä teknisessä mielessä tietovuoto, ja missä vaiheessa sääntöjä on rikottu, on kuitenkin sivujuonne. Käyttäjien datan kerääminen perustui käyttäjien antamaan suostumukseen, jonka pitäisi olla harkittu ja perustua tietoon (englanniksi informed consent). Tähän sisältyy useita ongelmia, esimerkiksi mahdollisuus edes teoriassa olla tietoinen tulevista datan käytöistä sekä se, että data käytännössä koskee myös muita kuin suostumuksen antajaa. Kuinka monella Cambridge Analytican sovelluksen asentaneella kävi mielessä pohtia sitä, mihin omien tai Facebook-kavereiden tietojen tullaan käyttämään? Kuinka moni olisi edes voinut ennakoida teknologian kehitystä ja siihen liittyen tietojen tulevia käyttöjä? Kuinka usein jokainen meistä tulee antaneeksi suostumuksen datan keräämisen ja käyttöön pohtimatta näitä asioita?

Osa ongelmaa piilee pohjimmiltaan myös siinä, että yksityisyys ajatellaan asiaksi josta kukin käyttäjä päättää itse. Yksityisyys on kuitenkin monessa mielessä myös yhteinen asia. Tässä tapauksessa konkretisoituu hyvin myös se, mitä tämä voi tarkoittaa käytännössä.

Isossa mittakaavassa Facebookin asiakkailleen, siis mainostajille, antama lupaus on se, että maksavien asiakkaiden viestejä kohdennetaan tehokkaasti ja tämä vaikuttaa ihmisten käyttäytymiseen. Tätä lupausta yritys on toteuttanut mm. Yhdysvaltain vaalien alla, myös ennen viimeisimpiä presidentinvaaleja. On kenties väistämätöntä, että tällaista kohdentamiseen perustuvaa järjestelmää käytetään myös tavoilla joita pidämme väärinkäyttönä, ja nyt käynnissä oleva tapaus osoittaa konkreettisesti mitä tämä voi tarkoittaa. Se on myös osoittanut, ettei Facebookia ole erityisemmin kiinnostanut puuttua asiaan.

Facebookin ja muiden ns. GAFA-yritysten toimia kritisoiva techlash-ilmiö ei ole uusi: erityisesti teknologiajättien entiset työntekijät ovat kritisoineet avoimesti yritysten toimintatapaa ja eettisyyttä. Muun muassa ex-googlelainen Tristan Harris on varoittanut siitä, miten teknologiajätit hallitsevat mieliämme ja perustanut Center for Humane Technology -aloitteen ratkaisemaan teknologian vinoutunutta kehitystä. Like-nappulan kehittänyt Justin Rosenstein on myöhemmin kritisoinut keksintöään addiktiivisuudesta.

Myös tutkijat ovat kirjoittaneet kriittisiä havaintoja teknologiajättien toiminnasta. Esimerkiksi hollantilaiset José Van Dijck ja David Nieborg analysoivat artikkelissaan jo vuonna 2009, miten teknologiayritysten konehuoneessa pyörivä bisneslogiikka taitavasti piilotetaan sosiaalisia suhteita ja kulttuuria korostavan retoriikan taakse. Samasta teemasta kirjoittaa myös esimerkiksi Sarah Myers West, joka kuvaa kaupallisen valvonnan tuottamaa yhteiskuntaa datakapitalismiksi.

Harvardin emeritaprofessori Shoshana Zuboff on myös kirjoittanut kriittiseen ja melko dystooppiseenkin sävyyn valvontaan perustuvasta kapitalismista ja demokraattisen informaatioyhteiskunnan tulevaisuudesta käyttäen Googlea esimerkkitapauksena (ks. myös Zuboffin akateeminen, kieltämättä hieman työläslukuinen artikkeli aiheesta). Professori Joseph Turow on kirjoittanut ja puhunut jo vuosia mediayhtiöiden ja kohdentamisen logiikasta. Hän on tehnyt myös lukuisia empiirisiä analyyseja siitä, kuinka käyttäjät eivät ymmärrä sitä, millä laajuudella he tietojaan teknologiayrityksille luovuttavat, ja miten niitä voidaan jatkokäyttää.

Yleisemmän yhteiskuntateoreettisen näkökulman lisäksi tutkijat ovat tarttuneet myös yksityisyyden ja teknologian rajapintoihin. Muun muassa apulaisprofessori Bernhard Rieder on tehnyt kriittisiä havaintoja Facebookin luovuttamista datoista jo vuonna 2013. Blogipostauksessaan Rieder osoittaa, että viattomalta näyttävä “access to posts in your newsfeed” tarkoittaa itse asiassa pääsyä suureen määrään kyseisen käyttäjän verkoston tuottamaa sisältöä ja informaatiota. Myös Jen King kollegoineen kiinnitti asiaan huomiota jo vuonna 2011 julkaistussa applikaatioita itsekin hyödyntäneessä tutkimuksessa. Yksityisyyden yksilön yli menevästä sosiaalisesta ja verkottuneesta luonteesta on ylipäänsä kirjoittanut moni tutkija vuosien varrella. Hyvänä johdantona toimii esim. tämä teknologian tutkija danah boydin teksti vuodelta 2011.

Jostakin syystä tämä kriittinen puhe ei kuitenkaan ole kovin hyvin mennyt läpi – kenties emme ole olleet kovin herkkiä kuuntelemaan vastarannan kiiskiä startup-buumin ja teknologiahypen keskellä? Kenties vasta maailman merkittävimmät vaalit ja poliittinen vaikuttaminen ovat tarpeeksi vakava käyttökohde, johon jokaisella on tarttumapinta?

Joka tapauksessa nyt vallalla olevan tekoälypöhinän kohdalla voisimme kenties kuunnella kritiikkoja ja akateemikkoja vähän aikaisemmin. Esimerkiksi professori Luciano Floridin teksti Should we be afraid of AI on hyvä paikka aloittaa.

Teksti: Salla-Maaria Laaksonen & Tuukka Lehtiniemi

Keskustelukuplia ja kaikukammioita – missä on demokratian dialogi verkossa?

AmitBorade_17841847105_778599506a_z
(cc) Amit Borade @Flickr

Blogikirjoitus on rinnakkaispostaus Oikeusministeriön #suomi100-blogista.

Yhteiskunnallisen verkkokeskustelun kuplautuminen on ollut vahvasti huolenaiheena julkisessa keskustelussa. Onko teknologia, jonka piti mahdollistaa kaikkien kansalaisten osallistuminen yhteiskunnalliseen keskusteluun, sittenkin sulkenut meidät kaikukammioihin huutelemaan samanmielisten kanssa?

Kuplakeskustelun avasi Eli Pariser (2011) kirjallaan Filter Bubbles, jossa hän osoitti, kuinka eri puolueita kannattavat käyttäjät saavat hakukoneesta samalla hakusanalla aivan erilaisia tuloksia. Samaa ilmiötä on kauhisteltu muun muassa Facebookin kohdalla. Yleisradion toimittaja loi muukalaisvihamielisen feikkiprofiilin Facebookiin ja osoitti, miten muutamassa kuukaudessa käyttäjä sulkeutui vihakuplaan.

Kuplautumisen taustalla on teknologiajättien bisneslogiikka, jossa pyrkimyksenä on maksimoida käyttäjän palveluissa viettämä aika. Uutisvirta ei harjoita journalistista harkintaa, vaan oppii aiemmasta käyttäytymisestä. Facebookissa on tuhansia eri attribuutteja määrittämässä uutisvirtaamme sisältöä – mitä valtaosa käyttäjistä ei edes tiedosta. Sen sijaan he kehittävät luovasti erilaisia sosiaalisia perusteluja sisältöjen piiloutumiselle.

Kuplissa ei kuitenkaan ole kysymys ainoastaan teknologiasta. Sosiaalipsykologia on pitkään tarkastellut sosiaalisen identiteetin muodostumista ja ryhmien merkitystä. Ryhmässä mielipiteet yhtenäistyvät ja ryhmä alkaa suosia omaa ryhmäänsä toisten ryhmien kustannuksella. Lisäksi meillä on vahva taipumus tykästyä ärsykkeisiin, joille altistumme toistuvasti. Kun luemme samaa sisältöä uudelleen ja uudelleen, se alkaa tuntua normaalilta ja hyväksyttävältä.

Kuplautuminen on siis luonnollista, mutta on selvää, että viestintäteknologialla on sitä tukevia ominaisuuksia. Sosiaalinen media mahdollistaa sen, että samalla tavalla ajattelevat ihmiset voivat päätyä kaikukammioihinsa jakamaan virheellisiä väitteitä keskenään myös omaa lähituttavien piiriä laajemmalle.

Kuplasta ulos pääseminen vaatii työtä. Informaatiotulvan keskellä on mahdollista etsiä kattavasti eri mielipiteitä ja vertailla niitä. Käytännössä ihmiset eivät kuitenkaan tee niin, vaan tyytyvät ensimmäisiin tarjokkaisiin. Edelmanin luottamustutkimuksen mukaan hakukoneiden puolueettomuuteen luotetaan enemmän kuin uutismediaan.

Kuplilla pelotteluun liittyy kuitenkin riski siitä, että kaikki verkossa käytävä keskustelu latistetaan kuplissa tapahtuvaksi arvottomaksi huuteluksi, johon teknologia meidät ajaa. Verkkokeskusteluissa käydään myös asiallista poliittista keskustelua ja nostetaan esille kansalaisten huolia. Kuplat tai algoritmit eivät tee niistä vähemmän todellisia. Teknologia ei ole irrallinen yhteiskunnasta eikä mullista sitä kertaheitolla, vaikka vastuuta halutaan mielellään sälyttää teknologialle.

Algoritmeilla ja teknologialla pelottelun sijaan meidän tulisi paremmin ymmärtää niiden hybridi luonne: algoritmit ovat tasan yhtä hyviä kuin mekin. Ihmisten toimintatavat ja virhekäsitykset siirtyvät niihin ohjelmoinnin tai koneoppimisen kautta. Hakukone ja uutisvirrat suoltavat sisältöä, josta ne arvelevat etsijän pitävän aiemman verkkokäyttäytymisen perusteella. Teknologia tuottaa kaikukammioita, koska ihmiset ovat sosiaalisessa toiminnassa mieluiten oman viiteryhmänsä kanssa. Tekoälybotti oppii päivässä rasistiseksi vihapuhujaksi muita Twitter-käyttäjiä seuraamalla. Työnhakualgoritmi syrjii tummaihoisia, koska se oppii käyttäytymismallin aiemmasta aineistosta.

Kupla- ja algoritmikauhistelun sijasta tarvitsemme paitsi sosiaalipsykologista ymmärrystä omasta toiminnastamme, myös algoritmilukutaitoa: ymmärrystä siitä, miten julkisuus rakentuu sosiaalis-teknologisena järjestelmänä, ja miten voimme itse siihen vaikuttaa. Kriittisyys sisältöjä ja lähteitä kohtaan on tärkeää. Tieto kannattaa aina varmistaa monesta eri lähteestä, eikä hakukonekaan ole puolueeton. Omia ennakkoluulojaan voi haastaa etsiytymällä tarkoituksella toisen sosiaalisen ryhmän keskusteluihin. Siihen teknologia tarjoaa parempia mahdollisuuksia kuin paperimedia.

_________________________________________________

Salla-Maaria Laaksonen (VTT) on viestinnän ja teknologian tutkija Viestinnän Tutkimuskeskus CRC:ssa ja Kuluttajatutkimuskeskuksella. Laaksonen on tutkinut muun muassa yritysmainetta, digitaalista vaalijulkisuutta ja organisoitumista verkossa.

Lue lisää:
•    Tristan Harris: How a handful of tech companies control billions of minds every day  
•    TechCrunch: Ultimate Guide to the News Feed
•    Edelman 2017 Trust Barometer

Teknologia, demokratia ja teknologinen kansalaisuus

https://www.flickr.com/photos/nickharris1/8026290210
Photo: Nick Harris

Eilen tulevaa syyslukukautta juhlistettiin valtiotieteellisen tiedekunnan sisäpihalla sidosryhmille suunnatun kesäjuhlan merkeissä. Pidimme yhdessä Mika Pantzarin kanssa tapahtumassa lyhyen dialogipuheenvuoron aiheesta teknologia, demokratia ja kansalaisuus. Ohessa oma pointtini lyhyesti.

Teknologia on osa sosiaalisia, taloudellisia ja poliittisia valtarakenteita.

Suomalaiset yhteiskuntatietelijät ovat yllättävän vähän kiinnostuneita teknologiasta ottaen huomioon kuinka keskeisessä roolissa se arjessamme on. Samaan aikaan julkisuudessa on tällä hetkellä on kovasti vallalla eräänlainen uus-deterministinen puhe teknologiasta: väitteet siitä, kuinka algoritmit määrittelvät kaiken julkisen tilan, kertovat olemmeko sairaita vai emme, ja kuinka tekoäly saavuttaa pian tietoisuuden ja valloittaa maailman. Näissä puheissa teknologia nähdään toimijana, joka tuntuu olevan ihmiskontrollin ulottumattomissa.

Tutkijoina, asiantuntijoina ja kansalaisina meidän pitäisi ymmärtää paremmin niitä taloudellis-poliittisia rakenteita, jotka vaikuttavat teknologian taustalla. Vain siten osaamme paremmin suhteuttaa myös yllä kuvattua puhetapaa todellisuuteen.

Teknologisen kansalaisuuden näkökulmasta on merkittävää, että teknologialla tai tarkemmin teknologiayrityksillä on rakenteellista valtaa, joka määrittelee arkeamme ja julkisuuden rakennetta. tätä valtaa käyttävät ennen kaikkea isot amerikkalaisyritykset – le GAFA, eli Google, Apple, Facebook ja Amazon – joiden toimintalogiikkaa ohjaavat taloudelliset intressit. Tämä huolimatta siitä, että niiden mainospuheissa käytetään jatkuvasti kulttuurillista ja sosiaalista retoriikkaa [1].

Siksi teknologinen kansalaisuus tapahtuu tällä hetkellä kaupallisessa kontekstissa ja on kiinni markkinavetoisessa logiikassa: somekohut, Trumpin twiitit ja yhtä lailla myös perinteinen media ohjautuvat pääasiassa talouden logiikalla.

Markkinavetoinen teknologinen kansalaisuus on somekohuja ja närkästymistä, joita sitten mitataan ja analysoidaan, ja joista tehdään uutisia. On vaarana, että  tälainen pulina jää vain pulinaksi, jossa äänekäs vähemmistö vie näkyvyyden (cf. Marcuse ja repressiivinen toleranssi [2]). Luulemme osallistuvamme ja tekevämme politiikkaa, mutta todellisuudessa luomme vain kohun ja datapisteitä markkinoijalle.

Ehkä demokraattisempi teknologinen kansalaisuus voisi olla teknologian käyttöä suoraan kontaktiin valtaapitävien kanssa, erilaisia osallistavia teknologiaprojekteja ja jalkautumista poliitikkojen ja virkamiesten taholta?

Teknologian tutkimuksessa onkin viime aikoina korostettu niin sanottua vastavuoroisen rakentumisen näkökulmaa (mutual constitution of technology). Sanarimpsu tarkoittaa sitä, että teknologia ja ihmistoimijat vaikuttavat toisiinsa ja teknologian merkitys ja käyttötavat rakentuvat sosiaalisen toiminnan kautta.

Tässä mielessä meillä on kansalaisina ja kuluttajina väistämättä myös valtaa vaikuttaa siihen minkälaiseksi teknologia muodostuu, miten sitä käytetään ja miten se ymmärretään. Tätä valtaa kannattaa käyttää: kehittää uusia tapoja käyttää olemassa olevaa teknologiaa demokratian edistämiseen, pitää yllä tietoisuutta teknologian taustalla olevista voimista, ja tuoda rohkeammin yhteiskuntatieteellistä näkökulmaa myös teknologian kehitykseen.

* *

[1] Van Dijck, J., & Nieborg, D. (2009). Wikinomics and its discontents: a critical analysis of Web 2.0 business manifestos. New Media & Society, 11(5), 855–874. http://doi.org/10.1177/1461444809105356

[2] https://en.wikipedia.org/wiki/A_Critique_of_Pure_Tolerance