Pitäisikö algoritmien pelastaa meidät epävarmuudelta?

https://www.flickr.com/photos/belgapixels/2703291441/
Kuva (cc) Belgapixel @Flickr

Viimeisten vuosien aikana on puhuttu paljon algoritmien vallasta, mutta keskusteluissa esiintyy monia erilaisia näkökulmia siitä, minkälaista tuo valta oikeastaan on. Yhtäältä on keskusteltu algoritmien kyvystä rajata ja muokata ihmistoiminnan mahdollisuuksia, esimerkiksi luokittelemalla ihmisiä ja ohjaamalla tiedon kulkua [1,2,3]. Toisaalta huomiota on kiinnitetty algoritmeja koskevien käsitysten ja odotusten rooliin toiminnan ohjaamisessa [4]. Tässä kirjoituksessa pohdimme yhtä mahdollista syytä sille, miksi algoritmit ylipäätään saavat valtaa.

Michel Crozier käsittelee kirjassaan The Bureaucratic Phenomenon [5] sitä, miten byrokraattisissa organisaatioissa valtaa keskittyy henkilöille, joilla on kyky hallita organisaation toimintaan liittyvää epävarmuutta. Hän kirjoittaa esimerkiksi tehtaan koneiden huoltohenkilökunnasta ryhmänä, jolle valtaa keskittyi, koska he kykenivät vähentämään tuotantokoneisiin liittyvää epävarmuutta.

Tuotantokoneiston huoltaminen oli tehtaiden toiminnan kannalta keskeistä ja huoltohenkilökunta muodosti asiantuntijaryhmän, jolla yksin oli huoltamiseen tarvittavaa osaamista. Tämä osaaminen antoi huoltohenkilöstökunnalle strategisen etulyöntiaseman suhteessa tehtaan muihin henkilöstöryhmiin. Byrokraattisesta rakenteesta huolimatta organisaatio oli kykenemätön hallitsemaan henkilöstöryhmien epämuodollista kanssakäymistä. Tästä johtuen koneiden rikkoutumiseen liittyvän epävarmuuden hallinta loi huoltohenkilökunnalle valtaa, jota he käyttivät neuvotellessaan ryhmänsä eduista.

Crozierin analyysissa byrokraattisten organisaatioiden keskeinen pyrkimys on kontrolloida organisaation toimintaan liittyviä epävarmuuden lähteitä. Epävarmuus organisaation toiminnassa luo hallitsematonta valtaa, joka tekee byrokraattisen järjestelmän toiminnasta epätehokasta.

Yksi byrokraattisten järjestelmien toimintaan liittyvän määrällistämisen tavoitteena on etäännyttää järjestelmien toiminta subjektiivisista ihmisarvioista [6]. Sama ilmiö näkyy myös erilaisten algoritmisten sovellusten käytössä. Algoritmien toivotaan paitsi eliminoivan epävarmuuden lähteitä, myös parantavan toiminnan tehokkuutta.  Usein toiveena on, että ihmisen päätöksenteon subjektiivisuuteen tai muihin heikkouksiin liittyvät ongelmat voidaan ratkaista uusilla datapohjaiseen analytiikkaan perustuvilla teknologisilla sovelluksilla [7,8]. Tämä epävarmuuden kontrollointi näkyy tapauksissa, joissa algoritmien käyttöä perustellaan niiden systemaattisuudella tai tasalaatuisuudella, kuten esimerkiksi algoritmisen analytiikan tehokkuutta ja ennustekykyä koskevissa odotuksissa [9]. Ennustekyvyn tarkentumisen ja toiminnan tehostamisen onkin esitetty olevan nykyanalytiikkaa keskeisesti ohjaavia odotuksia [10]. Yksi käytännön esimerkki ovat itseohjautuvat autot, joiden toivotaan olevan ihmisten ohjaamia autoja turvallisempia [esim. 11]. Personalisoidun terveydenhuollon taas toivotaan tarjoavan yksilöille entistä parempia tapoja hallita terveyttään [12]. Myös esimerkiksi tekoälyn käyttö yritysten rekrytointiprosesseissa on yleistymässä. Automatisoituja rekrytointiprosesseja perustellaan vedoten tehokkuuteen ja algoritmisen arvioinnin tasalaatuisuuteen [esim. 13].

Erving Goffman on käsitellyt esseessään Where the action is? [14] kohtalokkuutta. Hän liittää käsitteen päätöksiin, jotka ovat ongelmallisia ja seuraamuksellisia. Puhtaan ongelmalliset päätökset ovat sellaisia, joissa oikea päätös ei ole selvä, mutta päätöksellä ei ole laajemman elämän kannalta juurikaan väliä. Valinta sen suhteen, mitä katsoa televisiosta, on esimerkki tällaisesta päätöksestä. Esimerkiksi päätös lähteä joka aamu töihin taas on esimerkki seuraamuksellisesta päätöksestä, jossa oikea valinta on selvä. Kotiin jäämisellä voisi olla haitallisia seurauksia, joten valinnalle lähteä töihin on selkeät perusteet. Kohtalokkaat päätökset ovat sellaisia, joissa valinnalle ei ole selkeitä perusteita, mutta sen tekemisellä on laajakantoisia seurauksia Goffmanin mukaan pyrimme järjestämään arkemme niin, että päätöksemme eivät yleensä olisi kohtalokkaita.

Sama kohtalokkuuden vähentäminen on läsnä niissä toiveissa, joita esitämme algoritmeille. Toivomme niiltä apua tilanteissa joissa oikea päätös on epäselvä. Emme kuitenkaan pysty pakenemaan kohtalokkuutta kokonaan. Päätöksillä voi aina olla ennakoimattomia seurauksia. Koska olemme aina läsnä omana, fyysisenä itsenämme, yllättävissä tilanteissa kehomme voi esimerkiksi aina vahingoittua. Kaikkeen olemiseen liittyy riskejä.

Ajatuksella kohtalokkuuden eliminoimisesta on yhtymäkohta Crozierin byrokratia-analyysiin. Byrokraattiset järjestelmät kehittyvät juuri olosuhteissa, joissa toimintaan liittyvää epävarmuutta pyritään eliminoimaan. Paradoksaalisesti juuri epävarmuuden eliminointiin käytetty menetelmä – tiukka toimintaa ohjaava formaali säännöstö – johtaa vallan keskittymiseen organisaation niihin osiin, joista epävarmuutta ei saada kitkettyä. Samaten kohtalokkuuden eliminoiminen algoritmien avulla voi johtaa vallan toimimiseen juuri niiden teknologioiden välityksellä, joilla epävarmuutta pyritään hallitsemaan. Tästä näkökulmasta yksi syy sille, että algoritmeille syntyy valtaa, on pyrkimys kontrolloida epävarmuutta, jota ei kuitenkaan täydellisesti kyetä hallitsemaan. Algoritmisissa järjestelmissä valta toimii algoritmien kautta, mutta syntyy osana laajempaa ihmistoiminnan kontekstia. Näin ollen algoritmista valtaa voitaisiinkin kenties tutkia kysymällä, minkälaisia epävarmuustekijöitä algoritmien käytöllä pyritään hallitsemaan, ja mikä mahdollisesti jää hallitsematta?

Jos joku lupaa auttaa meitä tekemään aina oikean päätöksen epävarmassa maailmassa, ei ole ihme että kuuntelemme. On kuitenkin syytä kiinnittää huomiota siihen, että samalla auttajille keskittyy valtaa.

Teksti: Jesse Haapoja & Juho Pääkkönen

– –
Kiitokset kommenteista Salla-Maaria Laaksoselle, Airi Lampiselle ja Matti Nelimarkalle. Tämä teksti kirjoitettiin osana Koneen Säätiön rahoittamaa Algoritmiset järjestelmät, valta ja vuorovaikutus -hanketta.

Eettinen tekoäly toteutuu punnituissa käytännöissä

Tekoälyä kuvataan maiden tai maanosien välisenä kilpajuoksuna, jonka ennakkosuosikkeina ovat USA ja Kiina, sekä haastajana EU. Asetelma näkyy EU-maissa tekoälystrategioina, ohjelmina ja rahoitusinstrumentteina.

Valtioneuvoston tuoreen eettistä tietopolitiikkaa koskevan selonteon mukaan Suomi tavoittelee kilpailuetua eettisesti kestävällä tekoälyn kehittämisellä ja soveltamisella. Päämääränä ovat hyödyt yhteiskunnalle ja tavallisille ihmisille, esimerkkinä maailman parhaat julkiset palvelut. Eettisyyttä tavoitellaan yhteisesti sovituilla periaatteilla, joita palveluiden kehittäjät ja ihmisiä koskevien tietoaineistojen hyödyntäjät noudattavat.

Eettisesti kestävän tekoälyn viitekehys korostaa yleisiä periaatteita kuten läpinäkyvyttä, ihmiskeskeisyyttä, ymmärrettävyyttä, syrjimättömyyttä ja ihmisarvoa – yleviä päämääriä, joiden arvoa tuskin kukaan kiistää. Periaatteita edistetään vetoamalla yritysten itsesäätelyn tarpeeseen muuttuvassa teknologiaympäristössä, jossa ajantasainen sääntely lakien tai määräysten avulla on vaikeaa.

Eettiset viitekehykset ovat erityisen tärkeitä silloin, kun sääntely tai yhteiskunnalliset oikeudenmukaisuuden normit eivät auta jäsentämään toiminnan reunaehtoja. Periaatteet rajaavat toimintatapoja, jotka ilmiselvästi rikkovat ihmisten itsemääräämisoikeutta tai tuottavat epäterveitä käytäntöjä arkeen ja työelämään. Yleisten periaatteiden ongelma voi kuitenkin piillä niiden tulkinnallisessa avoimuudessa. Se mikä on yhdelle yritykselle vastuullisuutta tai syrjimättömyyttä, ei välttämättä ole sitä toiselle.

Olemme seuranneet vuosien ajan eettisen tietopolitiikan vahvuudeksi tunnistetun MyData-ajattelun kehittymistä Suomessa ja kansainvälisesti. MyDatan, tai omadatan, perusajatuksen mukaan kansalaisten tulee saada hallita itseään koskevien tietojen käyttöä yrityksissä ja julkisella sektorilla. MyDatassa yksilöä ajatellaan digitaalisen talouden keskuksena ja datavirtojen keskipisteenä. Tavoitteena on haastaa henkilökohtaisten tietojen taloudellisen hyödyntämisen epätasa-arvoisuus siirtämällä kontrolli yrityksiltä ihmisille, joista aineistoja kerätään.

MyDatan edistäjät ovat tehokkaasti osoittaneet ihmiskeskeisyyden tarpeellisuuden datatalouden rakenteissa. Samalla ihmiskeskeisyyttä kuitenkin tulkitaan varsin joustavasti. Se voi tarkoittaa kansalaiselle tasavertaista osallistumista digitaaliseen yhteiskuntaan, yritykselle taas väylää päästä yksilön kautta käsiksi datajättien hallussa oleviin aineistoihin.

Mikä merkitsee yhdelle toimijalle kaikkien digitaalisten oikeuksien suojaamista, voi toiselle tarkoittaa mahdollisuutta tarjota maksukykyisille yksityisyyttä turvaavia palveluja. Ihmiskeskeisyydestä tulee eräänlainen musteläiskä, jossa toimijat näkevät omasta näkökulmastaan edistämisen arvoisia piirteitä.

Yleiset eettiset periaatteet eivät siis takaa tavoiteltujen yhteiskunnallisten seurausten toteutumista. Pikemminkin yleisellä tasolla pysyminen tuottaa epämääräistä puhetta ja mitäänsanottamia vastauksia. Siksi eettisiä periaatteita tulee konkretisoida ja koetella käytännössä. Jotta käytännön toimijat saavat tukea päätöksilleen, tarvitaan yksityiskohtaisia esimerkkejä palveluista, joissa eettiset periaatteet toteutuvat. Inspiraatiota eettisyyteen voi hakea myös yhteistä hyvää tuottavista digitaalisista palveluista kuten Wikipediasta, tai osuuskuntaperiaatteella toimivista yrityksistä.

Henkilökohtaisten tietojen käytön eettiset periaatteet toteutuvat, kun pääsy aineistoihin pohditaan huolellisesti ja samalla määritetään, kuka voi hyötyä aineistojen käytöstä ja miten. Keskeisiä ovat aineistojen käyttöön liittyvän päätöksenteon säännöt. Tässä ei itse asiassa ole mitään uutta. Vaikka teknologia kehittyykin nopeasti, henkilökohtaisten aineistojen käytön rajoja ja mahdollisuuksia on pohdittu vuosikymmenien ajan.

On päätettävä millaista aineistoa voi kerätä tai käyttää, mihin tarkoituksiin ja kenen toimesta, missä kulkevat hyväksyttävän ja vältettävän rajat, ja kuka niihin voi vaikuttaa ja millä aikavälillä. Vastaukset eivät kumpua yleisistä periaatteista, eivätkä ole yleispäteviä. Se mikä esimerkiksi liikenteen älypalveluissa on hyväksyttävää, voi terveyden kentällä olla eettisesti arveluttavaa.

Tämän ajan suuri haaste on digitaalisen ympäristön ohjaus ja hallinnointi. Pikemminkin kuin teknologian kehittäjien kilpajuoksusta, tässä on kysymys eri näkökulmien ja käytäntöjen huolellisesta yhteensovittamisesta. Kilpailuetua tulisi hakea eettisten tavoitteiden toteutumisesta eri alojen osaamisten risteyskohdissa. Siinä missä tekoälykisaajat näkevät maalin edessään, eettinen kestävyys löytyy pikemminkin yhdistelemällä kekseliäästi vanhaa ja uutta.

– –
Tuukka Lehtiniemi (@tlehtiniemi) & Minna Ruckenstein (@minruc).
Kirjoittajat ovat tutkijoita Helsingin yliopiston Kuluttajatutkimuskeskuksessa.

Kirjoitus on rinnakkaisjulkaistu Etiikka.fi-sivulla.

Cambridge Analytica -vuoto sai suuren yleisön kiinnostumaan ongelmasta, josta kriittinen teknologiatutkimus on puhunut jo vuosia

Screen Shot 2018-03-21 at 12.07.46
Screenshot from Twitter #deletefacebook

Cambridge Analytican Facebook-datan väärinkäyttö Yhdysvaltain 2016 presidentinvaaleissa on nostattanut ison kritiikkivyöryn teknologiajättejä kohtaan. Miksi kohu nousee vasta nyt, vaikka kriitikot ja tutkijat ovat kirjoittaneet aiheesta jo vuosia?

Cambridge Analytica -kohu nousi uusiin ulottuvuuksiin lauantaina, analytiikkayhtiön entisen työntekijän Christopher Wylien tehtyä paljastuksen yhtiön datankäytöstä The Guardianille ja The New York Timesille. Uutismedia on raportoinut paljastuksesta laajalti, ja jatkojutuissa on muun muassa annettu neuvoja omien Facebook-asetuksien säätämiseen. Twitterissä leviää hashtag #deletefacebook, jossa ihmiset kehottavat tuhoamaan Facebook-tilinsä kokonaan. Facebookin pörssikurssi laski, mikä on viesti sijoittajien kokemista riskeistä ja sitä kautta melko vahva viesti kohun laajuudesta. Kenties tärkeimpänä seurauksena näyttäytyy kuitenkin se, että poliitikot niin Euroopassa kuin Yhdysvalloissakin ovat heränneet vaatimaan Facebookia tilivelvolliseksi. Tähän ei riittänyt vielä NSA-kohu eikä aiemmat tiedot venäläisten kohdentamista vaalimainoksista. Miksi nyt kriittinen reaktio kasvoi näin suureksi?

Ensinnäkin on hyvä pitää mielessä, että breach-termin käytöstä huolimatta kyseessä ei ole tietovuoto siinä mielessä, että data on alun perin kerätty Facebookin ohjelmointirajapinnan käyttösääntöjen puitteissa. Dataa on vain myöhemmin päädytty luovuttamaan kolmansille osapuolille sääntöjen vastaisesti. Myöskin alkuperäinen väite siitä, että applikaatio kerää dataa vain tutkimustarkoituksiin on tässä vaiheessa rikottu.

Vastaava data on siis vuoteen 2014 asti ollut kenen tahansa Facebookin ohjelmointirajapintaa käyttävän ladattavissa, jos hän on saanut Facebookilta hyväksynnän applikaatiolleen, ja saanut houkuteltua ihmiset sitä käyttämään. Vuonna 2014 Facebook rajoitti API:n kautta saatavan tiedon määrää suuresti, mutta vanhempia datasettejä todennäköisesti vielä pyörii kovalevyillä.

Tietyllä tavalla keskustelu siitä onko kyseessä teknisessä mielessä tietovuoto, ja missä vaiheessa sääntöjä on rikottu, on kuitenkin sivujuonne. Käyttäjien datan kerääminen perustui käyttäjien antamaan suostumukseen, jonka pitäisi olla harkittu ja perustua tietoon (englanniksi informed consent). Tähän sisältyy useita ongelmia, esimerkiksi mahdollisuus edes teoriassa olla tietoinen tulevista datan käytöistä sekä se, että data käytännössä koskee myös muita kuin suostumuksen antajaa. Kuinka monella Cambridge Analytican sovelluksen asentaneella kävi mielessä pohtia sitä, mihin omien tai Facebook-kavereiden tietojen tullaan käyttämään? Kuinka moni olisi edes voinut ennakoida teknologian kehitystä ja siihen liittyen tietojen tulevia käyttöjä? Kuinka usein jokainen meistä tulee antaneeksi suostumuksen datan keräämisen ja käyttöön pohtimatta näitä asioita?

Osa ongelmaa piilee pohjimmiltaan myös siinä, että yksityisyys ajatellaan asiaksi josta kukin käyttäjä päättää itse. Yksityisyys on kuitenkin monessa mielessä myös yhteinen asia. Tässä tapauksessa konkretisoituu hyvin myös se, mitä tämä voi tarkoittaa käytännössä.

Isossa mittakaavassa Facebookin asiakkailleen, siis mainostajille, antama lupaus on se, että maksavien asiakkaiden viestejä kohdennetaan tehokkaasti ja tämä vaikuttaa ihmisten käyttäytymiseen. Tätä lupausta yritys on toteuttanut mm. Yhdysvaltain vaalien alla, myös ennen viimeisimpiä presidentinvaaleja. On kenties väistämätöntä, että tällaista kohdentamiseen perustuvaa järjestelmää käytetään myös tavoilla joita pidämme väärinkäyttönä, ja nyt käynnissä oleva tapaus osoittaa konkreettisesti mitä tämä voi tarkoittaa. Se on myös osoittanut, ettei Facebookia ole erityisemmin kiinnostanut puuttua asiaan.

Facebookin ja muiden ns. GAFA-yritysten toimia kritisoiva techlash-ilmiö ei ole uusi: erityisesti teknologiajättien entiset työntekijät ovat kritisoineet avoimesti yritysten toimintatapaa ja eettisyyttä. Muun muassa ex-googlelainen Tristan Harris on varoittanut siitä, miten teknologiajätit hallitsevat mieliämme ja perustanut Center for Humane Technology -aloitteen ratkaisemaan teknologian vinoutunutta kehitystä. Like-nappulan kehittänyt Justin Rosenstein on myöhemmin kritisoinut keksintöään addiktiivisuudesta.

Myös tutkijat ovat kirjoittaneet kriittisiä havaintoja teknologiajättien toiminnasta. Esimerkiksi hollantilaiset José Van Dijck ja David Nieborg analysoivat artikkelissaan jo vuonna 2009, miten teknologiayritysten konehuoneessa pyörivä bisneslogiikka taitavasti piilotetaan sosiaalisia suhteita ja kulttuuria korostavan retoriikan taakse. Samasta teemasta kirjoittaa myös esimerkiksi Sarah Myers West, joka kuvaa kaupallisen valvonnan tuottamaa yhteiskuntaa datakapitalismiksi.

Harvardin emeritaprofessori Shoshana Zuboff on myös kirjoittanut kriittiseen ja melko dystooppiseenkin sävyyn valvontaan perustuvasta kapitalismista ja demokraattisen informaatioyhteiskunnan tulevaisuudesta käyttäen Googlea esimerkkitapauksena (ks. myös Zuboffin akateeminen, kieltämättä hieman työläslukuinen artikkeli aiheesta). Professori Joseph Turow on kirjoittanut ja puhunut jo vuosia mediayhtiöiden ja kohdentamisen logiikasta. Hän on tehnyt myös lukuisia empiirisiä analyyseja siitä, kuinka käyttäjät eivät ymmärrä sitä, millä laajuudella he tietojaan teknologiayrityksille luovuttavat, ja miten niitä voidaan jatkokäyttää.

Yleisemmän yhteiskuntateoreettisen näkökulman lisäksi tutkijat ovat tarttuneet myös yksityisyyden ja teknologian rajapintoihin. Muun muassa apulaisprofessori Bernhard Rieder on tehnyt kriittisiä havaintoja Facebookin luovuttamista datoista jo vuonna 2013. Blogipostauksessaan Rieder osoittaa, että viattomalta näyttävä “access to posts in your newsfeed” tarkoittaa itse asiassa pääsyä suureen määrään kyseisen käyttäjän verkoston tuottamaa sisältöä ja informaatiota. Myös Jen King kollegoineen kiinnitti asiaan huomiota jo vuonna 2011 julkaistussa applikaatioita itsekin hyödyntäneessä tutkimuksessa. Yksityisyyden yksilön yli menevästä sosiaalisesta ja verkottuneesta luonteesta on ylipäänsä kirjoittanut moni tutkija vuosien varrella. Hyvänä johdantona toimii esim. tämä teknologian tutkija danah boydin teksti vuodelta 2011.

Jostakin syystä tämä kriittinen puhe ei kuitenkaan ole kovin hyvin mennyt läpi – kenties emme ole olleet kovin herkkiä kuuntelemaan vastarannan kiiskiä startup-buumin ja teknologiahypen keskellä? Kenties vasta maailman merkittävimmät vaalit ja poliittinen vaikuttaminen ovat tarpeeksi vakava käyttökohde, johon jokaisella on tarttumapinta?

Joka tapauksessa nyt vallalla olevan tekoälypöhinän kohdalla voisimme kenties kuunnella kritiikkoja ja akateemikkoja vähän aikaisemmin. Esimerkiksi professori Luciano Floridin teksti Should we be afraid of AI on hyvä paikka aloittaa.

Teksti: Salla-Maaria Laaksonen & Tuukka Lehtiniemi

Keskustelukuplia ja kaikukammioita – missä on demokratian dialogi verkossa?

AmitBorade_17841847105_778599506a_z
(cc) Amit Borade @Flickr

Blogikirjoitus on rinnakkaispostaus Oikeusministeriön #suomi100-blogista.

Yhteiskunnallisen verkkokeskustelun kuplautuminen on ollut vahvasti huolenaiheena julkisessa keskustelussa. Onko teknologia, jonka piti mahdollistaa kaikkien kansalaisten osallistuminen yhteiskunnalliseen keskusteluun, sittenkin sulkenut meidät kaikukammioihin huutelemaan samanmielisten kanssa?

Kuplakeskustelun avasi Eli Pariser (2011) kirjallaan Filter Bubbles, jossa hän osoitti, kuinka eri puolueita kannattavat käyttäjät saavat hakukoneesta samalla hakusanalla aivan erilaisia tuloksia. Samaa ilmiötä on kauhisteltu muun muassa Facebookin kohdalla. Yleisradion toimittaja loi muukalaisvihamielisen feikkiprofiilin Facebookiin ja osoitti, miten muutamassa kuukaudessa käyttäjä sulkeutui vihakuplaan.

Kuplautumisen taustalla on teknologiajättien bisneslogiikka, jossa pyrkimyksenä on maksimoida käyttäjän palveluissa viettämä aika. Uutisvirta ei harjoita journalistista harkintaa, vaan oppii aiemmasta käyttäytymisestä. Facebookissa on tuhansia eri attribuutteja määrittämässä uutisvirtaamme sisältöä – mitä valtaosa käyttäjistä ei edes tiedosta. Sen sijaan he kehittävät luovasti erilaisia sosiaalisia perusteluja sisältöjen piiloutumiselle.

Kuplissa ei kuitenkaan ole kysymys ainoastaan teknologiasta. Sosiaalipsykologia on pitkään tarkastellut sosiaalisen identiteetin muodostumista ja ryhmien merkitystä. Ryhmässä mielipiteet yhtenäistyvät ja ryhmä alkaa suosia omaa ryhmäänsä toisten ryhmien kustannuksella. Lisäksi meillä on vahva taipumus tykästyä ärsykkeisiin, joille altistumme toistuvasti. Kun luemme samaa sisältöä uudelleen ja uudelleen, se alkaa tuntua normaalilta ja hyväksyttävältä.

Kuplautuminen on siis luonnollista, mutta on selvää, että viestintäteknologialla on sitä tukevia ominaisuuksia. Sosiaalinen media mahdollistaa sen, että samalla tavalla ajattelevat ihmiset voivat päätyä kaikukammioihinsa jakamaan virheellisiä väitteitä keskenään myös omaa lähituttavien piiriä laajemmalle.

Kuplasta ulos pääseminen vaatii työtä. Informaatiotulvan keskellä on mahdollista etsiä kattavasti eri mielipiteitä ja vertailla niitä. Käytännössä ihmiset eivät kuitenkaan tee niin, vaan tyytyvät ensimmäisiin tarjokkaisiin. Edelmanin luottamustutkimuksen mukaan hakukoneiden puolueettomuuteen luotetaan enemmän kuin uutismediaan.

Kuplilla pelotteluun liittyy kuitenkin riski siitä, että kaikki verkossa käytävä keskustelu latistetaan kuplissa tapahtuvaksi arvottomaksi huuteluksi, johon teknologia meidät ajaa. Verkkokeskusteluissa käydään myös asiallista poliittista keskustelua ja nostetaan esille kansalaisten huolia. Kuplat tai algoritmit eivät tee niistä vähemmän todellisia. Teknologia ei ole irrallinen yhteiskunnasta eikä mullista sitä kertaheitolla, vaikka vastuuta halutaan mielellään sälyttää teknologialle.

Algoritmeilla ja teknologialla pelottelun sijaan meidän tulisi paremmin ymmärtää niiden hybridi luonne: algoritmit ovat tasan yhtä hyviä kuin mekin. Ihmisten toimintatavat ja virhekäsitykset siirtyvät niihin ohjelmoinnin tai koneoppimisen kautta. Hakukone ja uutisvirrat suoltavat sisältöä, josta ne arvelevat etsijän pitävän aiemman verkkokäyttäytymisen perusteella. Teknologia tuottaa kaikukammioita, koska ihmiset ovat sosiaalisessa toiminnassa mieluiten oman viiteryhmänsä kanssa. Tekoälybotti oppii päivässä rasistiseksi vihapuhujaksi muita Twitter-käyttäjiä seuraamalla. Työnhakualgoritmi syrjii tummaihoisia, koska se oppii käyttäytymismallin aiemmasta aineistosta.

Kupla- ja algoritmikauhistelun sijasta tarvitsemme paitsi sosiaalipsykologista ymmärrystä omasta toiminnastamme, myös algoritmilukutaitoa: ymmärrystä siitä, miten julkisuus rakentuu sosiaalis-teknologisena järjestelmänä, ja miten voimme itse siihen vaikuttaa. Kriittisyys sisältöjä ja lähteitä kohtaan on tärkeää. Tieto kannattaa aina varmistaa monesta eri lähteestä, eikä hakukonekaan ole puolueeton. Omia ennakkoluulojaan voi haastaa etsiytymällä tarkoituksella toisen sosiaalisen ryhmän keskusteluihin. Siihen teknologia tarjoaa parempia mahdollisuuksia kuin paperimedia.

_________________________________________________

Salla-Maaria Laaksonen (VTT) on viestinnän ja teknologian tutkija Viestinnän Tutkimuskeskus CRC:ssa ja Kuluttajatutkimuskeskuksella. Laaksonen on tutkinut muun muassa yritysmainetta, digitaalista vaalijulkisuutta ja organisoitumista verkossa.

Lue lisää:
•    Tristan Harris: How a handful of tech companies control billions of minds every day  
•    TechCrunch: Ultimate Guide to the News Feed
•    Edelman 2017 Trust Barometer

Teknologia, demokratia ja teknologinen kansalaisuus

https://www.flickr.com/photos/nickharris1/8026290210
Photo: Nick Harris

Eilen tulevaa syyslukukautta juhlistettiin valtiotieteellisen tiedekunnan sisäpihalla sidosryhmille suunnatun kesäjuhlan merkeissä. Pidimme yhdessä Mika Pantzarin kanssa tapahtumassa lyhyen dialogipuheenvuoron aiheesta teknologia, demokratia ja kansalaisuus. Ohessa oma pointtini lyhyesti.

Teknologia on osa sosiaalisia, taloudellisia ja poliittisia valtarakenteita.

Suomalaiset yhteiskuntatietelijät ovat yllättävän vähän kiinnostuneita teknologiasta ottaen huomioon kuinka keskeisessä roolissa se arjessamme on. Samaan aikaan julkisuudessa on tällä hetkellä on kovasti vallalla eräänlainen uus-deterministinen puhe teknologiasta: väitteet siitä, kuinka algoritmit määrittelvät kaiken julkisen tilan, kertovat olemmeko sairaita vai emme, ja kuinka tekoäly saavuttaa pian tietoisuuden ja valloittaa maailman. Näissä puheissa teknologia nähdään toimijana, joka tuntuu olevan ihmiskontrollin ulottumattomissa.

Tutkijoina, asiantuntijoina ja kansalaisina meidän pitäisi ymmärtää paremmin niitä taloudellis-poliittisia rakenteita, jotka vaikuttavat teknologian taustalla. Vain siten osaamme paremmin suhteuttaa myös yllä kuvattua puhetapaa todellisuuteen.

Teknologisen kansalaisuuden näkökulmasta on merkittävää, että teknologialla tai tarkemmin teknologiayrityksillä on rakenteellista valtaa, joka määrittelee arkeamme ja julkisuuden rakennetta. tätä valtaa käyttävät ennen kaikkea isot amerikkalaisyritykset – le GAFA, eli Google, Apple, Facebook ja Amazon – joiden toimintalogiikkaa ohjaavat taloudelliset intressit. Tämä huolimatta siitä, että niiden mainospuheissa käytetään jatkuvasti kulttuurillista ja sosiaalista retoriikkaa [1].

Siksi teknologinen kansalaisuus tapahtuu tällä hetkellä kaupallisessa kontekstissa ja on kiinni markkinavetoisessa logiikassa: somekohut, Trumpin twiitit ja yhtä lailla myös perinteinen media ohjautuvat pääasiassa talouden logiikalla.

Markkinavetoinen teknologinen kansalaisuus on somekohuja ja närkästymistä, joita sitten mitataan ja analysoidaan, ja joista tehdään uutisia. On vaarana, että  tälainen pulina jää vain pulinaksi, jossa äänekäs vähemmistö vie näkyvyyden (cf. Marcuse ja repressiivinen toleranssi [2]). Luulemme osallistuvamme ja tekevämme politiikkaa, mutta todellisuudessa luomme vain kohun ja datapisteitä markkinoijalle.

Ehkä demokraattisempi teknologinen kansalaisuus voisi olla teknologian käyttöä suoraan kontaktiin valtaapitävien kanssa, erilaisia osallistavia teknologiaprojekteja ja jalkautumista poliitikkojen ja virkamiesten taholta?

Teknologian tutkimuksessa onkin viime aikoina korostettu niin sanottua vastavuoroisen rakentumisen näkökulmaa (mutual constitution of technology). Sanarimpsu tarkoittaa sitä, että teknologia ja ihmistoimijat vaikuttavat toisiinsa ja teknologian merkitys ja käyttötavat rakentuvat sosiaalisen toiminnan kautta.

Tässä mielessä meillä on kansalaisina ja kuluttajina väistämättä myös valtaa vaikuttaa siihen minkälaiseksi teknologia muodostuu, miten sitä käytetään ja miten se ymmärretään. Tätä valtaa kannattaa käyttää: kehittää uusia tapoja käyttää olemassa olevaa teknologiaa demokratian edistämiseen, pitää yllä tietoisuutta teknologian taustalla olevista voimista, ja tuoda rohkeammin yhteiskuntatieteellistä näkökulmaa myös teknologian kehitykseen.

* *

[1] Van Dijck, J., & Nieborg, D. (2009). Wikinomics and its discontents: a critical analysis of Web 2.0 business manifestos. New Media & Society, 11(5), 855–874. http://doi.org/10.1177/1461444809105356

[2] https://en.wikipedia.org/wiki/A_Critique_of_Pure_Tolerance