CFP: Teemanumero Informaatiotutkimus-lehteen: Yhteiskuntatieteiden ja informaatioteknologian rajapinnoilla (3/2021)

https://www.flickr.com/photos/nickharris1/8026290210
Photo: (cc) Nick Harris

T√§m√§ on artikkelukutsu teemanumeroon “Yhteiskuntatieteiden ja informaatioteknologian rajapinnoilla”. Yhteisty√∂ss√§ Rajapinta-yhdistyksen kanssa toimitettava Informaatiotutkimus-lehden erikoisnumero kartoittaa ja pohtii digitaalisen ihmis- ja yhteiskuntatieteen nykytilaa ja tulevaisuutta erityisesti muuttuvien aineistojen luomien haasteiden ja mahdollisuuksien n√§k√∂kulmasta.

Informaatioteknologian kehitys ja yhteiskunnan digitalisoituminen ovat kannustaneet tutkijoita eri tieteenaloilta tarkastelemaan erilaisten sosioteknisten j√§rjestelmien ja digitalisoituvien k√§yt√§nt√∂jen merkityst√§ yhteiskunnassa. Esimerkiksi informaatiotutkimuksen, sosiologian, politiikan tutkimuksen ja taloustieteiden aloilla on her√§nnyt kiinnostusta teknologian tuottamista vaikutuksista ja sen avaamista mahdollisuuksista liittyen oman tieteenalan keskeisiin ilmi√∂ihin: teknologiav√§litteisyys muun muassa m√§√§ritt√§√§ sosiaalista ja kaupallista kanssak√§ymist√§, poliittista keskustelua ja kansalaisuuden rakentumista, sek√§ muokkaa yhteiskunnan instituutioita kouluista mediaan. Samalla digitalisoituvan yhteiskunnan kehityskaari muokkaa yh√§ vahvemmin ihmis- ja yhteiskuntatieteiden tutkimuskohteita, aineistoja ja menetelmi√§. 

Sosiaalisen toiminnan j√§tt√§m√§t digitaaliset j√§ljet mahdollistavat uudenlaisten kysymysten esitt√§misen. Ensinn√§kin ne kannustavat tutkimaan teknologian roolia erilaisissa yhteiskunnallisissa prosesseissa. Toisekseen, ne tuottavat tutkijoille yhteiskunnallisen toiminnan aidossa kontekstissa syntyneit√§, laajoja aineistoja ihmisten, yhteis√∂jen ja yhteiskunnan toiminnasta. Samalla ne kuitenkin aiheuttavat uusia haasteita tutkimukselle: miten menetelm√§llisesti l√§hesty√§ n√§it√§ aineistoja niin, ett√§ yhteiskuntatieteellinen ote s√§ilyy? Miten tuottaa ymm√§rryst√§ teknologiav√§litteisist√§, digitaalisista yhteiskunnan ilmi√∂ist√§ ilman, ett√§ p√§√§tyy tutkimaan pelk√§st√§√§n teknologiaa tai pelk√§st√§√§n yhteiskuntaa? 

T√§llainen monitieteiseen tutkimukseen ja teknologian ja yhteiskunnan rajapinnalla toimimiseen liittyv√§ ongelmatiikka sek√§ tutkimuksen uudenlaiset k√§yt√§nn√∂nl√§heiset ja episteemiset kysymykset ovat t√§m√§n erikoisnumeron ydinsis√§lt√∂√§. Yhteisty√∂ss√§ Rajapinta-yhdistyksen kanssa toimitettava Informaatiotutkimus-lehden erikoisnumero kartoittaa ja pohtii digitaalisen ihmis- ja yhteiskuntatieteen nykytilaa ja tulevaisuutta erityisesti muuttuvien aineistojen luomien haasteiden ja mahdollisuuksien n√§k√∂kulmasta. 

Rajapinnoilla uraauurtavaa ty√∂t√§ tehneet tutkijat ovat esimerkiksi kehitt√§neet uudenlaisia, digitaalisen yhteiskunnan tutkimukseen sovellettuja menetelmi√§. N√§it√§ ovat esimerkiksi digitaaliset tai diginatiivit menetelm√§t (Rogers 2013; Marres & Gerlitz 2016; Gerlitz & Rieder 2018), laskennallisen yhteiskuntatieteen yleistyminen (Lazer ym. 2009; Bail 2014; Nelimarkka & Laaksonen 2018), tai verkkoetnografian erilaiset muodot (esim. Hine 2000; Isom√§ki ym. 2013; Knox & Nafus 2018). Tutkijoita kannustetaankin yhdist√§m√§√§n rohkeasti erilaisia menetelmi√§ (Laaksonen ym. 2017; Geiger & Ribes 2011) ja kehitt√§m√§√§n monitieteist√§ vuoropuhelua (Halford & Savage 2017; Moats & Seaver 2019). 

Yhteiskuntatieteen digitalisoituminen on herättänyt myös kriittistä keskustelua. Tutkijat ovat pyrkineet arvioimaan isojen digitaalisten aineistojen aikaansaamia muutoksia yhteiskuntatieteelliseen tutkimukseen (Kitchin 2014; boyd & Crawford 2012; Elish & boyd 2018; Frade 2016; Marres & Weltevrede 2013; Ruppert ym. 2013). Yksi merkittävä keskustelunaihe on digitaalisten aineistojen edustavuus ja suhde tutkittavaan ilmiöön: Millä tavoin teknologiset alustat muokkaavat dataa, jota ne ihmistoiminnasta keräävät ja tuottavat? Mitä datasta jää puuttumaan (esim. Hargittai 2020; Tromble 2019; Halford ym. 2018)? Myös digitaalisten aineistojen käytön etiikasta käydään vilkasta keskustelua (esim. Kosonen ym. 2018, Lazer ym. 2020; Zimmer & Kinder-Kurlanda 2017). Kehittyvä tutkimuskenttä kaipaakin paitsi menetelmäkehitystä, myös sen reflektointia, sekä pyrkimyksiä hyödyntää perinteisiä yhteiskuntatieteen menetelmien uuden kontekstin äärellä.

Ehdotettavat tekstit voivat olla teoreettisia tai empiirisiä artikkeleita, katsauksia, kirjallisuusesittelyitä ja -arviointeja, tai ne voivat pohjautua hyväksyttyihin opinnäytteisiin. Soveltuvia tieteenaloja ovat muun muassa yhteiskuntatieteet, humanistiset tieteet, ja kasvatustieteet sekä näiden alojen kysymyksiä tarkastelevat muiden tieteenalojen tutkimukset.

Ehdotukset voivat käsitellä esimerkiksi seuraavanlaisia aiheita:

  • Tieteiden ja konventioiden rajapinnoilla: monitieteinen ty√∂skentely yhteiskuntatieteellisten kysymysten √§√§rell√§
  • Reflektioita k√§ytettyjen ty√∂kalujen vaikutuksesta tutkimuksen suunnitteluun, rahoituksen hakuun ja k√§yt√§nn√∂n toteutukseen, tutkimuksen tuloksiin ja p√§√§telmiin sek√§ eri tieteenalojen kehityskulkuihin
  • Digitaalisiin aineistoihin ja laskennallisiin menetelmiin liittyv√§t k√§sitykset, toiveet ja ep√§luulot
  • Laskennallisten menetelmien ja digitaalisten aineistojen soveltaminen yhteiskuntatieteiss√§: tapaustutkimukset ja kirjallisuuskatsaukset eri tutkimusaloilta
  • Uudenlaiset menetelm√§t yhteiskuntatieteiss√§: esim. koneoppimiseen perustuva aihemallinnus, verkostoanalyysi, lingvistiikan menetelm√§t 
  • Uudenlaiset menetelmien ja tutkimusotteiden yhdistelm√§t: esim. makro- ja mikro-n√§k√∂kulmat, subjektiivinen vs. objektiivinen tarkastelu, laadullisten ja m√§√§r√§llisten menetelmien yhdist√§minen.

Tietoa Informaatiotutkimus-lehdestä: https://journal.fi/inf/about

Erikoisnumeron vierailevat toimittajat: Salla-Maaria Laaksonen, Thomas Olsson ja Jesse Haapoja. 

Abstraktit pyydetään toimitettavaksi 7.1.2021 mennessä. Toimittajat ilmoittavat hyväksymisestä viimeistään 31.1.2021 ja käsikirjoitusten eräpäivä on 30.4.2021. Hyväksyttyjen käsikirjoitusten työstämiseksi järjestetään maaliskuussa online-workshop. Abstraktit sekä kysymykset ja yhteydenotot teemanumeroon liittyen pyydetään lähettämään osoitteeseen teemanumero@rajapinta.co.

Viitteet:

Bail, C. A. (2014). The cultural environment: Measuring culture with big data. Theory and Society, 43(3), 465‚Äď524. https://doi.org/10.1007/s11186-014-9216-5
boyd, d & Crawford, K. (2012). Critical Questions for Big Data. Information, Communication & Society 15(5), 662‚Äď679.
Elish, M. C., & Boyd, D. (2018). Situating methods in the magic of Big Data and AI. Communication Monographs, 85(1), 57‚Äď80. https://doi.org/10.1080/03637751.2017.1375130
Frade, C. (2016). Social Theory and the Politics of Big Data and Method. Sociology, 50(5), 863‚Äď877. https://doi.org/10.1177/0038038515614186
Geiger, R. S., & Ribes, D. (2011). Trace ethnography: Following coordination through documentary practices. Proceedings of the Annual Hawaii International Conference on System Sciences. https://doi.org/10.1109/HICSS.2011.455
Gerlitz, C., & Rieder, B. (2018). Tweets Are Not Created Equal: Investigating Twitter‚Äôs Client Ecosystem. International Journal of Communication, 12, 528‚Äď547. Retrieved from http://ijoc.org/index.php/ijoc/article/viewFile/5974/2252
Halford, S., & Savage, M. (2017). Speaking Sociologically with Big Data: Symphonic Social Science and the Future for Big Data Research. Sociology, 003803851769863. https://doi.org/10.1177/0038038517698639
Halford, S., Weal, M., Tinati, R., Carr, L., & Pope, C. (2018). Understanding the production and circulation of social media data: Towards methodological principles and praxis. New Media and Society, 20(9), 3341‚Äď3358. https://doi.org/10.1177/1461444817748953
Hargittai, E. (2020). Potential Biases in Big Data: Omitted Voices on Social Media. Social Science Computer Review, 38(1), 10‚Äď24. https://doi.org/10.1177/0894439318788322
Hine, C. (2000). Virtual ethnography. London: Sage. https://doi.org/10.4135/9780857020277
Isomäki, H., Lappi, T.-R., & Silvennoinen, J. (2013). Verkon etnografinen tutkimus. In S.-M. Laaksonen, J. Matikainen, & M. Tikka (Eds.), Otteita verkosta. Verkon ja sosiaalisen median tutkimusmenetelmät. Tampere: Vastapaino.
Kitchin, R. (2014). Big Data, new epistemologies and paradigm shifts. Big Data & Society, 1(1), 2053951714528481. https://doi.org/10.1177/2053951714528481
Knox, H., & Nafus, D. (2018). Ethnography for a data-saturated world. Manchester, UK: Manchester University Press. https://doi.org/10.7765/9781526127600
Kosonen, M., Rydenfelt, H., Laaksonen, S.-M., & Terkamo-moisio, A. (2018). Sosiaalinen media ja tutkijan etiikka. Media & Viestintä, 41(1). https://journal.fi/mediaviestinta/article/view/69924
Laaksonen, S. M., Nelimarkka, M., Tuokko, M., Marttila, M., Kekkonen, A., & Villi, M. (2017). Working the fields of big data: Using big-data-augmented online ethnography to study candidate‚Äďcandidate interaction at election time. Journal of Information Technology and Politics, 14(2), 110‚Äď131. https://doi.org/10.1080/19331681.2016.1266981
Lazer, D., Pentland A., Adamic L, ym. (2009). Life in the network: the coming age of computational social science. Science 323:5915, 721‚Äď723.
Lazer, D. M. J., Pentland, A., Watts, D. J., Aral, S., Athey, S., Contractor, N., ‚Ķ Wagner, C. (2020). Computational social science: Obstacles and opportunities. Science, 369(6507), 1060‚Äď1062. https://doi.org/10.1126/science.aaz8170
Marres, N., & Weltevrede, E. (2013). SCRAPING THE SOCIAL? Issues in live social research. Journal of Cultural Economy, 6(3), 313‚Äď335. https://doi.org/10.1080/17530350.2013.772070
Moats, D., & Seaver, N. (2019). ‚ÄúYou Social Scientists Love Mind Games‚ÄĚ: Experimenting in the ‚Äúdivide‚ÄĚ between data science and critical algorithm studies. Big Data & Society, 6(1), 205395171983340. https://doi.org/10.1177/2053951719833404
Ruppert, E., Law, J., & Savage, M. (2013). Reassembling Social Science Methods: The Challenge of Digital Devices. Theory, Culture & Society, 30(4), 22‚Äď46. https://doi.org/10.1177/0263276413484941
Tromble, R. (2019). In Search of Meaning: Why We Still Don‚Äôt Know What Digital Data Represent. Journal of Digital Social Research, 1(1), 17‚Äď24. https://doi.org/10.33621/jdsr.v1i1.8
Zimmer, M. & Kinder-Kurlanda, K. (2017). Internet research ethics for the social age‚ÄĮ: new cases and challenges. Sage Publications.

Nordic Perspectives on Algorithmic Systems: Notes from a Workshop on Metaphors and Concepts

The first meeting in our NOS-HS workshop series Nordic Perspectives on Algorithmic Systems: Concepts, Methods, and Interventions was organized on May 22 and 23 in Stockholm. The goal of the workshop series is to develop a Nordic approach to critical algorithm studies, with the first workshop focusing on coming up with metaphors and concepts that would be useful for pushing debates about algorithmic systems forward. In addition, the workshop series aims to establish a network in the Nordics for those interested in the topic of algorithm studies.

We think it is safe to say that the first workshop took some quite successful steps towards achieving these goals. We had an intense two days of brainstorming and exchanging ideas with 16 participants from Helsinki, Tampere, Stockholm and Copenhagen, representing a multitude of different fields ranging from Human-Computer Interaction and Software Development to Sociology and Philosophy of Science.

On the first day, we heard short presentations from each participant, along with introductions to specific concepts/metaphors they consider relevant for approaching and thinking about algorithmic systems. On the basis of these discussions, we collated conceptual maps of various ways to conceive of algorithms. On the second day, we discussed in pairs articles which each participant had brought along as examples of inspiring work. Further, we had a discussion about optimistic/constructive and pessimistic/critical approaches to discussing technology.

Here  are selected takeaways from our discussions, including both conceptual approaches to algorithmic systems, as well as thoughts on how to approach the debate more generally:

Control, care, and empowerment

One central issue in thinking about algorithmic systems concerns the motivations and justifications for the use of algorithms. In this respect, the distinctions between control, care and empowerment were brought into discussion as useful notions for elucidating the different logics of using algorithms. While the logic of control relates to algorithmic surveillance and the aim of governing or managing behavior, the aim inherent in the logic of care is that of supporting certain forms of behavior rather than preventing others. For instance, we discussed the work of content moderators on discussion forums, where moderators wish that automated methods could liberate them to work on fostering and guiding discussion instead of the current focus of deciding what content to delete and what to allow. The important point here is that these different aims encompass divergent justifications for the use of algorithms: while surveillance as control is often justified in terms of necessity and protection, the legitimacy of algorithmic care rests on the thriving and well-being of its subjects. Contrasting with these aims, the logic of empowerment justifies the use of algorithms in terms of performance increases and efficiency. The aim of empowerment is then grounded on ideals such as progress and development. Although empowerment aims at providing people with increased capabilities for action, its underlying principle of optimization can also become self-serving, with people turning into material in the quest for optimizing shallow and cheap quantitative metrics.

Optimization and resilience

The concept of optimization was discussed in particular by reference to the work of Halpern and others [1] on smart cities. In developing algorithms with the aim of optimization, improving the system‚Äôs performance in terms of quantified metrics can become an end in itself, which supersedes conscious planning and deliberation in organizing action. Optimal performance carries with it a rhetorical force, which can work to legitimate algorithmic management of increasingly many aspects of life. As such, as Orit Halpern and others note, optimization serves to justify the use of notions such as ‚Äúsmartness‚ÄĚ in relation to systems which seek to find optimal solutions to predefined problems. Thus, from the perspective of optimization, the crucial question to ask about algorithmic systems might not concern their performance in the technical sense, but rather the choices made when defining the system‚Äôs goals and means of finding optimal solutions.

Another notion connected to the idea of autonomously operating ‚Äúsmart‚ÄĚ systems was that of resilience, which denotes the system‚Äôs capacity to change in order to survive through external perturbations [1]. While the stability or robustness of algorithmic systems is their ability to maintain fixed functioning upon external influences, resilience concerns the temporal dimension and the lifespan of these systems, and their ability to evolve and adapt their behavior to ‚Äúlive‚ÄĚ through changing environmental conditions. The resilience of an algorithmic system then depends not only on the ability to find optimal solutions to problems, but also on the ability to maintain the system‚Äôs operation. In this work, human efforts in repair and maintenance are likely to be crucial.

Repair, temporality, and decay of software

A recurrent theme concerned algorithms as implemented in software, and the temporal dimension in the life-course of software systems. The issue of the temporality of software becomes central through the gradual decay of legacy technologies and the care required to keep them operational. Repair work is also involved as part of the lifetime of algorithms, with hardware and software systems implemented in evolving programming languages and as part of divergent organizational settings, consequently requiring constant maintenance and monitoring [cf. 2]. The notion of repair connects with multiple themes discussed during the workshop, for instance optimizing algorithmic processes and the role of human agency in algorithmic systems. As such, human-algorithm interactions can be thought of as involving not only a continuous process of interpretation, but also work in correcting and explaining errors and idiosyncrasies in results, coming up with workaround solutions to adapt tools to diverging goals, and maintaining software and hardware implementations operational.

Human agency and gaming in algorithmic systems

One of the topics brought up was the question of human agency in relation to the algorithmic systems. We discussed that systems should be rehumanized by dragging the human work going into these systems back to the spotlight, making visible the labor that is required to maintain, train and develop different kinds of systems. On the other hand, algorithms are also used to limit and make possible certain forms of actions raising questions about what people can do with technology to expand their possibilities, and how technology can also be used to limit the potential of humans. One suggested way to approach the relationship that algorithms have with humans was to focus on the interaction between them ‚Äď we might learn a lot from observing empirically what happens when humans encounter algorithmic systems.

Further, we discussed human agency towards these systems through concepts of games and algorithmic resistance. These approaches highlight the human potential to find vulnerabilities or spaces of intervention, and to act against or otherwise manipulate systems, be it for personal gain or with an activist aim of creating a more just world. Whatever the reason for acting against the system is, a question arises: What does it mean to win against an algorithm? So-called victories against these systems may be short-lived, as games or resistance do not happen in a vacuum: It is possible to win a battle but lose the war. This discussion highlighted how algorithmic systems, just like human beings, are situated in the wider society and its networks of relationships.

Power, objectivity, and bureaucracy

The notions of power and objectivity of algorithmic systems were discussed on multiple different occasions during the workshop. These concepts are often brought up in the critical data and algorithmic studies literature as well, with critics arguing against utopian hopes of unbiased knowledge production [e.g. 3], and pointing to the far-reaching societal consequences of algorithmic data processing and classification [e.g. 4]. However, during the workshop, the questions of objectivity and power of algorithms were themselves questioned. For instance, debates about the power of algorithms would benefit from increased clarity, which could potentially be achieved by connecting the literature with extant accounts of power in political science, such as Stephen Lukes’ [5] theory of the three faces of power.

Similarly, the issue of algorithmic objectivity can take on several different meanings depending on whether the discussion focuses on hidden biases in data production, or for instance the mechanical objectivity [6] of algorithmic procedures. One particularly interesting metaphor for thinking about issues of objectivity in algorithmic systems is that of bureaucracy [e.g. 7], and the sense of objectivity imbued on action and decision-making through the establishment of rigid, explicit, and seemingly impartial rules [8]. The quest for such procedural objectivity [9] is likely to be present in efforts to automate decision-making in algorithmic systems as well. Comparing the effects of explicit rules on power relations within bureaucracies with algorithmic procedures in organizations could be one way to get a grasp on how power works within algorithmic systems.

Optimism, pessimism, and the notion of algorithm

Given the multitude of different approaches present during the workshop, the question arose of the usefulness of the notion of ‚Äúalgorithm‚ÄĚ itself in thinking about the technological and social phenomena we are interested in. While algorithms and algorithmic systems were the backdrop for our discussion, it became evident that the phenomena we were discussing are at once broader and more multifaceted. While we started with algorithmic systems, we ended up discussing themes such as collaboration and preconditions of human work, motivations and justifications for action, maintenance and design of technology, temporality, and discontinuities between interpretive and formal processes. This is likely as it should be, given that the aim of the workshop was to think about metaphors for discussing algorithms. However, the variety and scope of the perspectives testifies to the fuzziness of the notion of algorithm, and calls attention to the need for delineating and clarifying the central concepts which figure in discussions about algorithmic systems and their connections to more longstanding discussions in various disciplines.

Related to these observations, our discussion on the second day about the critical/pessimistic and constructive/optimistic attitudes for approaching algorithms called attention to the various ways in which understandings of technology can be oversimplifying. In particular, the issue of ‚Äúnaive‚ÄĚ optimism and technological solutionism, often attributed to the developers of technology in critical treatments, was called into question. While critical approaches are indeed important, self-sustained discussions about the limitations and problems of technology hold the danger of oversimplifying the understanding of the ‚Äúother side‚ÄĚ. Such simplifications are unlikely to foster fruitful engagement with communities engaged in developing new technologies. For us, this emphasizes the importance of reflexive thinking that take seriously the risk of ¬†‚Äúnaive‚ÄĚ criticism of critical accounts of technology and does not try to situate social scientists as outside of the troubles of algorithmic systems.

By: Juho Pääkkönen, Jesse Haapoja & Airi Lampinen

The next workshop in the series will take place in the autumn in Copenhagen, with a focus on approaches and methods.

‚Äď ‚Äď

[1] Halpern, O. et al. (2017). The smartness mandate: Notes towards a critique. Grey Room 68.

[2] Jackson, S. (2014). Rethinking repair. In T. Gillespie, P. Boczkowski and K. Foot (eds.), Media Technologies: Essays on Communication, Materiality, and Society. MIT Press.

[3] Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. Boczkowski and K. Foot (eds.), Media Technologies: Essays on Communication, Materiality, and Society. MIT Press.

[4] Ananny, M. (2016). Toward an Ethics of Algorithms: Convening, Observation, Probability, and Timeliness. Science, Technology & Human Values 41(1).

[5] Lukes, S. (1974). Power: A radical view. London and New York: Macmillan.

[6] Daston, L. and Galison, P. (1992). The Image of Objectivity. Representations 40.

[7] Crozier, M. (1963). The bureaucratic phenomenon. Chicago: University of Chicago Press.

[8] Porter, T. (1995). Trust in numbers: The pursuit of objectivity in science and public life. Princeton University Press.

[9] Douglas, H. (2004). The Irreducible Complexity of Objectivity. Synthese 138.

Digital technologies, data analytics and social inequality

We were recently involved in organizing a working group on what might be called ‚Äúdigital inequalities‚ÄĚ at the Annual Finnish Sociology Conference. Based on the working group, we reflect on the relationship between digital technologies and social inequalities, and on the role of critical scholarship in addressing the issue.

To paraphrase Kranzberg’s (1986) well-known first law of technology, while digital technologies and their capability to produce data are not a force for good or ill, they are not neutral either. With the increasing use of data analytics and new digital technologies, as well as the ever-intensifying hype over them, it is extremely important to examine the connection between technological and social divides

A rich body of research on ‚Äúdigital divides‚ÄĚ has focused on the issues of unequal access to technology and differences in its usage (e.g. van Dijk, 2013). With the aim of expanding the view beyond the ideas of access and usage, Halford and Savage (2010) have proposed the concept of ‚Äúdigital social inequality‚ÄĚ, emphasizing the interlinking between social disadvantages and digital technologies. This means that the development, use and effects of digital technologies are often related to social categories such as gender, race/ethnicity, age and social class

Examining the divisions connected to the use of data, Andrejevic (2014) points out ‚Äúthe big data divide‚ÄĚ, a concept with which he refers to the asymmetric relationship between those who are able to produce and use large quantities of data, and those who are the targets of data collection. This divide highlights not only access to data and the means of making use of data, but also differential access to ways of thinking about and using data. D‚Äôlgnazio and Klein (2019) further discuss the power structures inherent in the collection and usage of data, pointing out that these structures are often made invisible and thus taken as an objective viewpoint of how ‚Äúthe numbers speak for themselves‚ÄĚ. Through many empirical examples D‚Äôlgnazio and Klein demonstrate that even the choices of what topics data is collected on, analyzed and communicated rest on power relations in terms of whose voices and interest are represented and whose are marginalized

Partly inspired by the above-mentioned research, we recently organized a working group at the Annual Finnish Sociology Conference, The Shifting Divides of Our Digital Lives, to discuss old and new forms of inequalities, the reactions they provoke, and their societal consequences. To guide our presenters, we posed some additional questions: What hinders or facilitates equal participation in the digital society? How are social institutions adapting to digital change? What forms of civic engagement and activism arise given digital society’s asymmetries?

Here we summarize selected findings of presentations that provided insights into how digital technologies and the use of data analytics shape our differential opportunities for social participation even when we, as citizens, might not be fully aware of it.

In her presentation Contested technology: Behavior-based insurance in critical data studies, Maiju Tanninen (University of Tampere) pointed out the many concerns that data studies literature has identified in connection to the use of self-tracking technologies in personalized insurance. These include the possibility of data-based discrimination, heightened surveillance, and control of clients’ behavior. However, Tanninen argued that while these critiques paint a rather dystopian picture of the field, they are largely focused on the US context, they fail to differentiate between insurance types, and are often lacking in empirical engagement. In practice, the use of self-tracking devices for the development of personalized insurance looks often doubtful, amongst other reasons due to poor quality of data. Tanninen pointed out that in order for critical research on the topic to be constructive, and to better understand the benefits of these technologies and offer new insights, we need empirically grounded research in the European and more specifically Finnish contexts.

In his presentation Ageing migrants‚Äô use of digitalised public services: Ethnographic study, Nuriiar Safarov (University of Helsinki) emphasized the need for intersectional perspective in studying access and utilization of e-services among different groups of migrants. In his doctoral project, Safarov examines the impact of the digitalization of public services in Finland on the group of older Russian-speaking migrants who permanently live in Finland. Safarov pointed out that this specific group of migrants may face particular barriers to access e-services not only because of their age, but also because of lack of language skills and social networks. Empirical work on such groups can, in turn, offer insight into the interplay of digital-specific and more ‚Äėtraditional‚Äô social divides.

In her presentation Facebook Groups interaction affecting access to nature, Annamari Martinviita (University of Oulu) compared a popular Finnish Facebook group on the topic of national parks, and the official information website of Mets√§hallitus. Martinviita demonstrated that while both platforms might aim to be inclusive when they advertise access and exploration of nature, in practice they might produce various divides by means of presenting and constructing ‚Äėcorrect‚Äô ways of visiting national parks.

In their presentation Political orientation, political values and digital divides ‚Äď How does political orientation associate with the political use of social media? Ilkka Koiranen and colleagues (University of Turku) demonstrated that while social media provides new ways for political participation, there are significant differences between political parties in how their supporters use social media for political purposes. The research was based on a nationally representative survey dataset. The results showed that newer political movements with younger and more educated supporters representing post-material values are more successful in social media, echoing also previous findings in the digital divides research.

In his presentation How data activism allies with firms to seek equal participation in the digital society, Tuukka Lehtiniemi (University of Helsinki) discussed the case of MyData, a data activism initiative aiming to enhance citizens’ agency by providing them with the means to control the use of their personal data, in an attempt to address injustices related equal societal participation. Various interest parties are involved in MyData, including technology-producing firms that seek market and policy support for their products. Lehtiniemi argued that particular ways to frame MyData‚Äôs objectives are employed to support this involvement. While it is important to develop alternative imaginaries for the data economy, a central question remains to be resolved: how to move from abstract concepts such as citizen centricity and data agency to actual alternatives that challenge dominant imaginaries of data‚Äôs value.

These presentations highlight that the promises of equal participation so often associated with digital technologies and use of data analytics are often challenging to reclaim in practice. If approached without care, they may reproduce and extend existing patterns of biases, injustices or discrimination.

Thus, it is important to keep in mind that as digital technologies and data analytics are forged by humans in specific societal settings and power relations, these technologies contain traces of societal conditions in which they are coined and manufactured. Consequently, it is salient to explore what kinds of potentially biased assumptions are embedded in these technologies used so extensively in today’s society. This is why we think that it is urgent to advance critical approaches and support collective citizen actions to create and implement technologies and data analytics that improve opportunities for all

At the same time, as some of the presentations in the working group also indicated, criticism by itself may not lead to constructive input in the development and usage of digital technologies. We should therefore not only point out the ways how digital technologies and data analytics, their current usage, and the potential future trajectories can bring up or exacerbate societal problems. In addition, we should engage in conceptual and empirical research that can help identify preferable alternatives and steer technological developments toward societally more desirable and sustainable ones

By: Marta Choroszewicz, Marja Alastalo and Tuukka Lehtiniemi

Choroszewicz is a Postdoc Researcher at University of Eastern Finland, Alastalo is a University Lecturer at University of Eastern Finland, and Lehtiniemi is a Doctoral Candidate at University of Helsinki.

‚Äď ‚Äď

References:

Andrejevic, M (2014) The big data divide. International Journal of Communication, 8: 1673‚Äď1689. https://ijoc.org/index.php/ijoc/article/view/2161

D’lgnazio, C and Klein, L (2019) Data Feminism. MIT Press Open. Available at: https://bookbook.pubpub.org/data-feminism

Halford, S and Savage, M (2010) Reconceptualising digital social inequality. Information, Communication and Society 13(7): 937‚Äď955. https://doi.org/10.1080/1369118X.2010.499956

Kranzberg, M (1986) Technology and history: “Kranzberg’s laws‚Äú. Technology and Culture, 27(3): 544‚Äď560. https://doi.org/10.2307/3105385

Van Dijk, JAGM (2013) A theory of the digital divide. In: Ragnedda, M., & Muschert, G. W. (Eds.) The digital divide: The Internet and social inequality in international perspective. Routledge, 36‚Äď51.

Riidankylvämistä ja rauhanrakentamista anonyymeissa verkkokeskusteluissa

Underwater conversations by Thomas Hawk Flickr
(cc) Thomas Hawk Flickr

Ovatko verkkokeskustelut kivettyneiden asenteiden pakkotoistoa vai tuottavatko ne uudenlaisia näkökulmia tuttuihin ilmiöihin? Suomi24-foorumin parissa tehty tutkimus paljastaa ääripäät: verkkokeskustelu on yhtä aikaa likapyykkilinko ja arjen rauhankone.

Anonyymeja verkkokeskusteluja on verrattu vessakirjoitteluun, mihin viittaa Suomi24:n vakiintunut lempinimi Suoli24. Vihan lietsonta ja holtiton huutelu on verkkokeskustelun vakiintunut piirre. Keskustelu takoo eteenp√§in yhteiskuntavastaisuudella ja ihmisvihamielisyydell√§. V√§√§r√§nlaisia ihmisi√§ nimitell√§√§n ja kiusataan. ‚ÄĚSaan kirjoittaa juuri niin kuin ajattelen eik√§ tarvitse suvaitsevaisista v√§litt√§√§‚ÄĚ, kertoo Suomi24:n k√§ytt√§jille suunnatun kyselyn avovastaus. Paljastukset tyydytt√§v√§t lukijoiden uteliaisuutta ja antavat tunnevoimaa omille mielipiteille ja oikeassa olemisen tunteelle.

Verkkokysely k√§ytt√§jille oli avoinna Suomi24-keskustelualueilla kahden viikon ajan joulukuussa 2016. Vastauksia kertyi l√§hes 1400. Kyselyss√§ haettiin k√§ytt√§jien n√§k√∂kulmaa siihen, millaisena he n√§kev√§t foorumilla k√§ydyn keskustelun. Verkon likapyykkilinko on lukijoille arkista viihdett√§. T√∂rkyviestej√§ pidet√§√§n humoristisina. Toisaalta kirjoittajien reaktioita pidet√§√§n eksoottisina tai kuriositeettina. Suomi24 on k√§vij√∂ille ik√§√§n kuin lintutorni, josta bongaillaan vieraslajeja. ‚ÄĚKaipaan masokistisuuteni takia v√§lill√§ sit√§, ett√§ voin lukea perehtym√§tt√∂mien tekstej√§ ja vajota syv√§√§n ep√§toivoon‚ÄĚ, kirjoittaa yksi vastaajista. Joistakin kyselyn vastauksista huokuu ylemmyydentunne palstan kirjoittajia kohtaan, mutta toiset kuvaavat my√∂s vilpit√∂nt√§ halua ymm√§rt√§√§ tuntemattomia tai oppimattomia lajitovereita.

Kyselyn sadoista avovastauksista hahmottuu erilaisia keskustelukulttuureja. Nimittelyn ja leimaamisen rinnalla Suomi24-palstoilla el√§v√§t t√§ysin vastakkaiset pyrkimykset: kirjoittajien halu paneutua toisten ongelmiin ja kannustaa aikalaisia vaikeissa el√§m√§ntilanteissa. K√§ytt√§j√§kyselyn my√∂nteisisiss√§ Suomi24-kokemuksissa toistuu avun saaminen. Ihmisi√§ askarruttavat terveyteen, ruoanlaittoon, remontteihin. raha-asioihin ja lemmikkiel√§imiin liittyv√§t kysymykset. Kyselyyn vastanneet kiitt√§v√§t kirjoittajia, jotka aikaa ja vaivaa s√§√§st√§m√§tt√§ paneutuvat k√§yt√§nn√∂n pulmiin ja toisten ongelmiin. ‚ÄĚMonta hyv√§√§ neuvoa ja niksi√§ ois j√§√§nyt saamatta‚ÄĚ, kuvaa yksi vastaajista.

K√§ytt√§j√§kyselyn vastaukset muistuttavat verkkokeskustelun pitk√§st√§ historiasta. Ihmiset ovat hakeneet Suomi24:n palstoilta kaikupohjaa ep√§tietoisuuden ja yksin√§isyyden hetkiin jo yli viidentoista vuoden ajan. ‚ÄĚEn ole yksin‚ÄĚ, kirjoittaa yksi kyselyyn vastanneista. ‚ÄĚChatti on saattanut pelastaa vuosien varrella ihmishenki√§‚ÄĚ, arvelee toinen. Yksi kirjoittajista toteaa anonyymin verkkoviestinn√§n ansion ehk√§ viitaten seksuaaliv√§hemmist√∂jen asemaan: ‚ÄĚOlisipa nuorena ollut internet noin yleens√§. Kaikille asioille ei ollut nimi√§ 70-luvulla‚ÄĚ.

Poliittiset vaikuttajat ja virkamiehet puhuvat usein verkkokeskusteluista et√§√§lt√§ ‚Äď keskustelua k√§y ‚ÄĚsomev√§ki‚ÄĚ, jota ohjaa ‚ÄĚsomeraivo‚ÄĚ. Yhteiskunnalliseksi voimaksi tunnistettu ‚ÄĚsomekansa‚ÄĚ kulkee laumana keskustelunaiheesta toiseen. Suomi24-tutkimuksemme perusteella t√§llaista yhten√§ist√§ joukkoa ei keskustelufoorumilta l√∂ydy. Suomi24-palstat muodostavat pikemminkin keskustelujen saariston, joka kehittyy tai kuihtuu muun maailman ja eri keskustelufoorumeiden mukana. Yli kahden tuhannen palstan joukosta l√∂ytyy riitaisia, harmonisia ja yhdentekevi√§ palstoja. Osa palstoista on kuollut keskustelijoiden puutteeseen.

Someraivo ja nettiviha ‚Äď monine variaatioineen ‚Äď ovat h√§iritsevi√§ ilmi√∂it√§, jotka rikkovat yleist√§ oikeustajua. Silti niihin ei pit√§isi j√§√§d√§ kiinni. Yksinomaan vihaan ja raivoon kiinnittynyt tarkkailija p√§√§tyy helposti toistamaan nettikeskustelujen j√§hmettyneit√§ l√§ht√∂kohtia. Silloin j√§√§ n√§kem√§tt√§ keskustelun yhteiskuntaa kannatteleva voima. Kivettyneist√§ ja junnaavista asetelmista p√§√§see eteenp√§in suuntaamalla katseen verkkokeskustelujen arkisiin kuvitteluvoimiin; ihmisten loputtomaan kykyyn asettua toisten asemaan ja kannatella viesteill√§√§n arjen rauhankonetta.

Kirjoittajat: Mika Pantzar ja Minna Ruckenstein

– –

  • Harju A. (2018). Suomi24-keskustelut kohtaamisten ja t√∂rm√§ysten tilana. Media & viestint√§, 41(1). [koko teksti]
  • Pantzar M. & Ruckenstein M. (2018) Verkkokeskustelut: Riidan kylv√§mist√§ ja rauhan rakentamista. Teoksessa Autio J., Autio M., Kylkilahti E. & Pantzar M. (toim.) (2018) Kulutus ja talous – N√§k√∂kulmia yhteiskunnan muutokseen. Helsingin yliopisto, taloustieteen osaston julkaisuja 70, s. 69-76. http://hdl.handle.net/10138/297680

Pit√§isik√∂ algoritmien pelastaa meid√§t ep√§varmuudelta?

https://www.flickr.com/photos/belgapixels/2703291441/
Kuva (cc) Belgapixel @Flickr

Viimeisten vuosien aikana on puhuttu paljon algoritmien vallasta, mutta keskusteluissa esiintyy monia erilaisia näkökulmia siitä, minkälaista tuo valta oikeastaan on. Yhtäältä on keskusteltu algoritmien kyvystä rajata ja muokata ihmistoiminnan mahdollisuuksia, esimerkiksi luokittelemalla ihmisiä ja ohjaamalla tiedon kulkua [1,2,3]. Toisaalta huomiota on kiinnitetty algoritmeja koskevien käsitysten ja odotusten rooliin toiminnan ohjaamisessa [4]. Tässä kirjoituksessa pohdimme yhtä mahdollista syytä sille, miksi algoritmit ylipäätään saavat valtaa.

Michel Crozier käsittelee kirjassaan The Bureaucratic Phenomenon [5] sitä, miten byrokraattisissa organisaatioissa valtaa keskittyy henkilöille, joilla on kyky hallita organisaation toimintaan liittyvää epävarmuutta. Hän kirjoittaa esimerkiksi tehtaan koneiden huoltohenkilökunnasta ryhmänä, jolle valtaa keskittyi, koska he kykenivät vähentämään tuotantokoneisiin liittyvää epävarmuutta.

Tuotantokoneiston huoltaminen oli tehtaiden toiminnan kannalta keskeistä ja huoltohenkilökunta muodosti asiantuntijaryhmän, jolla yksin oli huoltamiseen tarvittavaa osaamista. Tämä osaaminen antoi huoltohenkilöstökunnalle strategisen etulyöntiaseman suhteessa tehtaan muihin henkilöstöryhmiin. Byrokraattisesta rakenteesta huolimatta organisaatio oli kykenemätön hallitsemaan henkilöstöryhmien epämuodollista kanssakäymistä. Tästä johtuen koneiden rikkoutumiseen liittyvän epävarmuuden hallinta loi huoltohenkilökunnalle valtaa, jota he käyttivät neuvotellessaan ryhmänsä eduista.

Crozierin analyysissa byrokraattisten organisaatioiden keskeinen pyrkimys on kontrolloida organisaation toimintaan liittyviä epävarmuuden lähteitä. Epävarmuus organisaation toiminnassa luo hallitsematonta valtaa, joka tekee byrokraattisen järjestelmän toiminnasta epätehokasta.

Yksi byrokraattisten järjestelmien toimintaan liittyvän määrällistämisen tavoitteena on etäännyttää järjestelmien toiminta subjektiivisista ihmisarvioista [6]. Sama ilmiö näkyy myös erilaisten algoritmisten sovellusten käytössä. Algoritmien toivotaan paitsi eliminoivan epävarmuuden lähteitä, myös parantavan toiminnan tehokkuutta.  Usein toiveena on, että ihmisen päätöksenteon subjektiivisuuteen tai muihin heikkouksiin liittyvät ongelmat voidaan ratkaista uusilla datapohjaiseen analytiikkaan perustuvilla teknologisilla sovelluksilla [7,8]. Tämä epävarmuuden kontrollointi näkyy tapauksissa, joissa algoritmien käyttöä perustellaan niiden systemaattisuudella tai tasalaatuisuudella, kuten esimerkiksi algoritmisen analytiikan tehokkuutta ja ennustekykyä koskevissa odotuksissa [9]. Ennustekyvyn tarkentumisen ja toiminnan tehostamisen onkin esitetty olevan nykyanalytiikkaa keskeisesti ohjaavia odotuksia [10]. Yksi käytännön esimerkki ovat itseohjautuvat autot, joiden toivotaan olevan ihmisten ohjaamia autoja turvallisempia [esim. 11]. Personalisoidun terveydenhuollon taas toivotaan tarjoavan yksilöille entistä parempia tapoja hallita terveyttään [12]. Myös esimerkiksi tekoälyn käyttö yritysten rekrytointiprosesseissa on yleistymässä. Automatisoituja rekrytointiprosesseja perustellaan vedoten tehokkuuteen ja algoritmisen arvioinnin tasalaatuisuuteen [esim. 13].

Erving Goffman on käsitellyt esseessään Where the action is? [14] kohtalokkuutta. Hän liittää käsitteen päätöksiin, jotka ovat ongelmallisia ja seuraamuksellisia. Puhtaan ongelmalliset päätökset ovat sellaisia, joissa oikea päätös ei ole selvä, mutta päätöksellä ei ole laajemman elämän kannalta juurikaan väliä. Valinta sen suhteen, mitä katsoa televisiosta, on esimerkki tällaisesta päätöksestä. Esimerkiksi päätös lähteä joka aamu töihin taas on esimerkki seuraamuksellisesta päätöksestä, jossa oikea valinta on selvä. Kotiin jäämisellä voisi olla haitallisia seurauksia, joten valinnalle lähteä töihin on selkeät perusteet. Kohtalokkaat päätökset ovat sellaisia, joissa valinnalle ei ole selkeitä perusteita, mutta sen tekemisellä on laajakantoisia seurauksia Goffmanin mukaan pyrimme järjestämään arkemme niin, että päätöksemme eivät yleensä olisi kohtalokkaita.

Sama kohtalokkuuden vähentäminen on läsnä niissä toiveissa, joita esitämme algoritmeille. Toivomme niiltä apua tilanteissa joissa oikea päätös on epäselvä. Emme kuitenkaan pysty pakenemaan kohtalokkuutta kokonaan. Päätöksillä voi aina olla ennakoimattomia seurauksia. Koska olemme aina läsnä omana, fyysisenä itsenämme, yllättävissä tilanteissa kehomme voi esimerkiksi aina vahingoittua. Kaikkeen olemiseen liittyy riskejä.

Ajatuksella kohtalokkuuden eliminoimisesta on yhtym√§kohta Crozierin byrokratia-analyysiin. Byrokraattiset j√§rjestelm√§t kehittyv√§t juuri olosuhteissa, joissa toimintaan liittyv√§√§ ep√§varmuutta pyrit√§√§n eliminoimaan. Paradoksaalisesti juuri ep√§varmuuden eliminointiin k√§ytetty menetelm√§ ‚Äď tiukka toimintaa ohjaava formaali s√§√§nn√∂st√∂ ‚Äď johtaa vallan keskittymiseen organisaation niihin osiin, joista ep√§varmuutta ei saada kitketty√§. Samaten kohtalokkuuden eliminoiminen algoritmien avulla voi johtaa vallan toimimiseen juuri niiden teknologioiden v√§lityksell√§, joilla ep√§varmuutta pyrit√§√§n hallitsemaan. T√§st√§ n√§k√∂kulmasta yksi syy sille, ett√§ algoritmeille syntyy valtaa, on pyrkimys kontrolloida ep√§varmuutta, jota ei kuitenkaan t√§ydellisesti kyet√§ hallitsemaan. Algoritmisissa j√§rjestelmiss√§ valta toimii algoritmien kautta, mutta syntyy osana laajempaa ihmistoiminnan kontekstia. N√§in ollen algoritmista valtaa voitaisiinkin kenties tutkia kysym√§ll√§, mink√§laisia ep√§varmuustekij√∂it√§ algoritmien k√§yt√∂ll√§ pyrit√§√§n hallitsemaan, ja mik√§ mahdollisesti j√§√§ hallitsematta?

Jos joku lupaa auttaa meitä tekemään aina oikean päätöksen epävarmassa maailmassa, ei ole ihme että kuuntelemme. On kuitenkin syytä kiinnittää huomiota siihen, että samalla auttajille keskittyy valtaa.

Teksti: Jesse Haapoja & Juho Pääkkönen

– –
Kiitokset kommenteista Salla-Maaria Laaksoselle, Airi Lampiselle ja Matti Nelimarkalle. Tämä teksti kirjoitettiin osana Koneen Säätiön rahoittamaa Algoritmiset järjestelmät, valta ja vuorovaikutus -hanketta.

Eettinen teko√§ly toteutuu punnituissa k√§yt√§nn√∂iss√§

Tekoälyä kuvataan maiden tai maanosien välisenä kilpajuoksuna, jonka ennakkosuosikkeina ovat USA ja Kiina, sekä haastajana EU. Asetelma näkyy EU-maissa tekoälystrategioina, ohjelmina ja rahoitusinstrumentteina.

Valtioneuvoston tuoreen eettistä tietopolitiikkaa koskevan selonteon mukaan Suomi tavoittelee kilpailuetua eettisesti kestävällä tekoälyn kehittämisellä ja soveltamisella. Päämääränä ovat hyödyt yhteiskunnalle ja tavallisille ihmisille, esimerkkinä maailman parhaat julkiset palvelut. Eettisyyttä tavoitellaan yhteisesti sovituilla periaatteilla, joita palveluiden kehittäjät ja ihmisiä koskevien tietoaineistojen hyödyntäjät noudattavat.

Eettisesti kest√§v√§n teko√§lyn viitekehys korostaa yleisi√§ periaatteita kuten l√§pin√§kyvytt√§, ihmiskeskeisyytt√§, ymm√§rrett√§vyytt√§, syrjim√§tt√∂myytt√§ ja ihmisarvoa ‚Äď ylevi√§ p√§√§m√§√§ri√§, joiden arvoa tuskin kukaan kiist√§√§. Periaatteita edistet√§√§n vetoamalla yritysten itses√§√§telyn tarpeeseen muuttuvassa teknologiaymp√§rist√∂ss√§, jossa ajantasainen s√§√§ntely lakien tai m√§√§r√§ysten avulla on vaikeaa.

Eettiset viitekehykset ovat erityisen tärkeitä silloin, kun sääntely tai yhteiskunnalliset oikeudenmukaisuuden normit eivät auta jäsentämään toiminnan reunaehtoja. Periaatteet rajaavat toimintatapoja, jotka ilmiselvästi rikkovat ihmisten itsemääräämisoikeutta tai tuottavat epäterveitä käytäntöjä arkeen ja työelämään. Yleisten periaatteiden ongelma voi kuitenkin piillä niiden tulkinnallisessa avoimuudessa. Se mikä on yhdelle yritykselle vastuullisuutta tai syrjimättömyyttä, ei välttämättä ole sitä toiselle.

Olemme seuranneet vuosien ajan eettisen tietopolitiikan vahvuudeksi tunnistetun MyData-ajattelun kehittymistä Suomessa ja kansainvälisesti. MyDatan, tai omadatan, perusajatuksen mukaan kansalaisten tulee saada hallita itseään koskevien tietojen käyttöä yrityksissä ja julkisella sektorilla. MyDatassa yksilöä ajatellaan digitaalisen talouden keskuksena ja datavirtojen keskipisteenä. Tavoitteena on haastaa henkilökohtaisten tietojen taloudellisen hyödyntämisen epätasa-arvoisuus siirtämällä kontrolli yrityksiltä ihmisille, joista aineistoja kerätään.

MyDatan edistäjät ovat tehokkaasti osoittaneet ihmiskeskeisyyden tarpeellisuuden datatalouden rakenteissa. Samalla ihmiskeskeisyyttä kuitenkin tulkitaan varsin joustavasti. Se voi tarkoittaa kansalaiselle tasavertaista osallistumista digitaaliseen yhteiskuntaan, yritykselle taas väylää päästä yksilön kautta käsiksi datajättien hallussa oleviin aineistoihin.

Mikä merkitsee yhdelle toimijalle kaikkien digitaalisten oikeuksien suojaamista, voi toiselle tarkoittaa mahdollisuutta tarjota maksukykyisille yksityisyyttä turvaavia palveluja. Ihmiskeskeisyydestä tulee eräänlainen musteläiskä, jossa toimijat näkevät omasta näkökulmastaan edistämisen arvoisia piirteitä.

Yleiset eettiset periaatteet eivät siis takaa tavoiteltujen yhteiskunnallisten seurausten toteutumista. Pikemminkin yleisellä tasolla pysyminen tuottaa epämääräistä puhetta ja mitäänsanottamia vastauksia. Siksi eettisiä periaatteita tulee konkretisoida ja koetella käytännössä. Jotta käytännön toimijat saavat tukea päätöksilleen, tarvitaan yksityiskohtaisia esimerkkejä palveluista, joissa eettiset periaatteet toteutuvat. Inspiraatiota eettisyyteen voi hakea myös yhteistä hyvää tuottavista digitaalisista palveluista kuten Wikipediasta, tai osuuskuntaperiaatteella toimivista yrityksistä.

Henkilökohtaisten tietojen käytön eettiset periaatteet toteutuvat, kun pääsy aineistoihin pohditaan huolellisesti ja samalla määritetään, kuka voi hyötyä aineistojen käytöstä ja miten. Keskeisiä ovat aineistojen käyttöön liittyvän päätöksenteon säännöt. Tässä ei itse asiassa ole mitään uutta. Vaikka teknologia kehittyykin nopeasti, henkilökohtaisten aineistojen käytön rajoja ja mahdollisuuksia on pohdittu vuosikymmenien ajan.

On päätettävä millaista aineistoa voi kerätä tai käyttää, mihin tarkoituksiin ja kenen toimesta, missä kulkevat hyväksyttävän ja vältettävän rajat, ja kuka niihin voi vaikuttaa ja millä aikavälillä. Vastaukset eivät kumpua yleisistä periaatteista, eivätkä ole yleispäteviä. Se mikä esimerkiksi liikenteen älypalveluissa on hyväksyttävää, voi terveyden kentällä olla eettisesti arveluttavaa.

Tämän ajan suuri haaste on digitaalisen ympäristön ohjaus ja hallinnointi. Pikemminkin kuin teknologian kehittäjien kilpajuoksusta, tässä on kysymys eri näkökulmien ja käytäntöjen huolellisesta yhteensovittamisesta. Kilpailuetua tulisi hakea eettisten tavoitteiden toteutumisesta eri alojen osaamisten risteyskohdissa. Siinä missä tekoälykisaajat näkevät maalin edessään, eettinen kestävyys löytyy pikemminkin yhdistelemällä kekseliäästi vanhaa ja uutta.

– –
Tuukka Lehtiniemi (@tlehtiniemi) & Minna Ruckenstein (@minruc).
Kirjoittajat ovat tutkijoita Helsingin yliopiston Kuluttajatutkimuskeskuksessa.

Kirjoitus on rinnakkaisjulkaistu Etiikka.fi-sivulla.

8 tapaa pyristell√§ irti digij√§ttien verkoista

https://www.flickr.com/photos/treehouse1977/36015094302/
Photo (cc) Jim Champion@Flickr

Tällä viikolla vietetään Mediataitoviikkoa. Myös digitaalisen yksityisyyden varjelemisen taidot ovat tärkeä osa nykypäivän mediataitoja. Sen kunniaksi Rajapinnassa päätimme koota muutaman helpon keinon parantaa verkkoyksityisyyttä ja vähentää digijättien valtaa elämässäsi.

  1. Tiukenna yksityisyysasetuksia. Monissa palveluissa voit itse valita, mitä kaikkea tietoja sinusta kerätään ja tallennetaan ja minne muualle kyseinen palvelu niitä saa jakaa. Esimerkiksi Googlessa voit määritellä, saako se tallentaa lokaatiotietoja, tietoja sovellusten käytöstä, tai nauhoittaa Google Assistentin kanssa käymäsi keskustelut. Facbookissa kannattaa säännöllisesti tarkistaa mitkä ulkopuoliset sovellukset saavat käyttää tietojasi. Omat mainosprofilointitietosi voi tarkistaa ja niiden asetuksia säätää. Voit esimerkiksi kieltää Facebookia näyttämästä sinua ystävillesi suosittelijana sellaisessa mainoksessa, jonka on tehnyt tykkäämäsi sivu.
  2. Rajoita sovellusten oikeuksia √§lypuhelimessasi. √Ąlypuhelimissa sovellusten k√§ytt√∂j√§rjestelm√§lt√§ saamia tietoja voi s√§√§t√§√§ sovelluskohtaisesti. iPhonessa kannattaa k√§yd√§ katsomassa puhelimen asetuksista hieman ep√§intuitiivisesti Screen Time -sovelluksen alle sijoitetut sovelluskohtaiset sis√§lt√∂- ja yksityisyysrajoitukset. Android-laitteissa asetusten alta l√∂ytyy kohta Sovellukset / Sovelluksen k√§ytt√∂oikeudet (Apps / App Permissions), josta voit s√§√§t√§√§ erikseen kunkin sovelluksen oikeuksia esimerkiksi mikrofoniin tai konktakteihin.
  3. Eristä digijätit. Monet alustapalvelut, erityisesti Facebook ja Google seuraavat upotusten avulla myös sitä, mitä teet muilla verkkosivuilla. Tätä voi estää esimerkiksi käyttämällä näitä palveluita eri selaimelle, jolla et tee muuta. Lisäksi on olemassa erilaisia selainlisäosia, jolla haluamansa palvelun voi eristää muusta selainkäytöstä. Esimerkiksi Firefoxin lisäosa Facebook Container eristää Facebookin muusta nettikäytöstä. Facebookia voi mobiilissakin pyörittää selaimella, tosin hieman Facebook-sovellusta kankeammin. Esimerkiksi yksityisviesteihin ei helposti pääse mobiiliselaimesta käsiksi.
  4. Estä seuranta. Selaimiin löytyy erilaisia lisäosia, joiden avulla kolmansien osapuolien palvelut (esim. mainostajat) eivät voi seurata jälkiäsi eri sivustojen yli. Esimerkiksi useaan eri selaimeen sopiva Ghostery tai Firefoxiin Lightbeam. Lightbeam myös havainnollistaa visualisaatioilla verkon jäljittäjien piilevää infrastruktuuria. Sama onnistuu kännykässäkin, esim. iPhonessa tämä tapahtuu sisällön lataamista estävän sovelluksen avulla (engl. content blocker, esimerkiksi AdGuard), jonka voi yhdistää eri selaimiin.
  5. Harhauta mainostajia. Monet palvelut ja lis√§osat harhauttavat mainostaloutta my√∂s ik√§√§n kuin sotkemalla profiilisi. Esimerkiksi Adnauseam-lis√§osa klikkaa jokaista selaimessasi n√§kyv√§√§ mainosta, mik√§ voi tehd√§ kohdennusprofiilistasi melkoisen sekamelskan. Omaa Google-historiaansa. Ruin My Search History -palvelu puolestaan tekee selaimellasi valtavan m√§√§r√§n omituisia Google-hakuja ja yritt√§√§ siten sotkea profiilisi ‚Äď ja tarjoaa hyv√§t naurut kaupan p√§√§lle. Kannattaa pohtia haluaako t√§llaisia palveluita k√§ytt√§√§ vai ei. Mainostus- ja hakuprofiilien sotkeminen on digiajan vastarinnan muoto, jonka k√§√§nt√∂puolena suositukset ja mainokset voivat muuttua oudoiksi tai jossain tilanteissa jopa kiusallisiksi.
  6. Käytä vaihtoehtoista hakukonetta. Esimerkiksi DuckDuckGo lupaa olla träkkäämättä käyttäjien tekemisiä. Se kuitenkin käyttää hyväkseen Googlen hakuindeksiä, eli eroon Googlen hakukoneesta et tällä tavalla pääse vaikka sen datankeruusta ehkä pääsetkin. Muita vaihtoehtoja on myös tarjolla, esim. ainoaksi eurooppalaiseksi hakukoneeksi itseään mainostava Qwant.
  7. Poista historiatiedot eri palveluista säännöllisesti. Jotkut alustat tarjoavat mahdollisuuden poistaa kerralla tai aikarajauksella historiatietoja esimerkiksi tehdyistä hauista. Esimerkiksi Googlen palveluista voi poistaa lokitietojaan data-asetuksista. Facebookin kohdalla tilanne on hiukan mutkikkaampi ellet ole valmis poistamaan koko tiliä, mutta vaihtoehtoisia keinoja on listattu esimerkiksi tässä iMoren artikkelissa. Yksi ratkaisu on myös tuhota tili ja luoda se sitten kokonaan uudestaan.
  8. Suosi vaihtoehtoisia viestintävälineitä. Digijättien palveluille on myös vaihtoehtoja, joiden puolesta voi puhua. Sosiaaliset verkostot liikkuvat hitaasti, mutta pikaviestien kohdalla vaihto onnistuu helpommin. Asenna puhelimeesi vaikkapa Signal ja käytä sitä viestittelyyn Facebookin omistaman WhatsAppin tai Facebook-viestien sijaan. Vaikka Facebook lupaa WhatsApp-viestien sisällön olevan päästä päähän salattuja, viestinnän metatietojen käytöstä ei luvata mitään.
  • BONUS: Vaalivahti Kev√§√§ll√§ 2019 Suomessa j√§rjestet√§√§n kahdet vaalit, mik√§ todenn√§k√∂isesti saa poliittiset mainostajat liikkeelle. Vaalivahti on Open Knowledge Foundation Finlandin tutkimusprojekti, joka ker√§√§ tietoa Facebookissa tehdyist√§ mainoskohdennuksista vaalien aikana. Asenna projektin tarjoama WhoTargetsMe-lis√§osa selaimeesi, niin pystyt seuraamaan kuka yritt√§√§ kohdentaa kaltaisiisi k√§ytt√§jiin ja lahjoitat samalla tiedot tutkimukselle.

Lopuksi: Tutkijan huomio

Digitaalisessa ympäristössä on tärkeää oppia ajattelemaan tekemisiään tiedonkeruun mahdollisuuksien ja seurausten kannalta. Jokapäiväisen tiedonkeruun estäminen, tai ainakin vähentäminen, voi myös ajatella olevan osa tämän päivän kansalaistaitoja. Samaan aikaan kansalaistaidoista puhumalla tulee korostaneeksi yksilön vastuuta omista tekemisistään tilanteessa, jossa tiedonkeruun tavat ja tiedon käytön seuraukset ovat vaikeasti hahmotettavia ja koko ajan muutoksessa, eikä ns. tavallinen tallaaja mitenkään pysy niiden perässä.

On hyv√§ pit√§√§ mieless√§ ett√§ palveluntarjoajan omat yksityisyysasetukset eiv√§t v√§ltt√§m√§tt√§ ole sit√§ milt√§ ne vaikuttava, ja esimerkiksi k√§ytt√§j√§n sijaintia on seurattu yksityisyysasetuksista riippumatta. Samoin profiilin tietoja poistaessa ja selaimen lis√§osia tai yksityist√§ selausmoodia k√§ytt√§ess√§ olemme palveluntarjoajan tai asiantuntijoiden vakuuttelujen varassa siit√§, ett√§ tiedot todella poistuvat tai ett√§ meit√§ ei todella en√§√§ seurata. Dataj√§ttien poistaminen omasta el√§m√§st√§ omalla aktiivisuudella on vaikeaa tai mahdotonta, jos haluaa pysy√§ jollain tavalla nyky-yhteiskunnan j√§senen√§ ‚ÄĒ monen palvelun k√§ytt√∂ ei esimerkiksi √§√§rimm√§isen suojatun Tor-verkon kautta edes onnistu.

Viime kädessä ratkaisua ongelmiin täytyy etsiä muualtakin kuin yksilöiden käyttäytymisen muutoksista. Tasapainoisempaa ja reilumpaa digiympäristöä odotellessa ei ole kuitenkaan pahitteeksi pitää verhojaan suljettuna ja oviaan lukittuna.

– –
Tekstiä varten on kerätty vinkkejä Rajapinta ry:n Slackissa. Tekstin ovat kirjoittaneet Salla-Maaria Laaksonen ja Tuukka Lehtiniemi ja sen ideointiin ovat osallistuneet Jesse Haapoja ja Jukka Huhtamäki.

Kuka saa p√§√§tt√§√§, mit√§ dataa tutkijalla on k√§yt√∂ss√§√§n? Ei ainakaan amerikkalainen suuryritys

social media logos and light beams
Photo (cc) Kevin Dooley Flickr, edits by Salla L

Sosiaalisen median datan käyttöä tutkimuksessa suitsitaan nyt monelta kantilta. Tämän vuoden keväällä paljastuneen Cambridge Analytica -skandaalin jälkeen sekä Facebook että Twitter ovat uudistaneet pikavauhdilla datapolitiikkaansa. Samaan aikaan tutkijoita ja yliopistojen lakimiehiä on huolestuttanut toukokuussa voimaan tullut GDPR sekä Suomen tuleva uusi tietosuojalaki, joka on hyväksytty eduskunnassa marraskuussa.

On pelkästään hyvä asia, että aineistojen käyttöön kiinnitetään enemmän huomiota, ja että tutkijat joutuvat entistä tarkemmin miettimään aineistojen käytön oikeutuksia. Pohdinnoissa näyttäisi kuitenkin kummallisesti sekoittuvan aineiston tekninen saatavuus, laillisuus ja eettisyys.

Teknisestä näkökulmasta aineistojen saatavuus on hiukan hankaloitunut. Esimerkiksi Facebookin julkisilta sivuilta ei pysty enää rajapinnan (API) kautta lataamaan koneluettavassa muodossa viestejä kirjoittaneiden käyttäjien nimiä. Ryhmistä dataa saa ladata ainoastaan ryhmän ylläpitäjän luvalla. Yksittäisistä profiileista ladattavan datan käyttöä Facebook on rajoittanut jo huomattavasti aiemmin; toki käyttäjä voi halutessaan edelleen sovellusten kautta luovuttaa aineistojaan. Tämän kevään uudistusten myötä kuitenkin myös laajempia käyttäjätietoja tarvitsevat sovellukset joutuvat Facebookilla tarkempaan syyniin. Samanlainen prosessi on syntymässä myös Twitterin osalta: jatkossa jokaisen rajapintaa käyttävän sovelluksen on saatava Twitterin hyväksyntä.

Tutkijayhteis√∂ss√§ keskustelu API-rajoituksista on ollut varsin dramaattista. Tutkijat ovat kansainv√§lisesti huolestuneet Facebook-tutkimuksen tulevaisuudesta siin√§ m√§√§rin, ett√§ aiheesta on julkaistu kirjelmi√§ ja tehty listauksia rajapintojen avulla tehdyist√§ tutkimuksista. Akateemiset tutkijat ovat ‚Äď oikeutetusti ‚Äď huolissaan siit√§, ett√§ aineistojen saatavuuden rajoittaminen rajaa my√∂s tiettyj√§ tutkimusaiheita pois ja siten ohjaa tutkimusta. Toisaalta rajapintojen rajoitukset eiv√§t est√§ tutkijaa tutkimuseettisten rajojen ja lains√§√§d√§nn√∂n puitteissa ker√§√§m√§st√§ laadullista aineistoa esimerkiksi Facebook-ryhmist√§.

Toiset ovat huolestuneet palvelujen käyttöehdoissa (Terms of Service, TOS) mainittavista käytön rajoituksista. Joidenkin tulkintojen mukaan esimerkiksi YouTuben käyttö tutkimusaineistona ei ole lainkaan sallittua, koska palvelun käyttöehdot kieltävät palvelun muun kuin yksityisen käytön (jos tilanne olisi tämä Googlen mielestä, luulisi että joku niistä melkein kolmesta miljoonasta YouTube-hakusanalla löytyvästä tutkimusartikkelista olisi jo päätynyt raastupaan). Todennäköisesti amerikkalaisyrityksen ehdoista puuttuu erillismaininta akateemisesta käytöstä, koska se sisältyy jo Yhdysvaltojen lainsäädännössä olevaan fair use -pykälään.

GDPR:n ja Suomen tulevaisuudessa voimaan astuvan tietosuojalain myötä sosiaalisen median aineistojen henkilötietomaisuus on noussut uudella tavalla valokeilaan, vaikka tilanne ei käytännössä juuri ole muuttunut Suomen vanhaan henkilötietolakiin verrattuna.  Sosiaalisen median aineisto on käyttäjänimien vuoksi usein henkilödataa, ja tuoreiden tiukimpien tulkintojen mukaan sen kerääminen on nyt tietosuojasyistä kokonaan kielletty.

Sekä GDPR, tuleva tietosuoja-asetus että Suomen nykyinen henkilötietolaki mainitsevat kuitenkin tieteellisen tutkimuksen poikkeuksena henkilötietojen käsittelyyn. Tutkimus on erityisasemassa myös arkaluontoisia tietoja käsiteltäessä sekä rekisteröityjen oikeudessa tietojen poistoon (ns. oikeus tulla unohdetuksi ei automaattisesti päde, ks. Kohta 2.3.8). Henkilötietojen käsittely vaatii rekisteriselosteen ja GDPR:n ohjeistuksien mukaan myös vaikutustenarvioinnin, jos aineistossa on arkaluontoisia tietoja.

Lain noudattaminen ja tutkimuksen poikkeusasema eivät kuitenkaan tarkoita, että kaikenlainen henkilötietojen käsittely olisi eettisesti oikein, tai että kaikenlaisen avoimen aineiston käyttö olisi eettistä. Tämän määrittelee tutkimuseettinen harkinta, jonka periaatteet tiedeyhteisö on itse määritellyt ja joita se myös valvoo. Siksi GDPR:n nostattama keskustelu on tervetullutta ja omiaan parantamaan tutkittavien oikeuksia ja lisäämään tutkimusaineistoista käyttävää eettistä keskustelua. Aiemmin on ehkä luotettu liikaakin siihen, että TOS ratkaisee suostumuksen ongelmat, jotka on ikään kuin ulkoistettu yrityksen tuottamalle dokumentille. Samaan aikaan on varsin hyvin tiedossa, etteivät käyttäjät juuri lue käyttöehtoja.

Eettisen keskustelun keski√∂ss√§ on usein tutkittavan suostumus (informed consent). Tutkimuseettisen neuvottelukunnan ihmistieteiden eettinen ohjeistus muistuttaa, ett√§ tutkittavan ‚Äúsuostumuksen periaatteesta voidaan poiketa tutkittaessa julkistettuja ja julkisia tietoja sek√§ arkistoaineistoja‚ÄĚ. T√§st√§ n√§k√∂kulmasta sosiaalisen median aineistojen k√§ytt√∂√∂n ei tarvita tutkittavan suostumusta, jos aineisto on julkisesti saatavilla.

Oleellisempi on kuitenkin ohjeistuksen toinen kohta: vahingoittamisen välttäminen. Siihen keskittyy myös esimerkiksi Association of Internet Researchers AoIR:n eettinen ohjeistus. Vahingoittamisen välttäminen tarkoittaa esimerkiksi sosiaalisten ja taloudellisten haittojen minimointia sekä tutkimustulosten julkaisemisen mahdollisten seurausten pohdintaa. Se on keskeinen osa tutkimuseettistä harkintaa ja tutkijan ammattitaitoa.

Mutta tutkijalla on my√∂s toinen ammatillinen ja eettinen velvoite: tuottaa yhteiskunnalle kriittist√§ tietoa. Yhteiskunnalliset ilmi√∂t Suomessa ja muualla heijastuvat entist√§ isommin my√∂s digitaalisille alustoille. Siksi ei ole eettisesti kest√§v√§√§ tulkita lakeja ja k√§ytt√∂s√§√§nt√∂j√§ tiukasti niin, ett√§ amerikkalainen alustayritys sanelisi, mit√§ suomalainen tieteellinen tutkija saa sosiaalisesta mediasta tutkia. Sen sijaan se tarkoittaa, ett√§ eettisten pohdintojen perusteella toisinaan voi olla jopa perusteltua rikkoa k√§ytt√∂ehtoja ‚Äď alkaen esimerkiksi siit√§, ett√§ k√§ytt√∂ehtojen vastaisesti anonymisoidaan tutkimusaineisto. T√§llaista tieteen vapautta puolustaa my√∂s Suomen tuleva tietosuoja-asetus.

* Teksti: Salla-Maaria Laaksonen (Helsingin yliopisto, @jahapaula) & Margareta Salonen (Jyväskylän yliopisto, @MaakeSalonen)

Ps. Rajapinta ry. yhdessä MEVI ry:n kanssa järjestää 10. tammikuuta Tieteiden yössä tapahtuman, jossa kerromme sosiaalisen median aineistojen tutkimuskäytöstä. Työpajassa pääset myös itse penkomaan someaineistoja. Tervetuloa mukaan Tieteiden talolle!

Pps. Erinomaista pohdintaa tutkijoiden ja käyttöehtojen yhteiselosta kriminologian professori Matthew Williamsin ja kumppaneiden artikkelissa Sociology-lehdessä.

Bitit ja politiikka: Tervetuloa, laskennallinen politiikan tutkimus

https://www.flickr.com/photos/videocrab/4630988238/
(cc) Kevin Simpson @Flickr

Teksti on julkaistu 8.8. ilmestyneess√§ Politiikka-lehden numerossa 2/2018 “Bitit ja politiikka” -minisymposiumin johdantona.

Tietoyhteiskuntakehitys ja teknologian muutokset ovat vaikuttaneet yhteiskuntatieteisiin, mukaan lukien politiikan tutkimukseen. Digitaalisissa toimintaympäristöissä tapahtuva poliittinen toiminta näyttäytyy houkuttelevana tutkimuskohteena ja toisaalta esimerkiksi digitaalisten alustojen ja algoritmien tutkimus nostaa esille politiikan perimmäisiä kysymyksiä vallasta (esim. Gillespie 2010; Beer 2017; Neyland ja Möllers 2016). Monet kiinnostavista kysymyksistä kytkeytyvät poliittiseen viestintään: sosiaalinen media on jo haastanut perinteisiä viestinnän portinvartijateorioita (esim. Chadwick 2014, Castells 2007) ja uudet digitaaliset viestintävälineet muuttavat kansalaisosallistumisen tapoja (esim. Bennett ja Segerberg 2013; Juris 2012). Myös marxilainen pohdinta on tehnyt paluun alustatalouden myötä tapahtuneen pääoman jakautumisen seurauksena (esim. Spencer 2018). Jo tämä  tutkimusnäkökulmien lyhyt lista osoittaa, että politiikan tutkimusperinteet ovat tärkeässä roolissa myös nykyisen digitaalisen yhteiskunnan aikana.

Digitaalisuus ei muuta vain tutkimuskohteita, vaan myös aineistoja ja menetelmiä. Digitaaliset jalanjäljet (digital trace data) ja massadata (big data) mahdollistavat uudenlaisten kysymysten esittämisen: aiemmin tutkijoilla ei ollut käytettävissä samankaltaisia yksityiskohtaisia ja laajoja aineistoja ihmisten, organisaatioiden ja liikkeiden toiminnasta, vaan tutkimuksessa on turvauduttu havainnointiin, haastatteluihin, kyselyaineistoihin ja rekisteriaineistoihin. Lazerin ja kumppaneiden (2009) mukaan uudet digitaaliset aineistot ja niitä hyödyntävät laskennalliset menetelmät ovat kuin uusi mikroskooppi yhteiskuntatieteelliseen tutkimukseen. Sekä Rob Kitchin (2014) että danah boyd ja Kate Crawford (2012) kehottavat tutkijoita kuitenkin kriittisesti arvioimaan niitä tapoja, joilla tutkimusta tehdään massadatan aikana ja sitä, kuinka laskennalliset menetelmät muokkaavat yhteiskuntatieteellistä tutkimusta. Hyvä esimerkki peräänkuulutetusta kriittisyydestä on Grimmerin ja Stewartin (2013) artikkeli, jossa he perinteisiin laadullisiin lähestymistapohin verraten pohtivat, miten tekstianalyysiä voidaan toteuttaa esimerkiksi sanojen esiintymisfrekvenssejä tarkastelemalla.

Uusien menetelmien ja aineistojen my√∂t√§ my√∂s muut tieteenalat ovat innostuneet tarkastelemaan yhteiskuntatieteellisi√§ kysymyksi√§. Justin Grimmerin (2015) mukaan laskennallisten menetelmien avulla yhteiskuntatieteellisi√§ kysymyksi√§ k√§sittelev√§t yhteiskuntatieteilij√∂iden lis√§ksi my√∂s datatietelij√§t, tietojenk√§sittelytietelij√§t ja fyysikot, usein monitieteisiss√§ ryhmiss√§. Poikkitieteellinen l√§hestymistapa helposti tukee tietynlaisia institutionalisoituneita politiikan tutkimuksen muotoja. Se voi aiheuttaa esimerkiksi behavioralistisen politiikan tutkimuksen paluun, koska perspektiivin ajatus teoriapohjaisesta mallintamisesta on yhteensopiva perinteisten laskennallisten tieteen osaajien kanssa ‚ÄĒ eiv√§tk√§ he tunne behavioralistista politiikan tutkimusta kohtaan esitetty√§ ansiokasta kritiikki√§. Toisaalta yhteiskuntatieteilij√∂iden perinteinen koulutus ei ole sis√§lt√§nyt opetusta laskennallisista menetelmist√§ ja niiden k√§yt√∂st√§. Siksi yhteiskuntatieteellisen koulutuksen ulkopuolelta on helppo tarjota n√§k√∂kantoja ja l√§hestymistapoja yhteiskuntatieteellisten kysymysten k√§sittelyyn, vaikka ne yhteiskuntatieteellisin silmin voivat n√§ytt√§√§ naiiveilta. Hanna Wallach (2018) muistuttaakin tietojenk√§sittelytieteilij√∂ille, ett√§ yhteiskuntatiedett√§ ei synny automaattisesti k√§ytt√§m√§ll√§ yhteiskuntatieteellist√§ aineistoa. Vastaavasti Grimmer (2015) argumentoi, ett√§ jos haluamme luoda yhteiskuntatieteellisemm√§n l√§hestymistavan laskennalliseen yhteiskuntatieteeseen, on v√§ltt√§m√§t√∂nt√§ ett√§ yhteiskuntatieteilij√§t ovat mukana tekem√§ss√§ ja kehitt√§m√§ss√§ laskennallisten menetelmien k√§ytt√∂√§.

Tämän symposiumin artikkelit ovat esimerkkejä tällaisesta yhteistyöstä ja menetelmäkehityksestä. Symposium koostuu kolmesta toisiaan täydentävästä tekstistä. Kaksi ensimmäistä esittelevät laskennallisten menetelmien käyttöä politiikan tutkimuksen kentällä, kolmas pohtii laskennallisten menetelmien institutionalisoitumista suomalaiseen politiikan tutkimukseen. Tekstit siis omalta osaltaan vastaavat Grimmerin (2015) ehdotukseen pyrkiä muodostamaan selkeämmin yhteiskuntatieteellisesti painottunut näkökulma laskennallisten menetelmien käyttöön ja kehitykseen.

Salla-Maaria Laaksosen ja Matti Nelimarkan artikkeli tutkii digitaalista vaalijulkisuutta vuoden 2015 eduskuntavaaleissa. Tutkimuksessa laskennallisesti analysoidaan vaalien julkisella agendalla olleet teemat ja yhdistetään saatua tietoa toisaalta poliittisen viestinnän agendatutkimuksen teorioihin ja puolueiden aiheomistajuuden analyysiin. Tuukka Ylä-Anttila, Veikko Eranti ja Anna Kukkonen taas käsittelevät katsauksessaan ilmastonmuutoksesta käytyä julkista keskustelua aihemallinnuksen avulla. Kirjoittajat käyvät läpi menetelmän reunaehtoja ja ehdottavat laadullista validointiprosessia, jonka avulla menetelmää voisi käyttää tekstien kehysanalyysina.

Molemmat tekstit tarkastelevat agendan muodostumista laskennallisesti ja osoittavat samalla, ett√§ laskennalliset menetelm√§t voivat tarjota uusia ty√∂kaluja poliittisten argumenttien tutkimiseen ja sellaisiin politiikan ja poliittisen viestinn√§n polttaviin klassisiin kysymyksiin kuten agendan rakentaminen ja teemojen kehyst√§minen. Ennen kaikkea menetelm√§t mahdollistavat t√§llaisen analyysin tekemisen paljon aiempaa laajemmilla aineistoilla. Molemmat tekstit k√§ytt√§v√§t menetelm√§n√§ ohjaamatonta koneoppimista, tarkemmin aihemallinnusta, mutta sitovat valitun menetelm√§n perinteiseen yhteiskuntatieteelliseen kysymyksenasetteluun. Lis√§ksi tekstit k√§yv√§t keskustelua laskennallisia menetelmi√§ soveltavan yhteiskuntatieteen k√§sitteiden kanssa ‚ÄĒ n√§hd√§ksemme t√§m√§ ei ole vain tarpeellinen, vaan my√∂s v√§ltt√§m√§t√∂n keskustelu.

Professori Pertti Ahonen luo katsauksessaan näkymän laskennallisten menetelmien institutionalisoitumiseen politiikan tutkimuksessa. Hän keskittyy nimenomaisesti laskennallisiin menetelmiin, joita on kehitetty politiikan tutkimuksen institutionalisoituneiden kysymysten tarkasteluun politiikan tutkijoiden toimesta. Ahonen päätyy toteamaan, että laskennallisten menetelmien käyttö politiikan tutkimuksessa on yhä sivupolku, ja varsinkin suomalaisessa politiikan tutkimuksessa melko vähäistä. Ahonen myös aiheellisesti peräänkuuluttaa syvällisempää keskustelua menetelmien filosofisista taustaoletuksista.

Menetelm√§keskustelua onkin yh√§ syyt√§ k√§yd√§, ja sit√§ tulisi k√§yd√§ poikkitieteellisesti. Poikkitieteellisyyden haasteeseen on her√§tty my√∂s tietojenk√§sittelytieteilij√∂iden joukossa (vrt. Wallach, 2018). Oleellista on, ett√§ vaikka laskennallisia menetelmi√§ voi usein soveltaa suoraan ‚Äúout of the box‚ÄĚ, ne eiv√§t ole taikalaatikoita, jotka ratkaisevat aiemmat tutkimukseen liittyv√§t ongelmat ja luotettavuuskysymykset; laadullista tarkastelua ja teorial√§ht√∂isyytt√§ tarvitaan yh√§ rinnalle. Robotti ei vie politiikan tutkijan t√∂it√§, kuten Tuukka Yl√§-Anttila ja kumppanit toteavat analyysinsa p√§√§tteeksi ‚Äď eik√§ ehk√§ datatieteilij√§k√§√§n.

Matti Nelimarkka & Salla-Maaria Laaksonen
Nelimarkka on tutkijatohtori Tietotekniikan laitoksella ja Tietotekniikan tutkimuslaitos HIIT:llä Aalto-yliopistossa ja opettaja Menetelmäkeskuksessa (Valtiotieteellinen tiedekunta, Helsingin yliopisto). Laaksonen on tutkijatohtori Kuluttajatutkimuskeskuksessa (Valtiotieteellinen tiedekunta, Helsingin yliopisto)
Lähteet

  • Beer, David. 2017. The social power of algorithms. Information, Communication & Society 20:1, 1‚Äď13.
  • Bennett, Lance ja Segerberg Alexandra. 2013. The Logic of Connective Action‚ÄĮ: Digital Media and the Personalization of Contentious Politics. Cambridge: Cambridge University Press.
  • boyd, danah ja Crawford, Kate. 2012. Critical Questions for Big Data. Information, Communication & Society 15:5, 662‚Äď679.
  • Castells, Manuel. 2007. Communication, Power and Counter-Power in the Network Society. International Journal of Communication 1:29, 238-266.
  • Chadwick, Andrew. 2013. The Hybrid Media System: Politics and Power. Oxford: Oxford University Press.
  • Gillespie, Tarleton. 2010. The politics of ‚Äúplatforms.‚ÄĚ New Media and Society 12:3, 347‚Äď364.
  • Grimmer, Justin. 2015. We Are All Social Scientists Now: How Big Data, Machine Learning, and Causal Inference Work Together. PS: Political Science & Politics 48:01, 80‚Äď83.
  • Grimmer, Justin ja Stewart, Brandon M. 2013. Text as Data: The Promise and Pitfalls of Automatic Content Analysis Methods for Political Texts. Political Analysis 21:3, 267‚Äď297.
  • Juris, Jeffrey. 2012. Reflections on #Occupy Everywhere: Social Media, Public Space, and Emerging Logics of Aggregation. American Ethnologist 39:2, 259‚Äď79.
  • Kitchin, Rob. 2014. Big Data, new epistemologies and paradigm shifts. Big Data & Society 1:1, 1‚Äď12.
  • Lazer, David, Pentland Alex, Adamic Lada, ym. 2009. Life in the network: the coming age of computational social science. Science 323:5915, 721‚Äď723.
  • Neyland, Daniel ja M√∂llers, Norma. 2016. Algorithmic IF ‚Ķ THEN rules and the conditions and consequences of power. Information, Communication & Society 4462, 1‚Äď18.
  • Spencer, David. 2018. Fear and hope in an age of mass automation: debating the future of work. New Technology, Work and Employment 33:1, 1‚Äď12.
  • Wallach, Hanna. 2018. Computational social science ‚Ȇ computer science + social data. Communications of the ACM 61:3, 42‚Äď44.

Cambridge Analytica -vuoto sai suuren yleis√∂n kiinnostumaan ongelmasta, josta kriittinen teknologiatutkimus on puhunut jo vuosia

Screen Shot 2018-03-21 at 12.07.46
Screenshot from Twitter #deletefacebook

Cambridge Analytican Facebook-datan väärinkäyttö Yhdysvaltain 2016 presidentinvaaleissa on nostattanut ison kritiikkivyöryn teknologiajättejä kohtaan. Miksi kohu nousee vasta nyt, vaikka kriitikot ja tutkijat ovat kirjoittaneet aiheesta jo vuosia?

Cambridge Analytica -kohu nousi uusiin ulottuvuuksiin lauantaina, analytiikkayhtiön entisen työntekijän Christopher Wylien tehtyä paljastuksen yhtiön datankäytöstä The Guardianille ja The New York Timesille. Uutismedia on raportoinut paljastuksesta laajalti, ja jatkojutuissa on muun muassa annettu neuvoja omien Facebook-asetuksien säätämiseen. Twitterissä leviää hashtag #deletefacebook, jossa ihmiset kehottavat tuhoamaan Facebook-tilinsä kokonaan. Facebookin pörssikurssi laski, mikä on viesti sijoittajien kokemista riskeistä ja sitä kautta melko vahva viesti kohun laajuudesta. Kenties tärkeimpänä seurauksena näyttäytyy kuitenkin se, että poliitikot niin Euroopassa kuin Yhdysvalloissakin ovat heränneet vaatimaan Facebookia tilivelvolliseksi. Tähän ei riittänyt vielä NSA-kohu eikä aiemmat tiedot venäläisten kohdentamista vaalimainoksista. Miksi nyt kriittinen reaktio kasvoi näin suureksi?

Ensinnäkin on hyvä pitää mielessä, että breach-termin käytöstä huolimatta kyseessä ei ole tietovuoto siinä mielessä, että data on alun perin kerätty Facebookin ohjelmointirajapinnan käyttösääntöjen puitteissa. Dataa on vain myöhemmin päädytty luovuttamaan kolmansille osapuolille sääntöjen vastaisesti. Myöskin alkuperäinen väite siitä, että applikaatio kerää dataa vain tutkimustarkoituksiin on tässä vaiheessa rikottu.

Vastaava data on siis vuoteen 2014 asti ollut kenen tahansa Facebookin ohjelmointirajapintaa käyttävän ladattavissa, jos hän on saanut Facebookilta hyväksynnän applikaatiolleen, ja saanut houkuteltua ihmiset sitä käyttämään. Vuonna 2014 Facebook rajoitti API:n kautta saatavan tiedon määrää suuresti, mutta vanhempia datasettejä todennäköisesti vielä pyörii kovalevyillä.

Tietyllä tavalla keskustelu siitä onko kyseessä teknisessä mielessä tietovuoto, ja missä vaiheessa sääntöjä on rikottu, on kuitenkin sivujuonne. Käyttäjien datan kerääminen perustui käyttäjien antamaan suostumukseen, jonka pitäisi olla harkittu ja perustua tietoon (englanniksi informed consent). Tähän sisältyy useita ongelmia, esimerkiksi mahdollisuus edes teoriassa olla tietoinen tulevista datan käytöistä sekä se, että data käytännössä koskee myös muita kuin suostumuksen antajaa. Kuinka monella Cambridge Analytican sovelluksen asentaneella kävi mielessä pohtia sitä, mihin omien tai Facebook-kavereiden tietojen tullaan käyttämään? Kuinka moni olisi edes voinut ennakoida teknologian kehitystä ja siihen liittyen tietojen tulevia käyttöjä? Kuinka usein jokainen meistä tulee antaneeksi suostumuksen datan keräämisen ja käyttöön pohtimatta näitä asioita?

Osa ongelmaa piilee pohjimmiltaan myös siinä, että yksityisyys ajatellaan asiaksi josta kukin käyttäjä päättää itse. Yksityisyys on kuitenkin monessa mielessä myös yhteinen asia. Tässä tapauksessa konkretisoituu hyvin myös se, mitä tämä voi tarkoittaa käytännössä.

Isossa mittakaavassa Facebookin asiakkailleen, siis mainostajille, antama lupaus on se, että maksavien asiakkaiden viestejä kohdennetaan tehokkaasti ja tämä vaikuttaa ihmisten käyttäytymiseen. Tätä lupausta yritys on toteuttanut mm. Yhdysvaltain vaalien alla, myös ennen viimeisimpiä presidentinvaaleja. On kenties väistämätöntä, että tällaista kohdentamiseen perustuvaa järjestelmää käytetään myös tavoilla joita pidämme väärinkäyttönä, ja nyt käynnissä oleva tapaus osoittaa konkreettisesti mitä tämä voi tarkoittaa. Se on myös osoittanut, ettei Facebookia ole erityisemmin kiinnostanut puuttua asiaan.

Facebookin ja muiden ns. GAFA-yritysten toimia kritisoiva techlash-ilmiö ei ole uusi: erityisesti teknologiajättien entiset työntekijät ovat kritisoineet avoimesti yritysten toimintatapaa ja eettisyyttä. Muun muassa ex-googlelainen Tristan Harris on varoittanut siitä, miten teknologiajätit hallitsevat mieliämme ja perustanut Center for Humane Technology -aloitteen ratkaisemaan teknologian vinoutunutta kehitystä. Like-nappulan kehittänyt Justin Rosenstein on myöhemmin kritisoinut keksintöään addiktiivisuudesta.

Myös tutkijat ovat kirjoittaneet kriittisiä havaintoja teknologiajättien toiminnasta. Esimerkiksi hollantilaiset José Van Dijck ja David Nieborg analysoivat artikkelissaan jo vuonna 2009, miten teknologiayritysten konehuoneessa pyörivä bisneslogiikka taitavasti piilotetaan sosiaalisia suhteita ja kulttuuria korostavan retoriikan taakse. Samasta teemasta kirjoittaa myös esimerkiksi Sarah Myers West, joka kuvaa kaupallisen valvonnan tuottamaa yhteiskuntaa datakapitalismiksi.

Harvardin emeritaprofessori Shoshana Zuboff on myös kirjoittanut kriittiseen ja melko dystooppiseenkin sävyyn valvontaan perustuvasta kapitalismista ja demokraattisen informaatioyhteiskunnan tulevaisuudesta käyttäen Googlea esimerkkitapauksena (ks. myös Zuboffin akateeminen, kieltämättä hieman työläslukuinen artikkeli aiheesta). Professori Joseph Turow on kirjoittanut ja puhunut jo vuosia mediayhtiöiden ja kohdentamisen logiikasta. Hän on tehnyt myös lukuisia empiirisiä analyyseja siitä, kuinka käyttäjät eivät ymmärrä sitä, millä laajuudella he tietojaan teknologiayrityksille luovuttavat, ja miten niitä voidaan jatkokäyttää.

Yleisemm√§n yhteiskuntateoreettisen n√§k√∂kulman lis√§ksi tutkijat ovat tarttuneet my√∂s yksityisyyden ja teknologian rajapintoihin. Muun muassa apulaisprofessori Bernhard Rieder on tehnyt kriittisi√§ havaintoja Facebookin luovuttamista datoista jo vuonna 2013. Blogipostauksessaan Rieder osoittaa, ett√§ viattomalta n√§ytt√§v√§ ‚Äúaccess to posts in your newsfeed‚ÄĚ tarkoittaa itse asiassa p√§√§sy√§ suureen m√§√§r√§√§n kyseisen k√§ytt√§j√§n verkoston tuottamaa sis√§lt√∂√§ ja informaatiota. My√∂s Jen King kollegoineen kiinnitti asiaan huomiota jo vuonna 2011 julkaistussa applikaatioita itsekin hy√∂dynt√§neess√§ tutkimuksessa. Yksityisyyden yksil√∂n yli menev√§st√§ sosiaalisesta ja verkottuneesta luonteesta on ylip√§√§ns√§ kirjoittanut moni tutkija vuosien varrella. Hyv√§n√§ johdantona toimii esim. t√§m√§ teknologian tutkija danah boydin teksti vuodelta 2011.

Jostakin syyst√§ t√§m√§ kriittinen puhe ei kuitenkaan ole kovin hyvin mennyt l√§pi ‚Äď kenties emme ole olleet kovin herkki√§ kuuntelemaan vastarannan kiiski√§ startup-buumin ja teknologiahypen keskell√§? Kenties vasta maailman merkitt√§vimm√§t vaalit ja poliittinen vaikuttaminen ovat tarpeeksi vakava k√§ytt√∂kohde, johon jokaisella on tarttumapinta?

Joka tapauksessa nyt vallalla olevan tekoälypöhinän kohdalla voisimme kenties kuunnella kritiikkoja ja akateemikkoja vähän aikaisemmin. Esimerkiksi professori Luciano Floridin teksti Should we be afraid of AI on hyvä paikka aloittaa.

Teksti: Salla-Maaria Laaksonen & Tuukka Lehtiniemi