Työ- ja elinkeinoministeriö pyysi syksyllä 2024 lausuntoa luonnoksesta hallituksen esitykseksi tekoälyasetuksen toimeenpanoa koskevaksi lainsäädännöksi. Tämä teksti on yhdistyksen aktiivien koostama Rajapinta ry:n lausunto, jonka allekirjoittajina on myös lukuisia suomalaisia tutkijoita.
Kiitämme mahdollisuudesta lausua koskien luonnosta hallituksen esitykseksi tekoälyasetuksen toimeenpanoa koskevaksi lainsäädännöksi. Tieteellinen seuramme kiittää siitä, että lakiesityksessä on erikseen kohta, joka käsittelee tutkimustoimintaa ja antaa sille erillisiä vapauksia velvoitteista. Tämä mahdollistaa tekoälyjärjestelmien rakentamista sisältävän tutkimuksen ilman lainsäädännön erillisiä velvoitteita.
Suomessa tehdään parhaillaan paljon kansainvälisestikin merkittävää tutkimusta sosiaalisesta toiminnasta tekoälyteknologioiden ympärillä sekä niiden vaikutuksista yhteiskuntaan. Tutkimuksella on annettavaa erityisesti siihen, miten näitä sovelluksia kehitetään niin, että ne tukevat EU:n arvoja demokraattisemman teknologiaympäristön kehittämisestä. Korostamme, että tarvitaan laajempaa kansallista ja Euroopan laajuista yhteiskunnallista keskustelua teknologiapolitiikan tavoitteista ja teknologiatarpeista sekä niistä tavoista, joilla tekoäly ja muu digitaalinen teknologia ylipäätään voivat edistää eurooppalaisia arvoja: ihmisarvon, perusoikeuksien ja -vapauksien kunnioittamista, tasa-arvoa ja oikeusvaltiota.
Tieteellinen seuramme nostaa esille huolen tekoälyjärjestelmien rakentamisen ja käytön avoimuuden toteutumisesta sekä valvonnan resurssoinnista lakiesityksen pohjalta. Nämä ovat oleellisia sekä tutkijoiden että kansalaisten tiedonsaannin kannalta. Suomalaisilla on jo nyt liian vähän tietoa tekoälysovelluksista (DVV, 2024). Avoimuutta ja läpinäkyvyyttä koskevat kohdat lakiesityksessä ovat kuitenkin hyvin yleisluontoisia. Tämän vuoksi jää epäselväksi, miten avoimuus todellisuudessa taataan ja mitä se käytännössä merkitsee (ks. esim. Ananny & Crawford, 2018).
Avoimuusmekanismit ovat välttämättömiä tekoälyjärjestelmien yhteiskunnallista merkitystä tutkivalle korkeatasoiselle tutkimukselle. Riippumaton tutkimus on merkittävä keino arvioida järjestelmien yhteiskunnallisia vaikutuksia ja osaltaan tukee Suomeen jo kehittynyttä kansainvälistä huippututkimusta, joka tarkastelee tekoälyä ihmistieteiden näkökulmasta. Lisäksi tutkimus parantaa kansalaisten oikeuksia ja tiedonsaantia. Riippumattoman tutkimuksen pääsy sellaiseen tietoon ja aineistoihin, joilla näitä asioita voidaan arvioida on turvattava lainsäädännössä. Esimerkiksi digipalvelusäädöksen mahdollistamaan aineistojen saatavuuteen liittyvät tutkijakokemukset ovat osoittaneet, että avoimuuden toteutuminen on puutteellista, koska lainsäädäntöä ei ole kirjoitettu tarpeeksi velvoittavaksi ja käytännössä toteutus jää digipalveluyritysten harkinnan varaan (ks. Forum on Information & Democracy, n.d.). Avoimuuden varmistamiseksi pyydämme huomioimaan seuraavat seikat:
- Mahdollisuus arvioida ja valvoa läpinäkyvästi sekä julkisen että yksityisen puolen tekoälysovelluksia on varmistettava. Järjestelmien olemassaolon, käytön ja toimintatapojen tulee olla läpinäkyviä ja selitettäviä sekä tutkijoille että kansalaisille, jotta niiden luotettavuutta, toimivuutta ja legitimiteettiä voidaan arvioida. Lainsäädännön turvaama järjestelmien avoimuus on erityisen tärkeää tutkimukselle, jotta teknologian vaikutuksiin keskittynyt kotimainen tutkimus pysyy kilpailukykyisenä verrattuna muuhun Eurooppaan. Kansalaisten näkökulmasta vahva avoimuuslainsäädäntö on linjassa Suomen demokraattisten arvojen ja oikeusturvan kanssa: kansalaiset kohtaavat arjessaan joko tietoisesti tai tiedostamatta erilaisia yksityisten toimijoiden tuottamia tekoälysovelluksia, joita käytetään laajalti myös julkisella puolella ja työntekijän roolissa. Tarve avoimuudesta pätee myös tuleviin sääntelyn testiympäristöihin.
- Suomen suunnittelema hajautettu organisoitumismalli hankaloittaa avoimuusvaatimuksia. Lainsäädännössä on perustellusti valittu hajautettu tekoälyn valvonnan ja ohjauksen malli. Mallilla on omat etunsa, mutta samaan aikaan valvonnan hajauttaminen usealle viranomaiselle vaikeuttaa avoimuuden valvontaa ja toteutumista. Yhteiskunnallisten vaikutusten arviointi ja sääntely edellyttää ministeriöiltä ja viranomaisilta myös yhteistä toimintaa (vrt. ilmastotoimet). Ehdotamme, että avoimuuden valvonta keskitettäisiin yhdelle toimijalle, joka myös resurssoitaisiin riittävästi ja erikseen. Tällä toimenpiteellä pyrittäisiin huomioimaan esimerkiksi digipalvelusäädöksen kohdalla jo havaittuja ongelmia avoimuuden toteutumisessa.
- Tekoälyn ja algoritmisten järjestelmien yhteiskunnallisten merkitysten takia lainvalmistelutyössä tulisi myös arvioida tarvetta perustaa Suomeen digitalisaation ja tekoälyn yhteiskunnallisiin vaikutuksiin keskittyvä tutkimuslaitos. Muilla politiikkasektoreilla tälläinen on jo yleistä (esim. Ulkopoliittinen instituutti, THL), ja se tarjoaa lainsäädäntötyölle sekä yhteiskunnalliselle vaikuttavuudelle tutkimukseen perustuvaa tukea sekä mahdollistaa riippumattoman tiedontuotannon järjestelmien luotettavuudesta, validiteetista ja vaikutuksista.
Lausuntomme koskien vaikutusten arviointia
Tekoälyn kaltaisten yleisluontoisten teknologioiden vaikutukset voivat olla arvaamattomia ja suuria, ja niiden korjaaminen jälkikäteen on vaikeaa. Tämä korostaa huolellisen vaikutusten arvioinnin merkitystä. Tekoäly itsessään on ylätason termi, johon kätkeytyy monia erilaisia järjestelmiä ja toimintoja, kuten esimerkiksi ennakoivat tai generatiiviset järjestelmät. Tekoälyyn liittyvät odotukset voivat luoda harhoja siitä, mihin teknologia oikeastaan soveltuu ja mitä sillä voidaan tehdä. Kansallisella tasolla on huomioitava riippumattoman akateemisen tutkimuksen rooli tekoälyteknologioiden tarkkailussa ja jatkuvassa arvioinnissa.
Tekoälyjärjestelmät ovat monimutkaisia sosioteknisiä kokonaisuuksia, joiden takana on ihmisiä, ihmisten tekemiä päätöksiä ja joiden rakentamiseen ja käyttöön liittyy paljon sosiaalista toimintaa (mm., Orr & Crawford, 2024; Lindgren, 2023; Laaksonen et al., 2023; Pääkkönen et al., 2020; Laaksonen et al., 2020; Elish & boyd, 2018). Lakiesityksessä tekoälyyn liittyvä osaaminen, kompetenssi ja lukutaito kuitenkin kuvataan vahvasti teknisinä asioina, ja kaivattu tekoälyosaaminen on teknistä osaamista.
Tekoälyasetuksen ja hallituksen esityksen tavoite ja lähtökohta on ylipäätään teknologiamyönteinen ja optimistinen, jossa kehityksen päämääränä on teknologia itse. Teknologiakehityksellä on tunnetusti varjopuolia, jotka liittyvät esimerkiksi kansalaisten perusoikeuksiin, yhdenvertaisuuteen ja tasa-arvoon (ks. Ashwini, 2024; Berg & Valaskivi, 2023; Eubanks, 2018; Noble, 2018) sekä digitaalisen teknologian ympäristövaikutuksiin, joista on vasta viime vuosina alettu käydä keskustelua (Istrate et al., 2024; Crawford, 2024; Laaksonen et al., 2024; Verdecchia, 2023; Brevini, 2020).
Korostamme, että tekoälyjärjestelmien kehittämisestä, käytöstä ja vaikutuksista tarvitaan myös ihmistieteellistä tutkimusta ja asiantuntemusta. Tämä asiantuntemus auttaa ottamaan jo suunnitteluvaiheessa huomioon ristiriidat ja mahdolliset ongelmakohdat sekä nyt että tulevaisuudessa välttäen turhia korjausprosesseja ja kielteisiä seurauksia. Vaikutusten arvioinnissa pyydämme huomioimaan seuraavat seikat:
- Syrjiviä vaikutuksia tulee arvioida perusteellisemmin. Tekoälyjärjestelmien mahdolliset syrjivät vaikutukset on esitetty lakiesityksessä lyhyesti sivulla 94, mutta varsin optimistisessa kehyksessä. Syrjivät vaikutukset eivät rajoitu vinoumiin. Tekoälyjärjestelmien aiheuttamista negatiivisista seurauksista yksilöille ja ihmisryhmille sekä virheellisistä päätöksistä on jo paljon olemassa olevaa tutkimusta ja käytännön kokemusta (ks. esim. AI Incident Database, n.d.; Ojanen et al., 2022).
- Tekoälyjärjestelmien käyttöönotto ei saa heikentää oikeuksien toteutumista. Suomessa ja EU:ssa ei pitäisi ottaa käyttöön tekoälyjärjestelmiä (ml. reaaliaikainen biometrinen etätunnistaminen), joiden vaikutuksia ei tunneta tai joilla tiedetään jo olevan ihmisoikeuksia ja hyvinvointia heikentäviä vaikutuksia yksilöille, ihmisryhmille tai yhteiskunnalle esimerkiksi maahanmuuton kontekstissa (esim. Van Gerven, 2024; Milan, 2020). Tutkimuksen perusteella tiedetään, että kerran käyttöön otetut teknologiat siirtyvät helposti myös toisiin konteksteihin (He et al., 2022; Koops, 2021; Andrejevic, 2019; Zuboff, 2015). Arvioitaessa suuren riskin järjestelmiä on otettava huomioon mahdolliset käytöt tulevaisuudessa ja niiden vaikutukset, vaikka järjestelmiä ei nykyisellään otettaisi käyttöön.
- Kansalaisten demokraattinen osallisuus on taattava. Lakiesityksessä painotetaan kansalaisten luottamuksen lisäämistä. Samalla tulisi esittää konkreettisia keinoja siitä, miten negatiivisiin seurauksiin, vinoumiin tai muihin vaikutuksiin puututaan ja miten ne korjataan. Lisäksi tarvitaan laajempaa keskustelua näiden vaikutusten hyväksyttävyydestä eri konteksteissa koulutuksesta työelämään. Kansalaisilla tulee olla demokraattinen mahdollisuus osallistua tähän keskusteluun sekä kieltäytyä tekoälyjärjestelmien käytöstä. Tämä pitää sisällään vaihtoehdon jättää tekoälyjärjestelmiä suunnittelematta, toteuttamatta ja käyttämättä.
Allekirjoittaneet:
Digitaalisten yhteiskuntatieteiden tieteellinen seura Rajapinta ry
sekä seuraavat tutkijat:
Elisa Kannasto, koulutuspäällikkö ja tutkija, Seinäjoen ammattikorkeakoulu ja Vaasan yliopisto
Risto Kunelius, professori, Helsingin yliopisto
Salla-Maaria Laaksonen, dosentti, Helsingin yliopisto
Erkki Mervaala, tutkija, Suomen ympäristökeskus
Matti Nelimarkka, dosentti, Helsingin yliopisto & Aalto yliopisto
Outi Puukko, väitöskirjatutkija, Helsingin yliopisto
Stefanie Sirén-Heikel, väitöskirjatutkija, Helsingin yliopisto
Sari Kivijärvi, väitöskirjatutkija, Tampereen yliopisto
Antti Rannisto, väitöskirjatutkija, Aalto-yliopist
Jukka Oksa, dosentti (eläkkeellä), UEF
Tuomas Heikkilä, väitöskirjatutkija, Helsingin yliopisto
Minna Horowitz, dosentti, Helsingin yliopisto
Minttu Tikka, tutkimuspäällikkö, Terveyden ja hyvinvoinnin laitos
Samuel Salovaara, tutkijatohtori, Lapin yliopisto
Jaana Parviainen, filosofian dosentti, Tampereen yliopisto
Jaan-Pauli Kimpimäki, tutkijatohtori, LUT Yliopisto
Jenny Tarvainen, yliopistonopettaja ja väitöskirjatutkija, Jyväskylän yliopisto
Janne Matikainen, dosentti, Helsingin yliopisto
Liisa Kääntä, yliopisto-opettaja, Vaasan yliopisto
Minna Koivula, tutkijatohtori, Jyväskylän yliopistoSalla Westerstrand, väitöskirjatutkija ja projektitutkija, Turun yliopisto
Katja Valaskivi, professori, Helsingin yliopisto
Nuppu Pelevina, väitöskirjatutkija, Helsingin yliopisto, projektitutkija, Vaasan yliopisto
Jenni Hokka, dosentti, Tampereen yliopisto
Ilona Kousa, väitöskirjatutkija, Helsingin yliopisto
Virpi Salojärvi, dosentti, Helsingin yliopisto
Heta Tarkkala, akatemiatutkija, Helsingin yliopisto
Tuukka Lehtiniemi, dosentti, Helsingin yliopisto
Maarit Koponen, professori, Itä-Suomen yliopisto
Tom Bäckström, professori, Aalto-yliopisto
Mervi Pantti, professori, Helsingin yliopisto
Ilmari Hiltunen, tutkijatohtori, Tampereen yliopisto
Hannu Nieminen, professori, emeritus, Helsingin yliopisto
Nelli Jäntti-Tuominen, väitöskirjatutkija, Tampereen yliopisto
Minna Vigren, apulaisprofessori, LUT-yliopisto
Anu Harju, apurahatutkija, Helsingin yliopisto
Minna van Gerven, professori, Helsingin yliopisto
Reeta Pöyhtäri, yliopistotutkija, Tampereen yliopisto
Jonne Arjoranta, yliopistonlehtori, Jyväskylän yliopisto
Eetu Mäkelä, professori, Helsingin yliopisto
Otto Sahlgren, väitöskirjatutkija, Tampereen yliopisto
Petri Ylikoski, professori, Helsingin yliopisto
Hannu Toivonen, professori, Helsingin yliopisto
Kirjallisuus:
AI Incident Database (n.d.) https://incidentdatabase.ai/
Ananny, M., & Crawford, K. (2018). Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society, 20(3), 973-989. https://doi.org/10.1177/1461444816676645
Andrejevic, M. (2019). Automating Surveillance. Surveillance & Society, 17(1/2), 7–13. https://doi.org/10.24908/ss.v17i1/2.12930
Ashwini, K.P. (2024) Report of the Special Rapporteur on contemporary forms of racism, racial discrimination, xenophobia and related intolerance. UN Human Rights Council. A/HRC/56/68 https://documents.un.org/doc/undoc/gen/g24/084/20/pdf/g2408420.pdf
Berg, A., & Valaskivi, K. (2023). Dataistunut uskonto: Kaupalliset kuvantunnistuspalvelut uskontoa ”tunnistamassa”. Teologinen Aikakauskirja, 128(2), 174-200.
Brevini, B. (2020). Black boxes, not green: Mythologizing artificial intelligence and omitting the environment. Big Data & Society, 7(2), 2053951720935141.
Crawford, K. (2024). Generative AI’s environmental costs are soaring — and mostly secret. Nature 626, 693. https://doi.org/10.1038/d41586-024-00478-x
Digi- ja väestötietovirasto (2024) Digiturvabarometri 2024 -raportti. https://dvv.fi/documents/16079645/110183105/Digiturvabarometri_raportti_2024.pdf/0060e03e-ffea-2654-fefc-665972f16920/Digiturvabarometri_raportti_2024.pdf?t=1727334774626
Elish, M. C., & boyd, D. (2018). Situating methods in the magic of Big Data and AI. Communication monographs, 85(1), 57-80.
Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.
Forum on Information & Democracy (n.d.) Contribution to the DSA delegated act for data access. https://docs.google.com/document/d/13PoFzCydKp1ks06kAL6buoXjWuZJ0jB7jX0lJu89qMs/edit?tab=t.0
He, G., Hung Li, E. P., & Husain, M. (2022). The power of digital integration: The normalization of tracking and surveillance technologies. In R. Llamas & R. Belk (Eds.), The Routledge Handbook of Digital Consumption (pp. 447–460). Taylor and Francis.
Istrate, R., Tulus, V., Grass, R. N., Vanbever, L., Stark, W. J., & Guillén-Gosálbez, G. (2024). The environmental sustainability of digital content consumption. Nature Communications, 15(1), 3724.
Laaksonen, S-M., Frig, M-M., Pulli, P., Skenderi, E., & Suppanen, S. (2024). ReDime: Tiekartta kohti resurssiviisasta digitaalista mediaa. Tutkimushankkeen loppuraportti. Valtiotieteellisen tiedekunnan julkaisuja ; 261/2024. http://hdl.handle.net/10138/577689
Laaksonen, S-M.; Haapoja, J.; Kinnunen, T., Nelimarkka, M. & Pöyhtäri, R. (2020). The Datafication of Hate: Expectations and Challenges in Automated Hate Speech Monitoring. Frontiers in Big Data: Data Mining and Management / Critical Data and Algorithm Studies. doi:10.3389/fdata.2020.00003 [open access]
Laaksonen, S-M., Pääkkönen, J. & Öhman, E. (2023). From hate speech recognition to happiness indexing: critical issues in datafication of emotion in text mining. In Lindgren, S. (ed.), Handbook of Critical Studies of Artificial Intelligence. Edward Elgar Publishers.
Lindgren, S. (2023). Critical theory of AI. John Wiley & Sons.
Milan, S. (2020). Techno-solutionism and the standard human in the making of the COVID-19 pandemic. Big Data & Society, 7(2), 205395172096678. https://doi.org/10.1177/2053951720966781
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. In Algorithms of oppression. New York university press.
Orr, W., & Crawford, K. (2024). The social construction of datasets: On the practices, processes, and challenges of dataset creation for machine learning. New Media & Society, 26(9), 4955-4972.
Ojanen, A., Sahlgren, O., Vaiste, J., Björk, A.,
Mikkonen, J., Kimppa, K., Laitinen, A., & Oljakka, N. (2022). Algoritminen syrjintä ja yhdenvertaisuuden edistäminen : Arviointikehikko syrjimättömälle tekoälylle. Valtioneuvoston selvitys- ja tutkimustoiminnan julkaisusarja 2022:54
Pääkkönen, J., Nelimarkka, M., Haapoja, J., & Lampinen, A. (2020). Bureaucracy as a Lens for Analyzing and Designing Algorithmic Systems. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–14. https://doi.org/10.1145/3313831.3376780
van Gerven, M. (2024). Syrjivät algoritmit nakertavat luottamusta Pohjolan hyvinvointivaltioissa – on aika unohtaa keppi ja panostaa tukeen. Julkaisu Repair-hankkeen sivustolla. https://www.repair-research.fi/blogi/syrjivt-algoritmit-nakertavat-luottamusta-pohjolan-hyvinvointivaltioissa-nbspon-aika-unohtaa-keppi-ja-panostaa-tukeen
Verdecchia, R., Sallou, J., & Cruz, L. (2023). A systematic review of Green AI. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 13(4), e1507.
Zuboff, S. (2015). Big Other: Surveillance Capitalism and the Prospects of an Information Civilization. Journal of Information Technology, 30, 75. https://doi.org/10.1057/jit.2015.5

