Suomen tiedetoimittajain liiton julkaisu

Algoritmivaltaa voi hallita, mutta nopeus on valttia

Miltä kuulostaisi tekoäly, joka seuloisi yksityiset sähköpostiviestisi ja tekisi niiden pohjalta persoonallisuusprofiilin? Entä, jos tekoäly tekisi sinua koskevia etuuspäätöksiä tai diagnosoisi virtsatietulehduksesi?

Ei hurjalta lainkaan. Kaikki tämä on tätä päivää Suomessa. Digital Minds- yritys tekee työnhakijoiden persoonallisuusprofilointia seulomalla sähköposteja IBM Watsonin avulla; Kelan päätöksentekoa on automatisoitu i ja OmaOlo-sovellus ehdottaa tavallisten tautien oireiden tunnistamista simppelien kyllä – ei – vastauksien pohjalta. Espoon kaupunki ja Tieto käyttivät laajojen asiakastietoaineistojen data-analyysiä pilottiprojektissa, jossa tunnistettiin lasten ja nuorten riskejä joutua tulevaisuudessa lastensuojelun tai lastenpsykiatrian asiakkaaksi.
Sanan valta -koulutuksen ”Algoritmivalta – kriittisiä näkökulmia” -työpajassa käytiin läpi tekoälyn mahdollisuuksia, käytännön sovelluksia että ennen muuta etiikkaa. Työpajan alussa käytiin läpi erilaisia määritelmiä. Algoritmivallasta puhuminen on hankalaa, koska usein ei ymmärretä edes, mistä puhutaan. Tekoälykeskustelu taas on usein spekulatiivista ja teknisiin yksityiskohtiin keskittyvää. Algoritmiin sanana liitetään monenlaisia ennakkoluuloja, pitkälti kiitos mm. Facebookin ja muiden korporaatioiden algoritmien salamyhkäisyyden, mutta algoritmi itsessään on neutraali asia. Algoritmin laatii ihminen, ja sen käytöstä päättää aina ihminen.
– Ongelma on siinä, että eettistä pohdiskelua käydään jälkikäteen ja reaktiivisesti, Helsingin yliopiston Kuluttajatutkimuskeskuksen apulaisprofessori Minna Ruckenstein pohti.
Ruckenstein ja työpajan toinen vetäjä, tutkijatohtori Linda Turunen tutkivat ihmisten ja koneiden työnjakoa Helsingin Sanomain säätiön rahoittamassa hankkeessa.
Osana hanketta Ruckenstein oli mukana kokoamassa berliiniläisen AlgorithmWatch – kansalaisjärjestön Taking Stock of the Automatic Decision-Making in the EU -raporttia. Raportissa tarkastellaan OmaOlon ja Ditital Mindsin kaltaisia esimerkkejä. Siinä todetaan myös, että automaattista päätöksentekoa käytetään jo hyvin laajasti sekä yrityksissä että julkisella sektorilla. Datatieteilijä Cathy O’Neill listaa Matikkatuhoaseet- kirjassaan huolestuttavia ennakkotapauksia, joissa vaikkapa opettaja on saanut potkut perustuen hänen työnsä automatisoituun suorituksen arviointiin. Tilastollisesti voidaan myös esimerkiksi arvioida autojen vakuutusmaksut köyhillä alueilla korkeammiksi kuin muualla.
Euroopan komissio on jo huomauttanut, että tekoälyä tulee käyttää niin, että kansalaiset ymmärtävät sen vaikutukset.

Valta on teknologian kehittäjillä
– mutta myös käyttäjillä

Automaattinen päätöksenteon tuki on ilman muuta myös hyvä asia. Se voi helpottaa ja sujuvoittaa monenlaista asiointia. Suomi on selonteoissaan linjannut, että tekoälyn kehittäminen ja soveltaminen eettisesti kestävällä tavalla ovat kilpailuetuja. Digitaalinen etiikka on markkinatrendi. Tällä hetkellä monet pohtivat, miten etiikan voisi paketoida ja tuotteistaa.
– Yhteiskunnallisesti kestäviä toimintatapoja, sitä miten ympäristöön, tasa-arvoon tai oikeudenmukaisuuteen liittyviä kysymyksiä tulisi huomioida pitäisi tulisi pohtia yhtä suurella innolla kuin markkinaistamista, Ruckenstein sanoo.
Koulutuspäivässä pohdittiin tekoälyä monesta näkökulmasta. Yksi ongelmista on, että se voi pahimmillaan liioitella inhimillisiä ajatus vääristymiä tai tehdä virheitä. Esimerkiksi Googlen kuvahaku sekoitti tummaihoiset ihmiset ja gorillat keskenään, koska tekoälyä opetettiin aineistolla, jossa oli pelkkiä valkonaamoja. Saippua-automaatti tunnisti vain vaaleat kädet eikä toiminut, jos tummaihoinen laittoi kätensä sen alle.
– Tekoälyn seurauksia on tarkkailtava jatkuvasti – ei ole eettistä automaattia, joka pystyisi ennakoimaan kaikki mahdolliset virheet, muistuttaa Minna Ruckenstein.
Regulaatio laahaa aina jäljessä ja toisaalta valtaa on myös käyttäjillä. Hyvä esimerkki on monissa maissa esiintynyt vaalivaikuttaminen Facebookin kautta.
– Sen laajuutta ei kukaan osannut ennakolta aavistaa eikä täten myöskään varautua, Ruckenstein toteaa.
Tekoälysovellus, jota kukaan ei käytä, on vailla vaikutusvaltaa, kuollutta teknologiaa.

Miten tekoälysovellukset vaikuttavat käytökseemme?

Toisaalta yksinkertaisellakin luokitteluteknologialla voi olla vakavia seurauksia. Esimerkiksi verotuksessa tai luottoluokituksissa tapahtuneilla virheillä on suoria vaikutuksia ihmisten talouteen ja arkeen. Suomessa apulaisoikeusasiamies on antanut verottajalle ainakin kaksi huomautusta tekoälyn eli robottiverottajan tekemistä verotuspäätöksistä. Ongelma on siinä, että verottajalla ei ole ollut osoittaa ihmistä, jonka kanssa päätöstä voisi käydä läpi.
Minna Ruckensteinin ja Linda Turusen mukaan Euroopassa tulisi etiikkakeskustelun rinnalla pohtia automaation rajoja yksityiskohtaisten esimerkkien avulla. Tulisi pohtia sitä, mikä tulisi edelleen jättää ihmisten päätettäväksi, miten algoritmit vaikuttavat arkeemme, tiedonhakuumme ja tiedonsaantiin. Virossa on jo ehdotettu, että robotitkin kantaisivat juridista vastuuta. Se miten tekoälysovellukset ja algoritmiset systeemit vaikuttavat käytökseemme, on vielä kysymysmerkki. Jos tekoäly tekee persoonallisuusprofilointia nettijalanjäljestämme, alammeko käyttäytyä toisin? Entä tekoälyn vaikutukset yhteiskunnalliseen keskusteluun ja demokraattiseen päätöksentekoon? Miten kauan meistä kerättävää aineistoa säilytetään ja onko meillä oikeus tietää, mihin kaikkeen sitä käytetään?
– Meillä arvostellaan Kiinaa ja sen “pisteytyssysteemejä” – myös Euroopassa on jo käytössä automatisoituja tapoja pisteyttää kansalaisia toteaa Minna Ruckenstein.
Tekoäly herätti kysymyksiä myös työpajan osanottajissa. Esimerkiksi Tiedon ja Espoon kaupungin lastensuojeluun liittyvässä hankkeen suhteen pohdittiin miten luokitellaan sitä, liittyvätkö lapsen tai nuoren oireet normaaliin murrosikään vai ennakoivatko ne psyykkisiä ongelmia aikuisuudessa. Lastensuojelu on Suomessa pitkälti yksityistetty. Jos tekoäly arvioi lapsen tarvitsevan lastensuojelupalveluja, palveluntuottajat tuskin välittävät vääristä positiivisista signaaleista.
– Tekoälyllä on paljon “tarkoittamattomia seurauksia” (unintended consequnces). Voisivatko nuo seuraukset olla “intended”, eli harkittuja, Minna Ruckenstein pohti.

Julkaistu

17 touko, 2019

Suomen Tiedetoimittajain liitto

JULKAISIJA

Suomen tiedetoimittajain liitto ry.
Finlands vetenskapsredaktörers förbund rf.

Tiedetoimittaja-lehti on Kulttuuri- ja mielipidelehtien Kultti ry:n jäsen

TOIMITUS

Päätoimittaja Ulla Järvi

ISSN

ISSN 2242-4237 (Verkkolehti)