Suomen tiedetoimittajain liiton julkaisu

Professori Magnus Strand: “Tekoäly ei halua mitään”

Magnus Strand ei juuri käytä tekoälyä professorin työssään mutta päätoimittaessaan julkaisua European Law Journal hän pyytää toisinaan tekoälyltä apua kirjallisuuskartoituksissa ja oikoluvussa.

”Mikä on oikea tapa ajatella tekoälyä?” kysyi oikeustieteen professori Magnus Strand Suomen tiedetoimittajain liiton syksyisellä Ruotsin opintomatkalla. Strand korosti tekoälyn säätelyn poliittisuutta.

Perjantai 26. syyskuuta. Kolmas matkapäivä. Tiedetoimittajain liiton tiivistahtisen Ruotsin opintomatkan seitsemäs ohjelmaosuus. Tapaamme Uppsalan yliopiston oikeustieteen professori Magnus Strandin yliopiston seminaarisalissa. Strand kommentoi asuaan.

– Ehkä olen ylipukeutunut.

Tekoälyn riskeihin ja säätelyyn yritysten ja työn tekemisen näkökulmasta perehtynyt Strand on kiiruhtanut tapaamiseen opiskelijansa väitöstilaisuudesta. Hänellä on päällään tummansininen puku, kauluspaita, harmaaruudullinen solmio, takinkauluksessa pinssi.

– Mitä tekoäly on? Strand kysyy. – Ja mikä on ihminen? Ja missä mielessä tekoäly voi korvata ihmisen?

Kysymykset ovat isoja, aikamme lyhyt. Professori Strand on jäsentänyt alustuksensa Powerpointille.

Hän pohtii, mikä on oikea tapa lähestyä tekoälyä ja vastaa kysymykseensä vertailemalla ihmistä ja tekoälyä keskenään. Puheessa korostuu ihmisen vastuu tekoälyn kehittämisestä ja käyttämisestä.

Strand muistuttaa, että teknologia on jo aikojen alusta muuttanut tapoja, joilla ihminen tekee työtä, mutta se ei ole poistanut sitä tosiasiaa, että ihminen tekee työtä. Näin on myös tekoälyn kohdalla. Teknologian kehitystä ei voi pysäyttää, mutta ihminen määrittää suunnan, johon tahtoo teknologian kehittyvän.

– Tekoäly ei halua mitään, ellei ihminen ohjelmoi sitä haluamaan jotain. Toisin kuin ihminen tekoäly ei myöskään ymmärrä tai ajattele mitään. Se ei huolestu mistään, eikä se ole tietoinen mistään. Olemme perustavalla tavalla erilaisia, Strand muistuttaa.

Tekoäly on ainoastaan hyvin pitkälle kehittynyt softa. Se ei voi korvata ihmistä työelämässä, mutta ihminen voi käyttää sitä luomaan monenlaista lisäarvoa, hyvässä ja pahassa.

Pitäisikö ihmisen käyttää tekoälyä onkin Strandin mukaan väärä kysymys. Voiko tekoälyyn luottaa taas on liian yleinen kysymys. Viisainta on kysyä, miten tekoälyä voi käyttää organisaation hyödyksi.

Tällöin kiinnostavaa on se, mitä tekoälyn avulla voi tehdä nopeammin, paremmin tai halvemmalla kuin ilman sitä tai mitä kokonaan uutta tekoälyllä voi tehdä.

– Robotit valloittavat maailman ainoastaan, jos ihminen ohjelmoi ne valloittamaan maailman, Strand huomauttaa.

“Toisin kuin ihminen, tekoäly ei ajattele eikä tunne mitään”, Magnus Strand huomauttaa.

Ihmisten valinnat ovat poliittisia

Strand painottaa ihmisen valintojen poliittisuutta ja lisää, että autonominen tekoäly ja yhä kompleksisimmiksi kehittyvät sovellukset voivat kuitenkin olla huonosti ihmisen hallittavissa. Hän viittaa filosofi Nick Boströmin kirjassaan Superintelligence antamaan esimerkkiin niin sanotusta kohdistusongelmasta (alignment problem).

Boströmin esimerkissä ihminen määrää tekoälyn tuottamaan mahdollisimman paljon klemmareita. Niinpä tekoäly siirtyy tavanomaiset klemmarimateriaalit loppuun käytettyään valmistamaan klemmareita maapallosta ja ottaa sen jälkeen materiaalikseen toiset planeetat.

– Tekoäly voi aiheuttaa huomattavaa vahinkoa, jos ihmiset eivät tiedä, mitä he tekevät tai jos väärät ihmiset käyttävät tekoälyä tarkoituksiinsa, Strand sanoo.

Tekoäly myös käyttää eriarvoisten yhteiskuntiemme tuottamaa dataa, joka jo sinällään vahvistaa rakenteellista eriarvoisuutta. Kun data esimerkiksi kertoo, että naiset ansaitsevat vähemmän kuin miehet tai että tietyillä asuinalueilla asuu paljon syrjäytynyttä väestöä, tekoäly saattaa ehdottaa ratkaisuja, jotka vahvistavat eriarvoisuutta sen purkamisen sijaan.

Strand muistuttaa myös tekoälypohjaisen sosiaalisen median demokratian vastaisuuden riskistä palauttamalla mieliimme Britannian Brexit-äänestyksen yhteydessä tapahtuneen skandaalin, joka syntyi kun paljastui, että konsulttiyritys Cambridge Analytica oli kerännyt miljoonilta Facebookin käyttäjiltä tietoja ilman heidän suostumustaan.

Kuluttaessaan suunnattomasti energiaa tekoäly myös on epäekologista, ympäristövihamielistäkin.

EU:n tekoälysäädös erittelee neljä riskitasoa

Euroopan unionin tekoälysäädös astui voimaan elokuussa 2024. Säädös tähtää perusoikeuksien kunnioittamiseen ja kieltää korkean riskin tekoälysovellukset tyystin.

EU:n tekoälysäädös on kaikkien aikojen ensimmäinen tekoälyä koskeva oikeudellinen kehys. Sillä halutaan edistää tekoälyn vastuullista kehittämistä ja käyttöönottoa Euroopan unionin alueella.

Suomen valtiovarainministeriön verkkosivuilla kerrotaan tekoälysäädöksen tavoitteista seuraavasti nähtävästi käännösohjelman voimin: ”EU:sta muodostuu tekoälyn kehittämiselle ja soveltamiselle suotuisa ympäristö, joka pohjautuu EU:n arvoihin korkean tason suojelussa kansalaisiin kohdistuvissa riskitapauksissa. Tietyt haitalliset tekoälykäytänteet kielletään. Korkean riskin tekoälyjärjestelmille asetetaan erityisiä vaatimuksia.”

EU:n tekoälysäädös jakaa tekoälyn riskien perusteella neljään luokkaan.

Kokonaan kielletään tekoälyyn perustuva manipulointi ja petos, haavoittuvuuksien tekoälyyn perustuva hyödyntäminen, sosiaalinen pisteytys, yksittäisen rikoksen riskien arviointi ja ennustaminen, Internetin tai kameravalvontamateriaalin kohdentamaton kaavinta kasvojentunnistustietokantojen luomiseksi tai laajentamiseksi, tunteiden tunnistaminen työpaikoilla ja oppilaitoksissa, biometrinen luokittelu tiettyjen ominaisuuksien määrittämiseksi sekä reaaliaikainen biometrinen etätunnistus lainvalvontatarkoituksessa julkisissa tiloissa. (EU:n sivulla kerrotaan, että teksti on Euroopan komission tekoälyohjelman eTranslation tekemä konekäännös.)

Strand on huolissaan lainsäädännön hitaudesta

Professori Magnus Strand huomauttaa, että tekoäly oppii koko ajan uusia asioita. Ongelmallista onkin, että lainsäädäntöäkin pitäisi siksi pystyä uudistamaan jatkuvasti.

EU-lainsäädäntö ei myöskään päde tekoälyn suurten kehittäjien Yhdysvaltojen ja Kiinan markkinoilla. On kyllä olemassa niin sanottu Bryssel-vaikutus eli oletus siitä, että tuotekehittelijät joutuvat mukautumaan EU:n sääntöihin, koska Euroopan unioni on niin vahva ja iso markkina, mutta esimerkiksi Kiina tekee EU-markkinoita varten eri tuotteita kuin vaikka Australiaan.

Strand muistuttaa myös, että lakien ja säädösten on vaikea puuttua tilanteisiin, joissa monet tekoälysovellukset alkavat pelata yhteen. Hän kertoo esimerkkinä tällaisesta New Yorkin pörssin toukokuun 2010 äkkipudotuksen (Flash Crash), joka aiheutti sijoittajille triljoonan dollarin tappiot.

– Meillä ei ole sääntöjä tällaisen varalla, Strand sanoo. – Pakolliset vakuutukset voisivat olla yksi keino hallita vastaavia tilanteita.

Teksti: Annu Kekäläinen

Kuvat: Tero Pajukallio

Julkaistu

7 marras, 2025

Suomen Tiedetoimittajain liitto

JULKAISIJA

Suomen tiedetoimittajain liitto ry.
Finlands vetenskapsredaktörers förbund rf.

Tiedetoimittaja-lehti on Kulttuuri- ja mielipidelehtien Kultti ry:n jäsen

TOIMITUS

Päätoimittaja Ulla Järvi

ISSN

ISSN 2242-4237 (Verkkolehti)