Valmisteilla olevan tekoälyasetuksen (”AI Act”) tavoitteena on muun muassa varmistaa, että unionin markkinoille saatetut ja siellä käytetyt tekoälyjärjestelmät ovat turvallisia ja noudattavat perusoikeuksia. Tekoälyasetuksen tavoitteena on myös helpottaa sisämarkkinoiden kehitystyötä ja edistää kilpailukykyä. Kauniista tavoitteestaan huolimatta tulos saattaa olla päinvastainen – tietosuoja-asetuksen kohdalla niin sanottu Bryssel-efekti toteutui.
Juuri nyt EU:ssa yritetään ratkaista se, millaisia älykkäitä järjestelmiä käytämme tulevaisuudessa
Eija Warma-Lehtinen & Sakari Salonen
EU:n näkökanta tekoälyn kielletyistä käyttötavoista on toki sellainen, että suurin osa kehittyneistä maista voi olla siitä samaa mieltä, mutta pystyykö EU myös tekoälyn osalta saamaan aikaiseksi sääntelyä, joka toimisi mallina koko maailmassa vai johtaako tekoälyn raskas sääntely EU:ssa siihen, että Eurooppa jää jälkeen tekoälyn kehityksessä ja joutuu lopulta mukautumaan muilla markkinoilla muodostuneisiin standardeihin? Entä onko uusi sääntely myöskään välttämätöntä? Esimerkiksi usein keskusteltuun kasvojen tunnistukseen julkisilla paikoilla perustuvaan valvontaan Euroopan tietosuojaneuvosto on suhtautunut torjuvasti jo nykyisen sääntelyn puitteissa.
Tekoälyasetus on totutusta poiketen teknologiasidonnainen. Ehdotukseen liittyen herääkin kysymys: onko tavoitteena säädellä teknologiaa vai ilmiöitä, johon teknologiaa käytetään?
Paljon kritiikkiä on myös esitetty sen suhteen, eikö olemassa oleva sääntely, kuten tietosuoja-asetus ja tuotevastuu- sekä turvallisuussäännökset, tarjoaisi riittävää suojaa tietyn teknologian soveltamiseen. Tietosuoja-asetushan sääntelee automaattista päätöksentekoa henkilötietoja käyttäen. Datan osalta asetus edellyttää merkityksellisyyttä, edustavuutta, virheettömyyttä ja täydellisyyttä. Etenkin täydellisyyden vaatimus on puhuttanut pitkään: voiko kukaan toimija taata datan täydellisyyttä ja virheettömyyttä missään olosuhteissa?
Ehdotuksen keskeisten käsitteiden on myös sanottu olevan liian epämääräisiä, suppeita tai päällekkäisiä muiden säädösten kanssa. Lisäksi ehdotus sisältää muun muassa suuririskisiin sovelluksiin liittyen varsin laajoja, mutta epämääräisiä velvoitteita, esimerkiksi laajoja ihmisen suorittamaa valvontaa koskevia velvoitteita. Tämä ei kuitenkaan takaa, että valvontaa suorittavat henkilöt tosiasiallisesti kykenisivät havaitsemaan ja puuttumaan poikkeamiin, mikä on ilmennyt esimerkiksi testattaessa itseajavien autojen toimintaa. Niille tahoille, jotka haluavat toimia oikein, vaatimukset tulevat varsin kalliiksi, kun taas vilpillisten toimijoiden vastuuseen saaminen voi osoittautua vaikeaksi.
Kritiikistä huolimatta tekoälyasetus on tulossa, joten kannattaa jo nyt valmistautua sen voimaan tulemiseen. Tärkeintä tällä hetkellä on arvioida, mihin kolmesta tekoälykategoriasta, kiellettyyn, suuririskiseen tai sääntelemättömään kategoriaan, oma sovellus sijoittuu. Mikäli kehitteillä oleva sovellus sijoittuu suuririskiseen kategoriaan, on syytä varmistaa, että se täyttää asetuksen vaatimukset, kuten riskienhallintajärjestelmän perustamisen, teknisen dokumentaation laatimisen, tapahtumien automaattisen tallentamisen ja ihmisen suorittaman valvonnan varmistamisen.