Kaavailtu tekoälyyn liittyvä sääntely ja sen myötä tekoälyn vastuullisuutta konkretisoiva lainsäädäntöhanke puhuttaa Euroopassa, ja Suomessa eduskuntakin on hiljattain ottanut kantaa asetusehdotukseen. Aihe on siis ajankohtainen tekoälyjärjestelmiä suunnitteleville ja kehittäville toimijoille. Asetusehdotus on herättänyt kritiikkiä laveudellaan, ja se pitää alan toimijat varpaillaan hakiessaan lopullista muotoaan.
Tekoäly aisoihin yhteisillä pelisäännöillä
Palvelut
Tekoälymallien neljä pääluokkaa
Tekoälysääntelyllä erityislainsäädäntöön halutaan sisällyttää tekoälyn vastuullista käyttöä konkretisoivia velvoitteita. Vastuullisuudella tarkoitetaan tässä kontekstissa esimerkiksi avoimuutta, oikeudenmukaisuutta ja eettisyyttä: käsiteltävänä on usein tietoa, joka kertoo kuluttajien toiminnasta ja elämästä. Edellä mainittu tekoälyasetus, jota koskevan ehdotuksen komissio antoi huhtikuussa 2021, on esimerkki sääntelystä, jolla tekoälyn käyttöä pyritään osaltaan harmonisoimaan EU:ssa.
Yhteisillä eurooppalaisilla pelisäännöillä halutaan lisätä luottamusta tekoälyn käyttöön ja vähentää EU:n perusoikeuksien vastaista tekoälyn hyödyntämistä, kuten poliisivaltiomaista massavalvontaa, kansalaisten pisteytystä tai muuta kansalaisille vaarallista tekoälyn käyttöä. Näitä uhkia torjutaan tekoälymallien luokittelulla: tekoälymallit jaetaan neljään pääluokkaan sen mukaan, aiheutuuko tekoälyn käytöstä riski, joka ei ole hyväksyttävissä, suuri riski vai vähäinen tai minimaalinen riski.
Pääluokat määräytyvät käyttötarkoituksen perusteella, eivätkä ne perustu itse teknologiaan. Tekoälyä hyödynnetäänkin mitä erilaisimpiin tarkoituksiin, aina chattiboteista kasvojen tunnistukseen ja lääketeollisuudesta robottiaseisiin. Vastaavasti asetusehdotuksessa kaavailluilla velvoitteilla on tarkoitus edistää läpinäkyvyyttä ja kuluttajien luottamusta.
Avoimuus ja läpinäkyvyys lisäävät luottamusta
Tekoälyn vastuullinen hyödyntäminen ja tiedon käsittely edellyttävät avoimuutta ja läpinäkyvyyttä. Siksi se voi olla oiva kilpailuetu itse liiketoiminnan lisäksi esimerkiksi asiakkaiden tai henkilöstön näkökulmasta. Liiketoiminnassa uusimman teknologian kehityksen seuraaminen ja sen käyttöön ottaminen voi avata innovatiivisia mahdollisuuksia ja uudenlaisia näkökulmia. Toisaalta selkeä kommunikointi kuluttajille sekä luo käsitystä yrityksen toiminnasta että lisää niin kuluttajan, työntekijän kuin muidenkin sidosryhmien luottamusta ja sen myötä sitoutuneisuutta. On kuitenkin huomattava, että monen kuluttajan ymmärrys ei välttämättä riitä tekoälyn toiminnan hahmottamiseen.
Tekoälyn vastuullinen käyttö voidaan nähdä osana yritysvastuuta. Soft law -tyyliseen yhteis- tai itsesääntelyyn perustuva vastuullisuutta konkretisoiva sääntelymalli voidaan nähdä ongelmallisena, koska se ei välttämättä herätä luottamusta kuluttajissa eikä eri sidosryhmillä olisi juurikaan mahdollisuuksia vaikuttaa siihen. Valvonnasta ja seuraamusten määräämisestä vastaavia tahoja ei myöskään ole tällaisessa sääntelymallissa pyritty erottamaan toisistaan.
Tietosuoja-asetuksen tavoin tekoälyasetusluonnoksessa edellytetään muun muassa tietoon ja tiedon hallinnointiin liittyvää täsmällisyyttä, riittävää tietoturvan tasoa ja sekä läpinäkyvyyden että informointivelvoitteen toteuttamista asianmukaisella dokumentaatiolla. Valvonta- ja sanktioimisvallan eriyttäminen on ratkaistu komission asetusehdotuksessa siten, että jäsenvaltioiden markkinavalvontaviranomaiset yhdessä Euroopan tekoälyneuvoston kanssa vastaisivat valvonnasta, kun taas jäsenvaltioiden olisi huolehdittava hallinnollisten sakkojen ja muiden seuraamusten täytäntöönpanosta. Tällainen ratkaisu omaksuttiin myös EU:n tietosuoja-asetuksessa.
Asetusehdotukseen liittyvää kritiikkiä
Tekoälyasetus on merkittävä lainsäädäntöhanke, mutta ehdotus itsessään ei ole täysin kattava eikä vedenpitävä. Siinä esimerkiksi esitetään hyvin vähän käytännön ratkaisuja algoritmisen vinouman ehkäisemiseen, vaikka se oli yksi suurimmista lainsäädäntöhankkeen aloittamiseen vaikuttaneista huolista. Lisäksi tekoälyn määritelmää asetusluonnoksessa on kritisoitu turhan laveaksi. Toisaalta tekoälyn määritelmästä on pyritty tekemään mahdollisimman teknologianeutraali ja kestävä, jottei se vanhentuisi teknologisen kehityksen myötä. Soveltamisalan tulisi olla selkeä ja vaatimusten oikeasuhtaiset – tarkkarajaisuutta voidaan perustella esimerkiksi oikeusvarmuuden periaatteella. Myös korkean riskin käyttötarkoitukset on kuvattu asetusluonnoksen liitteessä jokseenkin epäselvästi, mikä voi aiheuttaa epävarmuutta asetuksen soveltuvuudesta markkinoilla.
Asetusehdotusta on myös kritisoitu sen monimutkaisuudesta sekä siitä, että se jättää suoraan sovellettavana asetuksena jäsenvaltioille hyvin vähän liikkumavaraa ja näyttäisi pyrkivän pitkälle menevään harmonisointiin. Lisääntyvän byrokratian pelätään myös jarruttavan tekoälyinnovaatioita.
Mitä seuraavaksi?
Komission ehdotuksesta keskustelevat tällä hetkellä lainsäätäjät, Euroopan parlamentti ja Euroopan neuvosto. Vaikka ehdotus onkin herättänyt kysymyksiä ja epäilyjä, jäsenvaltiot pääosin kannattavat ehdotuksen tavoitteita ja ovatkin alkaneet löytää yhteistä kantaa neuvotteluissaan. Puheenjohtajavaltio Slovenian on tarkoitus esittää asetuksesta kompromissiehdotus marraskuussa 2021. Tekoälyä hyödyntävien tai hyödyntämistä suunnittelevien yhtiöiden kannattaa nyt seurata uusimpia kehityssuuntia jo lainsäädäntöhankkeen vireilläoloaikana pysyäkseen kyydissä näillä liikkuvilla kärryillä.