Luotettavan tietojenkäsittelyn merkitys on viime aikoina korostunut koronakriisin ja erilaisia tietomurtoja koskevien uutisten myötä. Myös Euroopan komissio, joka antoi viime helmikuussa tekoälyn kehittämistä käsittelevän valkoisen kirjan, painotti julkaisussaan luotettavuutta digitaalisen teknologian käyttöönoton edellytyksenä. Eettinen tekoäly onkin yksi EU:n keskeisistä tavoitteista. Erityisen tekoälyn luotettavuutta horjuttavan riskin muodostavat algoritmiset vinoumat, joihin jokaisen tekoälysovelluksia kehittävän tai käyttöönottavan yrityksen tulisi varautua.
Tekoäly: älä anna algoritmisen vinouman pilata bisnestäsi
Palvelut
Tekoäly on puolueellista ja voi johtaa syrjintään
Tekoäly on lähtökohtaisesti puolueellista, koska sen toiminta perustuu ihmisen syöttämään dataan ja ihmisen määrittämiin sääntöihin. Puolueellisuus voi johtua monesta eri syystä. Tekoälyn kouluttamiseen käytetty data voi esimerkiksi olla virheellistä, puutteellista tai muuten sellaista, että se saattaa aiheuttaa algoritmisia vinoumia. Tekoälyn hyödyntämä algoritmi on myös voitu kehittää niin, että se antaa merkitystä tietylle syrjintäperusteelle, kuten sukupuolelle tai kielelle. Vinoumilla on merkitystä etenkin silloin, kun henkilöt joutuvat tekoälysovellusten avulla automaattisesti tehdyn päätöksen kohteeksi. Jos vinoumia ei korjata ajoissa, päätökset voivat johtaa syrjintään.
Tekoälyn syrjivyys voi johtua esimerkiksi siitä, että sovellus on koulutettu pääasiassa miehiltä saadulla datalla, jolloin tulokset eivät ole naisten kannalta optimaalisia. Monien tekoälyteknologioiden erityispiirteet, kuten läpinäkymättömyys, monimutkaisuus, ennakoimattomuus ja osittain autonominen käyttäytyminen, voivat olla ongelmallisia perusoikeuksien suojelun kannalta.
Automatisoitu päätöksenteko ja siihen liittyvä syrjinnän riski ovat herättäneet paljon keskustelua. Tekoälyn avulla tehdyistä päätöksistä on jopa kanneltu yhdenvertaisuusvaltuutetulle. Yksi tapaus eteni yhdenvertaisuus- ja tasa-arvolautakuntaan, joka antoi vuonna 2018 luottoyhtiölle uhkasakolla tehostetun kieltopäätöksen. Tapauksessa oli kyse siitä, että luottoyhtiö oli käyttänyt täysin automatisoitua päätöksentekojärjestelmää. Kuluttajaluoton hakija pisteytettiin vertailemalla hakijan tietoja vastaaviin tilastoihin luottokelpoisuuden selvittämiseksi. Menetelmän katsottiin syrjivän hakijoita muun muassa sukupuolen ja äidinkielen perusteella. On syytä huomata, että päätöksiksi voidaan lukea pienemmätkin tekoälyn tekemät ratkaisut, kuten ratkaisu ohjata tietynlainen hakija asiakaspalveluun.
Tekoälyn toimintaa on seurattava ja sopimusten on oltava kunnossa
Vinoumien ehkäisemiseksi tekoälysovellusten toimintaa on seurattava ja arvioitava säännöllisesti. Tämä koskee sekä itse kehitettyjä että muualta hankittuja sovelluksia. Koska tekoäly heijastaa sitä kehittävien ihmisten käsityksiä ja arvomaailmaa, tekoälysovellusten hankkimiseen ulkomailta liittyy omat tarkkaavaisuutta vaativat riskinsä. On nimittäin mahdollista, että tekoälyn puolueellisuus on seurausta sen kehittäjien kulttuuriin liittyvistä normeista.
Koska tekoälyä koskevaa lainsäädäntöä ei vielä juurikaan ole, tekoälysovelluksiin liittyvät osapuolten oikeudet ja velvollisuudet perustuvat lähtökohtaisesti osapuolten tekemiin sopimuksiin. Sopimusten ehdoissa tulisi huomioida muun muassa virhevastuu ja auditointi. Virhevastuusta sopiminen on tärkeää esimerkiksi siltä varalta, että tekoälyn koulutukseen käytetty data on puutteellista tai hyödynnetty algoritmi toimii väärin. Auditointiehdoissa tulisi sopia esimerkiksi siitä, kuinka tekoälyn oikea toiminta varmistetaan, jos tekoälyn päätöksentekologiikka ei ole tarpeeksi läpinäkyvä. Lainsäädännön puutteesta huolimatta vastuullista tekoälyn käyttöä ohjaavat kuitenkin muun muassa EU:n tekoälyä koskevat eettiset ohjeet.