Syrjintä automaattisessa päätöksenteossa

Ladataan...
suljettu
Julkaisu on tekijänoikeussäännösten alainen. Teosta voi lukea ja tulostaa henkilökohtaista käyttöä varten. Käyttö kaupallisiin tarkoituksiin on kielletty.
Lataukset2

Verkkojulkaisu

DOI

Tiivistelmä

Teknologisen kehityksen yksi suuntaus on ollut päätöksenteon etääntyminen ihmisestä. Algoritmeja käytetään päätöksentekoon ja päätöksenteon merkittävänä apuvälineenä yhä useammalla elämän osa-alueella niin yksityisellä kuin julkisella sektorilla. Suurella osalla näistä päätöksistä on merkittäviä vaikutuksia ihmisten elämään. Tällaisia merkittäviä osa-alueita ovat esimerkiksi luotonantoon, rekrytointiin ja koulutukseen liittyvät päätökset. Automaattinen päätöksenteko on useissa tapauksissa johtanut syrjintään. Automaattisen päätöksenteon yleistyminen onkin nostanut yhdeksi keskeiseksi ongelmaksi niiden mahdollisen syrjivyyden. Automaattiseen päätöksentekoon liitetään useita haasteita, joista tunnetuimpia ovat päätöksentekojärjestelmien läpinäkymättömyys ja niin kutsutut black box -algoritmit. Tässä opinnäytetyössä selitetään, selvitetään ja kartoitetaan kyseistä ongelmaa. Tutkielmassa vastataan kysymyksiin syrjintään johtavista tekijöistä ja syrjinnän ehkäisyn mahdollisuuksista automaattisen päätöksenteon kontekstissa. Tietosuoja-asetuksen sääntelyn lisäksi työssä etsitään ja kartoitetaan muuta voimassa olevaa sääntelyä, sääntelyhankkeita ja sääntelyvaihtoehtoja. Työn johtopäätöksissä korostuu aiheen moniulotteisuus sekä teknologian sääntelyyn yleisemminkin liittyvät ongelmat. Uudet kysymykset vaativat myös uudenlaisia lähestymistapoja ja vaikka on yleisesti tunnustettu, että lainsäädäntö laahaa useissa kysymyksissä teknologian kehityksen perässä on käytettävissä kuitenkin sääntelyä, joka soveltuu syrjinnän tilanteisiin automaattisessa päätöksenteossa.

item.page.okmtext