Fostering Responsible Adoption of AI-based Innovation : An Exploratory Case Study on Risk Identification and Awareness in Healthcare and Education Sectors
Kuusela, Emma (2025-05-26)
Fostering Responsible Adoption of AI-based Innovation : An Exploratory Case Study on Risk Identification and Awareness in Healthcare and Education Sectors
Kuusela, Emma
(26.05.2025)
Julkaisu on tekijänoikeussäännösten alainen. Teosta voi lukea ja tulostaa henkilökohtaista käyttöä varten. Käyttö kaupallisiin tarkoituksiin on kielletty.
suljettu
Julkaisun pysyvä osoite on:
https://urn.fi/URN:NBN:fi-fe2025060561445
https://urn.fi/URN:NBN:fi-fe2025060561445
Tiivistelmä
In today's society, stress and strain on individuals have increased significantly, especially in the work environment, which has created a need for new solutions to support well-being. At the same time, the use of artificial intelligence is spreading rapidly into different areas of life - including technologies for monitoring well-being and health, where data is collected from individuals through a range of wearable devices such as smart watches and rings. The sensitivity of health data and the impact of technology on individual rights underline the importance of responsible deployment. This raises the question of how to responsibly adopt an AI innovation that aims to improve well-being at work and the collaboration between humans and AI.
Previous research has found that the spread of AI requires both regulation and informal guidance. Policymakers, academia and industry offer perspectives on responsible AI. Common is the desire to ensure the safe and fair use of AI for social and environmental well-being. Ethical principles of AI provide useful guidance, but practical tools are also needed to enable organizations to apply them to everyday decision-making and technology development. The theoretical framework for this research has been developed by combining previous theory with the context of this study. The framework emphasizes the evaluation of an AI solution as part of a socio-technical framework in which technology and people interact.
This research is a case study of a project that aims to improve well-being at work in different sectors, using AI and other technologies. This study aims to understand how the project is implementing pilots in the health and education sectors. The aim is to increase the understanding of responsibility among those working on the development and deployment of AI, and to gain a more detailed understanding of the topic of responsible AI in a practical context. Awareness can help build trust in AI and contribute to user acceptance and successful, sustainable innovation. The research was conducted as a qualitative study, using internal project documents, questionnaires and interviews. The coding of the data was used to generate key themes, which were structured in relation to the research questions. The qualitative thematic analysis is particularly suited to systematically identifying and structuring different types of meaning.
The results show that AI can be deployed in a responsible way, considering both internal and external drivers. Among the external drivers, complying with the ethical principles of AI in particular emerges as a key factor, both in the overall implementation of the pilot projects and at the system level. The ethical principles provide an important direction, but their practical implementation is not straightforward. Responsible adoption requires addressing ethical, technical, social and organizational dimensions simultaneously. This multi-layered approach makes it clear that it is not enough to simply plan - clear, applicable proposals and tools are also needed for organizations willing to implement AI solutions in a responsible way. It is also essential to identify risks that prevent the implementation of ethical principles and to take steps to minimize these risks. Nyky-yhteiskunnassa yksilöiden stressi ja kuormitus ovat kasvaneet merkittävästi erityisesti työympäristössä, mikä on herättänyt tarpeen uusille hyvinvointia tukeville ratkaisuille. Samaan aikaan tekoälyn hyödyntäminen leviää vauhdilla eri elämänalueille – myös hyvinvoinnin ja terveyden seurantaan liittyviin teknologioihin, joissa dataa kerätään yksilötasolla erilaisten puettavien laitteiden, kuten älykellojen ja -sormusten avulla. Terveystietojen arkaluonteisuus ja teknologian vaikutus yksilön oikeuksiin korostavat vastuullisen käyttöönoton merkitystä. Tämä herättää kysymyksen siitä, miten tekoälyä hyödyntävä innovaatio, jolla pyritään parantamaan työhyvinvointia ja ihmisen sekä tekoälyn yhteistyötä, voidaan ottaa käyttöön vastuullisesti.
Aiempi tutkimus on todennut, että tekoälyn leviäminen edellyttää sekä sääntelyä että epävirallista ohjausta. Näkökulmia vastuulliseen tekoälyyn tarjoavat poliittiset päättäjät, akateeminen maailma ja yksityinen sektori. Yhteistä on halu varmistaa turvallinen ja oikeudenmukainen tekoälyn hyödyntäminen, jolla pyritään sosiaaliseen ja ympäristölliseen hyvinvointiin. Tekoälyn eettiset periaatteet toimivat hyödyllisenä suunnannäyttäjänä, mutta myös käytännön työkaluja tarvitaan, jotta organisaatiot pystyvät soveltamaan niitä arjen päätöksenteossa ja teknologian kehitystyössä. Teoreettinen viitekehys on muodostettu yhdistelemällä aiempaa teoriaa tämän tutkimuksen kontekstiin. Viitekehyksessä korostuu tekoälyratkaisun arviointi osana sosioteknistä kokonaisuutta, jossa teknologia ja ihmiset ovat vuorovaikutuksessa keskenään.
Tämä tutkimus on tapaustutkimus, jonka kohdeorganisaatio on eurooppalainen hanke, joka pyrkii parantamaan työhyvinvointia eri sektoreilla muun muassa tekoälyn avulla. Tutkimuksen tarkoituksena on ymmärtää, miten hanke toteuttaa pilotteja terveydenhuollon ja koulutuksen sektoreilla. Tavoitteena on lisätä tekoälyn kehityksen ja käyttöönoton parissa työskentelevien henkilöiden ymmärrystä vastuullisuudesta ja saada yksityiskohtaisempi käsitys vastuullisen tekoälyn teemasta käytännön kontekstissa. Tietoisuudella voidaan vahvistaa luottamusta tekoälyyn ja edesauttaa käyttäjien hyväksyntää sekä onnistuneiden, kestävien innovaatioiden syntymistä. Tutkimus toteutettiin laadullisena tutkimuksena ja aineistona toimii hankkeen sisäiset dokumentit, kyselyt ja haastattelut. Aineiston koodauksen pohjalta muodostettiin keskeiset teemat, joiden avulla sisältöä jäsennettiin suhteessa tutkimuskysymyksiin. Analyysimenetelmänä käytettiin laadullista teema-analyysiä, joka soveltuu erityisesti erilaisten merkityssisältöjen systemaattiseen tunnistamiseen ja jäsentämiseen.
Tulokset osoittavat, että tekoäly voidaan ottaa käyttöön vastuullisesti, kun otetaan huomioon sekä sisäiset että ulkoiset ajurit. Ulkoisista tekijöistä erityisesti tekoälyn eettisten periaatteiden noudattaminen nousee keskeiseksi sekä pilottihankkeiden yleisessä toteuttamisessa että järjestelmätasolla. Eettiset periaatteet tarjoavat tärkeän suunnan, mutta niiden käytännön toteuttaminen ei ole suoraviivaista. Vastuullinen käyttöönotto edellyttää eettisten, teknisten, sosiaalisten ja organisatoristen ulottuvuuksien huomioimista samanaikaisesti. Tämä monikerroksisuus tekee selväksi, että pelkkä suunnitelmallisuus ei riitä - tarvitaan myös selkeitä, sovellettavia ehdotuksia ja työkaluja organisaatioille, jotka haluavat toteuttaa tekoälyratkaisuja vastuullisesti. Lisäksi keskeistä on tunnistaa riskejä, jotka estävät eettisten periaatteiden toteutumisen ja tehdä toimia riskien minimoimiseksi.
Previous research has found that the spread of AI requires both regulation and informal guidance. Policymakers, academia and industry offer perspectives on responsible AI. Common is the desire to ensure the safe and fair use of AI for social and environmental well-being. Ethical principles of AI provide useful guidance, but practical tools are also needed to enable organizations to apply them to everyday decision-making and technology development. The theoretical framework for this research has been developed by combining previous theory with the context of this study. The framework emphasizes the evaluation of an AI solution as part of a socio-technical framework in which technology and people interact.
This research is a case study of a project that aims to improve well-being at work in different sectors, using AI and other technologies. This study aims to understand how the project is implementing pilots in the health and education sectors. The aim is to increase the understanding of responsibility among those working on the development and deployment of AI, and to gain a more detailed understanding of the topic of responsible AI in a practical context. Awareness can help build trust in AI and contribute to user acceptance and successful, sustainable innovation. The research was conducted as a qualitative study, using internal project documents, questionnaires and interviews. The coding of the data was used to generate key themes, which were structured in relation to the research questions. The qualitative thematic analysis is particularly suited to systematically identifying and structuring different types of meaning.
The results show that AI can be deployed in a responsible way, considering both internal and external drivers. Among the external drivers, complying with the ethical principles of AI in particular emerges as a key factor, both in the overall implementation of the pilot projects and at the system level. The ethical principles provide an important direction, but their practical implementation is not straightforward. Responsible adoption requires addressing ethical, technical, social and organizational dimensions simultaneously. This multi-layered approach makes it clear that it is not enough to simply plan - clear, applicable proposals and tools are also needed for organizations willing to implement AI solutions in a responsible way. It is also essential to identify risks that prevent the implementation of ethical principles and to take steps to minimize these risks.
Aiempi tutkimus on todennut, että tekoälyn leviäminen edellyttää sekä sääntelyä että epävirallista ohjausta. Näkökulmia vastuulliseen tekoälyyn tarjoavat poliittiset päättäjät, akateeminen maailma ja yksityinen sektori. Yhteistä on halu varmistaa turvallinen ja oikeudenmukainen tekoälyn hyödyntäminen, jolla pyritään sosiaaliseen ja ympäristölliseen hyvinvointiin. Tekoälyn eettiset periaatteet toimivat hyödyllisenä suunnannäyttäjänä, mutta myös käytännön työkaluja tarvitaan, jotta organisaatiot pystyvät soveltamaan niitä arjen päätöksenteossa ja teknologian kehitystyössä. Teoreettinen viitekehys on muodostettu yhdistelemällä aiempaa teoriaa tämän tutkimuksen kontekstiin. Viitekehyksessä korostuu tekoälyratkaisun arviointi osana sosioteknistä kokonaisuutta, jossa teknologia ja ihmiset ovat vuorovaikutuksessa keskenään.
Tämä tutkimus on tapaustutkimus, jonka kohdeorganisaatio on eurooppalainen hanke, joka pyrkii parantamaan työhyvinvointia eri sektoreilla muun muassa tekoälyn avulla. Tutkimuksen tarkoituksena on ymmärtää, miten hanke toteuttaa pilotteja terveydenhuollon ja koulutuksen sektoreilla. Tavoitteena on lisätä tekoälyn kehityksen ja käyttöönoton parissa työskentelevien henkilöiden ymmärrystä vastuullisuudesta ja saada yksityiskohtaisempi käsitys vastuullisen tekoälyn teemasta käytännön kontekstissa. Tietoisuudella voidaan vahvistaa luottamusta tekoälyyn ja edesauttaa käyttäjien hyväksyntää sekä onnistuneiden, kestävien innovaatioiden syntymistä. Tutkimus toteutettiin laadullisena tutkimuksena ja aineistona toimii hankkeen sisäiset dokumentit, kyselyt ja haastattelut. Aineiston koodauksen pohjalta muodostettiin keskeiset teemat, joiden avulla sisältöä jäsennettiin suhteessa tutkimuskysymyksiin. Analyysimenetelmänä käytettiin laadullista teema-analyysiä, joka soveltuu erityisesti erilaisten merkityssisältöjen systemaattiseen tunnistamiseen ja jäsentämiseen.
Tulokset osoittavat, että tekoäly voidaan ottaa käyttöön vastuullisesti, kun otetaan huomioon sekä sisäiset että ulkoiset ajurit. Ulkoisista tekijöistä erityisesti tekoälyn eettisten periaatteiden noudattaminen nousee keskeiseksi sekä pilottihankkeiden yleisessä toteuttamisessa että järjestelmätasolla. Eettiset periaatteet tarjoavat tärkeän suunnan, mutta niiden käytännön toteuttaminen ei ole suoraviivaista. Vastuullinen käyttöönotto edellyttää eettisten, teknisten, sosiaalisten ja organisatoristen ulottuvuuksien huomioimista samanaikaisesti. Tämä monikerroksisuus tekee selväksi, että pelkkä suunnitelmallisuus ei riitä - tarvitaan myös selkeitä, sovellettavia ehdotuksia ja työkaluja organisaatioille, jotka haluavat toteuttaa tekoälyratkaisuja vastuullisesti. Lisäksi keskeistä on tunnistaa riskejä, jotka estävät eettisten periaatteiden toteutumisen ja tehdä toimia riskien minimoimiseksi.