Hyppää sisältöön
    • Suomeksi
    • In English
  • Suomeksi
  • In English
  • Kirjaudu
Näytä aineisto 
  •   Etusivu
  • 3. UTUCris-artikkelit
  • Rinnakkaistallenteet
  • Näytä aineisto
  •   Etusivu
  • 3. UTUCris-artikkelit
  • Rinnakkaistallenteet
  • Näytä aineisto
JavaScript is disabled for your browser. Some features of this site may not work without it.

Innocence over utilitarianism : heightened moral standards for robots in rescue dilemmas

Sundvall Jukka; Drosinou Marianna; Hännikäinen Ivar; Elovaara Kaisa; Halonen Juho; Herzon Volo; Kopecký Robin; Košová Michaela Jirout; Koverola Mika; Kunnari Anton; Perander Silva; Saikkonen Teemu; Palomäki Jussi; Laakasuo Michael

Innocence over utilitarianism : heightened moral standards for robots in rescue dilemmas

Sundvall Jukka
Drosinou Marianna
Hännikäinen Ivar
Elovaara Kaisa
Halonen Juho
Herzon Volo
Kopecký Robin
Košová Michaela Jirout
Koverola Mika
Kunnari Anton
Perander Silva
Saikkonen Teemu
Palomäki Jussi
Laakasuo Michael
Katso/Avaa
Euro J Social Psych - 2023 - Sundvall - Innocence over utilitarianism Heightened moral standards for robots in rescue.pdf (1.440Mb)
Lataukset: 

WILEY
doi:10.1002/ejsp.2936
URI
https://doi.org/10.1002/ejsp.2936
Näytä kaikki kuvailutiedot
Julkaisun pysyvä osoite on:
https://urn.fi/URN:NBN:fi-fe2025082785630
Tiivistelmä
Research in moral psychology has found that robots, more than humans, are expected to make utilitarian decisions. This expectation is found specifically when contrasting utilitarian action to deontological inaction. In a series of eight experiments (total N = 3752), we compared judgments about robots' and humans' decisions in a rescue dilemma with no possibility of deontological inaction. A robot's decision to rescue an innocent victim of an accident was judged more positively than the decision to rescue two people culpable for the accident (Studies 1-2b). This pattern repeated in a large-scale web survey (Study 3, N = similar to 19,000) and reversed when all victims were equally culpable/innocent (Study 5). Differences in judgments about humans' and robots' decisions were largest for norm-violating decisions. In sum, robots are not always expected to make utilitarian decisions, and their decisions are judged differently from those of humans based on other moral standards as well.
Kokoelmat
  • Rinnakkaistallenteet [27094]

Turun yliopiston kirjasto | Turun yliopisto
julkaisut@utu.fi | Tietosuoja | Saavutettavuusseloste
 

 

Tämä kokoelma

JulkaisuajatTekijätNimekkeetAsiasanatTiedekuntaLaitosOppiaineYhteisöt ja kokoelmat

Omat tiedot

Kirjaudu sisäänRekisteröidy

Turun yliopiston kirjasto | Turun yliopisto
julkaisut@utu.fi | Tietosuoja | Saavutettavuusseloste