Dilemmat: Vem ska bilen rädda

1 av 4
MOTOR

Ett framtidsscenario ingen vill prata om.

Men hur ska en självkörande bil agera i liv och död-situationer: Spara så många liv som möjligt – eller besluta om vem som är mest värd att rädda?

Nu lyfts frågan i ”Moral Machine”.

Det är forskare vid amerikanska MIT som undersöker hur maskiner ska förhålla sig till levande varelser. De har skapat en plattform kallad ”Moral Machine” där de vill få ett mänskligt perspektiv på hur artificiell intelligens bör bete sig. Det rapporterar Washington Post.

Ska ta ”rätt” beslut

Själva kärnan är det moraliska dilemmat där en självkörande bil måste ta ett avgörande beslut. Men hur ska den egentligen bete sig? Eftersom grundinställningen är en algoritm eller program som designats av människor – blir det ”vi” som avgör hur bilen agerar. För även om det autonoma fordonet inte programmerats specifikt för just ”den” situationen, så måste någon form av beslut tas.

Men vad är ”rätt” beslut? Säg att fordonet kommer körande och ett barn springer ut i gatan, ska bilen väja och köra ihjäl de som sitter i bilen – eller köra över barnet?

Få väljer själv den ”räddande” bilen

Det moraliska dilemmat är inte nytt, utan härstammar från 60-talet. Men MIT:s forskning är intressant. Enligt tidigare studier MIT gjort svarar en majoritet, 76 procent, att de föredrar att ett självkörande fordon ska försöka rädda så många liv som möjligt. Dock blir konsekvensen av det att de sittande i kupén skulle offras om bilen ansåg det vara ”livmaximerande”. D de svarande fick följdfrågan om de skulle köpa en bil som var programmerad enligt de premisserna – svarade merparten nej.

Hittills har ”Moral Machine” samlat in över tio miljoner problemsvar. Och vilka liv tycker vi då är mer värda än andra? Jo, kvinnor, barn, höginkomsttagare och vältränade.

Här kan du själv se vad du väljer i ”Moral Machine”

■ ■ ■ Har du nyhetstips till Aftonbladet Bil? Mejla ditt tips hit.