Flere millioner mennesker har talt: Hvem må selvkørende biler køre ned?

I en ikke så fjern fremtid skal selvkørende biler måske beslutte, hvem der skal dø i en ulykke. Forskere har nu kortlagt, hvad vi mennesker synes.

Hvis en selvkørende bil ikke kan standse, er den nødt til at køre ind i noget. Men hvem og hvad, den skal undgå at ramme er til debat. Nu har forskere fra MIT kortlagt, hvad 40 millioner mennesker synes. (© Solvej Gregersen)

Artiklen er blevet opdateret med en ny overskrift klokken 14:11. Den tidligere var "40 millioner mennesker har talt: Hvem må selvkørende biler køre ned". Det var ikke korrekt, og er nu rettet.

Forestil dig, at vi har selvkørende biler på vejene i Danmark. Hvis en af de selvkørende biler pludselig ikke kan standse, og er nødt til enten at køre ind i en mur eller ind i en gruppe mennesker.

Uanset hvad, vil nogen dø. Hvad synes du så, bilen skal programmeres til at vælge? Det er en afgørende diskussion i en tid, hvor kunstig intelligens fylder mere og mere og tager større og større beslutninger på vores vegne.

For at blive klogere på sagen udviklede forskere fra MIT et lille dilemmaspil for at undersøge, hvad vi egentlig synes, en selvkørende bil skal gøre, når den er i en situation hvor dødsfald er uundgåelige.

Nu har flere millioner mennesker spillet spillet, der sætter dig over for 13 forskellige dilemmaer og ud fra det kan forskerne se, at vi ifølge forskerne ikke er helt enige om, hvilket moralsk kodeks selvkørende biler skal handle efter.

Maskiner bliver herrer over liv og død

Det er vigtigt, fordi vi står overfor en fremtid, hvor maskiner skal navigere dilemmaer om liv eller død uden hjælp fra mennesker. Og de maskiner skal programmeres rigtigt, siger Thomas Ploug, Professor i IT-etik ved Aalborg Universitet :

- Den her forskning er vigtig, fordi der er en erkendelse af, at intelligente systemer i fremtiden skal træffe svære valg. Og de skal have de rette instrukser. De skal have ansvarlig udvikling og ansvarlige algoritmer, siger han til DR Viden og fortsætter:

- Vi kan ikke lade industrien selv afgøre hvad ansvarlige algoritmer er. Producenterne vil pleje deres egeninteresser, som er kommercielle. De har ikke uafhængigheden til at afgøre, hvad en ansvarlig algoritme er.

Hvem skal dø - den gamle dame eller hunden?

Som spiller skal du tage stilling til en ting - skal den løbske selvkørende bil fortsætte sin kurs eller skal den undvige?

Du kan prøve DR Videns udgave af spillet her:

Og når forskerne trækker tallene, kan de se, at der er nogle ting, som vi stort set alle er enige om, forklarer Thomas Ploug:

- Vi kan se, at der er nogle grundlæggende intuitioner som skal med, når vi designer ansvarlige algoritmer, f.eks at mennesker er mere værd end dyr, og at hvis alt andet er lige, skal man gå efter at redde flest mulige mennesker, siger han.

Forskellige dele af kloden har forskellig etik

Men det er ikke alt, vi er enige om. Overordnet set fordeler vores holdninger til, hvad de selvkørende biler skal gøre i ulykkessituationer sig i tre geografiske klynger.

Der er en sydlig klynge med hovedsagelig Syd- og Mellemamerikanske lande, en vestlig klynge med Nordamerika og Europa, og en østlig klynge med asiatiske lande.

MITs forskere har målt på, hvem vi hver især prioriterer at beskytte.

I både den vestlige og sydlige klynge foretrækker testpersonerne at beskytte børn, hvorimod den samme skelnen mellem alder ikke er så tydelig i den østlige klynge.

I den sydlige klynge fortrækker testepersonerne også at redde mennesker med høj social status og kvinder.

Desuden kan man se, at mennesker fra lande med høj økonomisk ulighed foretrækker at beskytte velstående personer eller personer med høj status. Og lande med et velfungerende retsvæsen foretrækker at beskytte lovlydige borgere.

Skal kunstig intelligens diskriminere?

Selvom det er fristende at smide de data ind i de selvkørende bilers algoritmer, og få dem til at opføre sig sådan, så skal vi lige tænke os om en ekstra gang, siger Thomas Ploug:

- Det er jo diskriminerende. Forskningen her viser, at vi ikke kan bruge den har metode til at afgøre hvad algoritmer må. Vi kan bruge vores umiddelbare intuitioner som input til en etisk debat, men vi skal indse, at de kan være problematiske, siger han.

Selvom forskerne ikke er kommet frem til et universalt moralsk kodeks for selvkørende biler, så er MITs resultater et vigtigt skridt fremad, og kan gøre diskussionen om, hvordan vi vil have selvkørende biler til at fungere endnu bedre:

- Det er ikke en moralsk sandhed, siger forskerne. Det er en samling af, hvad vi som menneskehed synes - og så kan det gøde den fremtidige diskussion af etikken omkring selvkørende biler.

Facebook
Twitter