Etikk, verdier og filosofi i arbeid

Roboter med moral

26. mai 2014

Siste nytt fra Pentagon: Nå utvikles roboter med moral. Robotene skal programmeres med regler for rett og galt, og på bakgrunn av det skal de kunne ta moralsk gode valg (Gizmodo, «The Military’s Spending Millions to Build Robots with Morals», 14.05 2014.

At det er mulig å gjøre det er jeg ikke i tvil om, men oppnår en det en vil?

Det finnes noen etiske teorier som er så systematisk presentert at de nok kan oversettes til et språk som roboter kan forstå og agere ut fra. Ta for eksempel konsekvensetikken, teorien som sier at det er riktig å gjøre det som gir det beste utfallet for dem som er berørt. Det samme vil kunne gjelde pliktetikken, teorien som sier at den handlingen er riktig som er i tråd med gjeldende moralske normer.

I begge tilfeller vil en kunne utarbeide en slags fasit for hva som er moralsk riktig å gjøre i en gitt situasjon. Men hvordan skal roboten programmeres til å resonnere, som en konsekvensetiker eller som en pliktetiker? Begge deler vil kunne føre fram til et forutsigbart handlingsmønster, godt forankret i prinsipper, men konsekvensetikeren og pliktetikeren er ikke alltid enige.

Etter å ha vært ettersøkt i lang tid, ble lederen for al-Qaida, Osama bin Laden, til slutt innhentet og drept av amerikanske spesialstyrker våren 2011 (NRK, «Osama bin Laden er død», 02.05 2011). I følge soldaten Matt Bissonnette, som var med på aksjonen, ble terroristen overrumplet og skutt i sitt eget hjem, uten at han hadde opptrådt truende (Dagbladet, «Bin Laden ble drept mens barna så på», 09.09 2012). Var det en riktig handling?

Konsekvensetikeren ville nok sagt det. Osama bin Laden sto ansvarlig for å ha drept et tusentalls mennesker og planla sannsynligvis nye aksjoner der mennesker ville blitt drept. Altså ble verden et tryggere sted etter at han ble skutt.

Ut fra et pliktetisk ståsted ser det ganske annerledes ut: At det å drepe et menneske kan gi et bedre utfall enn å la være å gjøre det vil aldri være et overbevisende argument for pliktetikeren, for det å ta liv er ensbetydende med å krenke en persons menneskeverd, og det kan aldri være moralsk riktig å bruke et menneske bare som middel til å oppnå noe.

Skulle vi ha programmert en robot til å håndtere denne situasjonen, ville utfallet avhenge av den etiske teorien vi la til grunn, og hvilken teori som er den mest treffende, er det slett ikke enighet om. En kan altså få en robot til å tenke som en konsekvensetiker eller som en pliktetiker, men det vil fortsatt kunne diskuteres hvorvidt roboten gjør det som er moralsk riktig.

Men la oss anta at det var mulig å løse dette, ved at en og samme robot ble programmert til å gjøre både pliktetiske og konsekvensetiske vurderinger og kunne håndtere eventuelle konflikter. Kan en robot vise moral i den forstand mennesker gjør det?

Det som kjennetegner den kloke er evnen til å se an situasjonen og utøve skjønn, sier den greske filosofen Aristoteles. Alle kan følge regler, men det er bare den kloke som vet hvordan regelen bør anvendes og når det er riktig å gjøre unntak fra den. Og kan en robot programmeres til å utøve skjønn? Kanskje, men det er først når det er en realitet at vi med rette kan snakke om roboter med moral.

Anne Rose Røsbak Feragen