Skal maskiner få bestemme over liv og død?

Autonome våpen kalles ofte for drapsroboter. De kan se forskjell på sivile og soldater, og selv bestemme når de skal skyte. Teknologien er bare noen tiår unna.

I fremtiden kan vi få autonome våpen som selv gjenkjenner en ettersøkt terrorist, og tar avgjørelsen om å skyte – uten at mennesker er involvert. Her er en drapsrobot fra filmen "Terminator Genisys". Foto: United International Pictures

12. november 2015 ble den britiske IS-terroristen «Jihad John» drept av en drone i byen Raqqa i Syria. «Jihad John», eller Mohammed Emwazi som han egentlig het, var mannen som hadde henrettet flere vestlige journalister og hjelpearbeidere for åpent kamera, blant dem den amerikanske journalisten James Foley.

I operasjonen som tok livet av Emwazi, var det en droneoperatør som avfyrte Hellfire-raketten som dronen var utstyrt med.

I fremtiden kan vi få autonome våpen som selv gjenkjenner en ettersøkt terrorist, og tar avgjørelsen om å skyte – uten at mennesker er involvert.  

– Når systemet selv kan velge ut mål og avfyre, får man et helt ormebol av problemstillinger. Slike systemer finnes ikke i dag, men det er sannsynlig at de vil finnes i nær fremtid, kanskje om 15-25 år.

Forsker Andreas Brekke Carlsson. (Foto: Olaf Christensen)

Det sier Andreas Brekke Carlsson, som er forsker ved ConceptLab som er tilknyttet institutt for filosofi, idé- og kunsthistorie og klassiske språk (IFIKK). Han er også sekretær i Etisk råd for forsvarssektoren, hvor han jobber med krigsetikk knyttet til bruk av droner og autonome våpen.

– Når slike våpen først kommer, vil utviklingen gå svært raskt. Det er derfor viktig å være i forkant og tenke gjennom de ulike sidene ved maskiner som selv kan ta beslutninger om liv og død.

Det store spørsmålet er om maskiner virkelig vil kunne klare å se forskjell på sivile og stridende – og i hvilken grad de vil gjøre feil.

– I krigføring har vi to viktige prinsipper som vil være avgjørende. Det ene er at sivile aldri kan være direkte mål - de kan være følgetap, men ikke direkte mål. Det andre er proporsjonalitetsprinsippet – hvis du bomber et militært mål, så må det være rimelig samsvar mellom viktigheten av det militære målet og antallet sivile tap. Det store spørsmålet når det gjelder autonome våpen, er om teknologien er egnet til å respektere de to prinsippene, sier Carlsson. 

Menneske eller maskin?

Med andre ord: vil en maskin kunne ta en like god avgjørelse som et menneske?

– Hvis en fiendtlig soldat ønsker å overgi seg, så er vedkommende ikke lenger et lovlig mål. Teknologien skal være ganske avansert før den klarer å skille mellom en som løfter hendene i været og en som løfter et våpen. Vi kan heller ikke bruke autonome våpen før de er like gode til å ta slike avgjørelser som mennesker, kanskje til og med bedre. Og det er bare et spørsmål om tid før teknologien blir god nok, sier forskeren.

Men hva om maskiner viser seg å være mer egnet til å ta liv og død-avgjørelser enn mennesker? Det er også noe vi er nødt til å se for oss, mener Brekke Carlsson.

– Autonome våpen vil ikke plages av de psykologiske mekanismene som driver mennesker, slik som frykt, redsel, hevnlyst og sinne. Noen mener derfor at maskiner faktisk kan være bedre egnet til å ta slike avgjørelser, sier Carlsson.

Kan senke terskelen for krig

Et annet spørsmål er om autonome våpen senker terskelen for å gå til krig.  

– I USA er det slik at «boots on the ground», altså bruk av bakkestyrker må godkjennes i kongressen, mens rene bombetokt eller droneangrep ikke er underlagt den samme formen for demokratisk kontroll.

Det som bekymrer forskeren, er at droner og autonome våpen kan svekke den politiske debatten om krigføring.

– Mye av debatten oppstår når man får egne soldater hjem i kister. Da blir krigen reell for sivilbefolkningen på en annen måte. Hvis man ikke lider egne tap, vil man ofte ikke bry seg i tilstrekkelig grad. Da er det en fare for at debatten forsvinner helt, mener Brekke Carlsson.

– Så kan man jo spørre seg om egne tap er det aller viktigste spørsmålet vi skal drøfte i en politisk debatt om deltagelse i krig – hovedfokuset burde være på sivilbefolkningen, utdyper han.

I noen tilfeller kan det være en fordel at droner og autonome våpen gjør det lettere å gripe inn. Det avhenger av hva slags type krig det er snakk om.

– I situasjoner hvor det er snakk om en humanitær intervensjon, så kan bruk av droner eller autonome våpen gjøre at man kan gripe inn i situasjoner der de politiske kostnadene ellers vil være for høye, sier Brekke Carlsson.

– I slike tilfeller er det logisk å anta at terskelen for droneangrep vil senkes, mens det er uklart om terskelen for en reell krig senkes. For å okkupere et land trenger du soldater på bakken. Samtidig kan man også se for seg at en bruk av droner vil være problematisk fordi ting kan eskalere.

Hvem har ansvaret?

En hovedinnvending mot autonome våpen, er spørsmålet om ansvar.  

La oss anta at autonome våpen vil være like gode til å skille sivile fra stridende som mennesker. Likevel vil det skje feil, og uskyldige vil bli drept. Hvem er det da som skal holdes ansvarlige når den type feil skjer? Er det produsenten? Kanskje ikke, sier Brekke Carlsson. Dette er kompliserte teknologiske systemer, der det oppstår feil som ikke nødvendigvis kan ledes tilbake til en enkeltperson.

– Hvis det faktisk er slik at autonome våpen over tid leder til bedre resultater enn mennesker, så er det ikke åpenbart at beslutningstagerne er ansvarlige å ha benyttet seg av teknologien. Politikere vil gjerne hevde at hvis slike våpen faktisk fører til færre feil, så er man berettiget til å bruke denne typen våpen. Det som er åpenbart, er at maskinene selv ikke kan holdes ansvarlige. Vi får et ansvarsgap, sier Brekke Carlsson.

For at internasjonale domstoler eller myndigheter skal holde produsenten ansvarlig, så må de velge ut noen som skal holdes ansvarlige for at produsentene skal passe enda bedre på når slike våpen produseres. På den måten kan myndigheter og internasjonale domstoler holde folk objektivt ansvarlige, selv om det ikke er åpenbart at noen vil være moralsk ansvarlige når slike feil oppstår.

– Vi har den samme typen problemstillinger med autonome biler. Hvis en autonom bil holder på å kollidere, skal den da kjøre av veien og ta livet av sjåføren, eller skal den kjøre inn i en skoleklasse? Dette er en helt typisk etisk problemstilling, som blir enda mer ubehagelig når vi snakker om våpensystemer som kan drepe sivile eller soldater.

Utviklingen av autonome våpen bekymrer mange. Flere land ønsker at slike våpen skal forbys, og kjente størrelser som Stephen Hawking og Elon Musk har også engasjert seg mot utviklingen av slike våpen.

Ifølge Andreas Brekke Carlsson er det ikke sikkert at autonome våpen vil bli en realitet.

– Selv om vi teknologisk har muligheten, er det ikke sikkert vi ser dem på slagmarken. Det er ikke alle våpen som brukes selv om vi har kapasiteten. Det som nok vil skje, er at det vil komme en utvikling mot stadig større grad av autonomi, med glidende overganger mellom de forskjellige formene for autonomi, tror forskeren.

Av Toril Haugen
Publisert 22. des. 2017 15:00 - Sist endret 15. jan. 2018 15:36