Annonse
11:15 - 16. juni 2019

Giv akt! Robotene er i anmarsj

Hvem holdes ansvarlig når en robot drar i avtrekkeren? Dagens militære strukturer og internasjonale lover må fornyes når kunstig intelligens inntar krigføring.

En Uran-9 militær robot vises frem under en militærparade i Moskva. Foto: Wang Xiujun / China News Service / VCG / Getty Images
Annonse

Den første var kruttet. Den andre var atomvåpen. Nå står vi overfor det mange kaller den tredje revolusjonen i krigføring – dødelige autonome våpen.

Utviklingen av kunstig intelligens er gjennomgripende i samfunnet. Våpenindustrien og militæret er naturligvis ikke uberørt. I motsetning til tidligere våpenrevolusjoner eskalerer ikke bare det dødelige potensialet med dagens teknologiutvikling. Nå blir våpen autonome, og tar selv avgjørelser om å skyte.

Forskere verden over bekymrer seg for ånden man har sluppet ut av flasken ved å la kunstig intelligens styre våpen. I 2015 advarte Stephen Hawking, Bill Gates og Elon Musk sammen med andre forskere og teknologiutviklere mot utviklingen av kunstig intelligens. Nylig har også norske forskere og universitetsledere tatt til orde i et opprop mot dødelige autonome våpen.

Autonome våpen kan ta mange former. Et eksempel er små helikopterdroner som ligner dagens leker. Disse kan utrustes med sprengladninger, og styres av kunstig intelligens som velger mål ut ifra ansiktsgjenkjenning. Grunnteknologien eksisterer alt og er tilgjengelig, den må bare kobles sammen. Det er særlig derfor fagfolkene bak oppropene, brevene og kampanjene uroer seg. De foreslår et internasjonalt forbud mot fult autonome offensive våpen. Personlig mener jeg opprop har begrenset påvirkningskraft. Men jeg er ikke i tvil om at verden trenger nye konvensjoner som regulerer denne typen våpen.

Nå blir våpen autonome, og tar selv avgjørelser om å skyte.

Militært finnes mange fordeler med robotisering og autonomisering av soldaters oppgaver. Lærende soldatmaskiner vil reagere raskere, kunne være mer presise og skåne sivile. De rammes ikke av posttraumatisk stress og risikoen for å måtte ofre egne soldaters liv reduseres. Billigere våpensystemer betyr at forsvarsbudsjettene kan effektiviseres.

Den globale maktbalansen gjør at et internasjonalt forbud er lite realistisk. USA, Frankrike, Russland og Storbritannia er blant de land som har stilt seg tvilende til et slikt forslag. Vi må uansett forberede oss på problemstillingene som følger med denne utviklingen. De etiske og juridiske problemstillingene er radikalt annerledes enn ved konvensjonell krigføring. Hvem har ansvar for handlingene til tenkende våpen? Og hvem har den militære kontrollen over kunstig intelligens i våpensystemene?

I dag håndterer den militære kommandokjeden, lover og konvensjoner fordeling av ansvar, byrder og skyld. Haagkonvensjonene underbygger politisk kontroll og demokratisk innsyn med militæret. Kunstig intelligente våpen er disruptive ved at de endrer ansvarsforholdene i militære operasjoner.

Matematiker Cathy O’Neil omtaler ordinære algoritmer som «weapons of math destruction». Hun sikter til at algoritmer kan skrives på en slik måte at programmererens motiver skjules. Selv for eksperter kan det være vanskelig å forstå hvordan en vanlig algoritme fatter beslutninger. Når ordinære algoritmer er utfordrende, er selvlærende algoritmer enda mer komplekse.

Selvlærende algoritmer i kunstig intelligens øker mulighetene for å skjule informasjon og forhindre innsikt. Selv ikke forskere og programmerere som utvikler særlig komplisert kunstig intelligens, kan forklare hvordan den resonnerer og lærer. Dette er naturligvis intensjonen, ellers ville menneskelig kapasitet vært til hinder for kunstig læring. Like fullt betyr det mindre muligheter for innsyn i og forståelse av systemer som bruker kunstig intelligens. Særlig for oss uten spisskompetanse om algoritmer.

Mindre innsyn og kontroll er problematisk for bruken av samfunnets ytterste maktmidler. Militært medfører kunstig intelligens utfordringer for kommandokjeden når det gjelder ansvar og politisk kontroll. Kan en offiser stilles til rette for handlingene til et selvtenkende våpen? Hvordan skal man ettergå militære avgjørelser tatt av kunstig intelligens når vi ikke kjenner eller forstår hvordan kunstig intelligente våpensystemer fatter beslutninger? Dagens etablerte linjer og konvensjoner er ikke skrevet for roboter.

På nasjonalt nivå og i samarbeid med allierte i Nato må vi ha klare linjer for ansvar. Dagens kommandolinjer håndterer ikke morgendagens utfordringer. Et internasjonalt forbud mot dødelige autonome våpen virker ikke realistisk så vi må forfølge andre spor. Derfor må politikere og militære beslutningstagere revidere lover og konvensjoner som regulerer militære i strid. Internasjonale regelverk som Haagkonvensjonene må omfatte kunstig intelligens. Vi må være proaktive, og til slikt arbeid trengs den skarpeste kompetansen.

 

Du har nå lest en gratis smakebit fra Morgenbladet. Vil du ha mer godt lesestoff? Vi har inntil 40 prosent rabatt for nye abonnenter. Bli abonnent
Annonse

«Det kan se ut som om skolen ignorerer betydningen av sansemotorisk aktivitet.»
«Hellands tilnærming vil gjøre det forkastelig å kritisere en ideologi som ufornuftig.»
«Kommentatoren har falt i motsatt grøft.»
«Jeg har ikke satt spørsmålstegn ved Jesus Alcalás generelle rett til å publisere.»
«Kanskje det hadde gjort seg med litt større oppmerksomhet i klasserommet?»