Annonse
00:00 - 01. februar 2019

Maskinens dom over liv og død

Motstanden mot drapsroboter øker. Men hvorfor oppleves autonome drapsroboter som mer uetiske enn våpen styrt av mennesker? 

Dødelig autonomi: Igjen og igjen viser forskning at kunstig intelligens forskjellsbehandler mennesker. Hva betyr slik upålitelighet for drapsrobotens valg av hvem som skal dø? Bildet viser et automatisk våpen utstilt på en messe i Washington D.C. i 2011. Foto: Bloomberg / Getty Images
Annonse

Kunstig intelligens er tatt i bruk på nesten alle samfunnsområder. Datamaskiner tar flere og flere avgjørelser som direkte berører mennesker, enten det er en medisinsk diagnose, en risikovurdering i rettsvesenet, en avgjørelse om hvilke nyheter du får se eller en beslutning om å ta et liv. 

Konferansen Artificial Intelligence, Ethics and Society (Aies19) har sesjoner om spørsmål som spenner fra «algoritmisk rettferdighet» til «autonomi og dødelighet». Innledningsforedraget ble holdt av jussprofessor Ryan Calo, og handlet om betydningen av hvordan vi snakker om kunstig intelligens. Hvis forskning på kunstig intelligens er et «kappløp», kan vi ende opp med en helt annen samfunnsdebatt og politikk enn om vi tenker på forskning på kunstig intelligens som et globalt samarbeid. Calo ønsker brede, systematiske endringer, men mange av de andre forskerne tok opp enkeltspørsmål.

Er det for eksempel verre å bli drept av en robot enn av et menneske? Organisasjonen Campaign to Stop Killer Robots jobber for å forby våpensystemer som uten menneskelig styring velger ut og angriper andre mennesker. En internasjonal meningsmåling viste nylig at et flertall støtter et slikt forbud, og at motstanden mot drapsroboter øker. Men hvorfor oppleves autonome drapsroboter som mer uetiske enn våpen styrt av mennesker? 

ALLEREDE ABONNENT?
Kjøp abonnement
Inntil 50 % rabatt
Hold deg oppdatert på politikk, kultur og forskning. Du får alt stoffet som er i papiravisen, egne saker kun på nett, eAvis og hele arkivet med over 50 000 artikler.
Annonse