Home / Upptäck / Nedrustning / PAX: ”AI I VAPEN BEHÖVER REGLERAS I TID”

PAX: ”AI I VAPEN BEHÖVER REGLERAS I TID”

2018-09-27

Framtidsforskaren Karim Jebari ser både hot och möjligheter med artificiell intelligens. Därför måste den regleras - innan det är för sent.

Karim Jebari på Institutet för framtidsstudier ser både hot och möjligheter med artificiell intelligens. Foto; Sara Movitz

När artificiell intelligens tar kontroll över vapensystem automatiseras beslut om liv och död. Stater, forskare och ideella verkar för att reglera autonoma vapensystem innan det är för sent.

När jag träffar Karim Jebari på hans kontor på Institutet för framtidsstudier är hans whiteboardtavla fullklottrad med idéer för framtida forskningsprojekt. Verksamheten på institutet har sin grund i 1960-talets insikter om att vi som lever i dag inte bara påverkar våra egna liv utan även kommande generationer. Forskningen på institutet är tvärvetenskaplig och Karim Jebari jobbar specifikt med teknologisk utveckling och dess påverkan på mänsklighetens framtid. Två bokstäver återkommer i samtliga forskningsprojekt på tavlan, AI.

AI står för artificiell intelligens och anledningen till att det återkommer bland idéerna är för att det har en enorm potential att förändra det mänskliga tillståndet, både till det bättre och till det sämre. Enkelt förklarat är AI en typ av mjukvara som kan lära sig från erfarenheter och förändra sitt beteende utifrån sina upplevelser. AI är till exempel väldigt bra på bild­igenkänning och i framtiden finns en risk att AI kopplat till drönare självständigt kan utföra militära attacker.

– Jag tycker att det är synd att så mycket av mediebevakningen kring AI går ut på att visa upp bilder av terminator och robocop. Varför skulle någon vilja göra en gående robot? Det finns en tendens att vi distraheras av saker som man har sett på science fiction-filmer. Det stora problemet med AI är de program vi bygger in i våra försvars- och säkerhetssystem, säger Karim Jebari.

Defensiv AI

Redan i dag finns AI i defensiva vapensystem medan AI för offensiva system håller på att utvecklas. Karim Jebari ger ett exempel på hur Sovjet hade en algoritm för att förutsäga sannolikheten att USA skulle attackera Sovjet med kärnvapen. Den sovjetiska försvarsmakten letade efter indikatorer som kunde tyda på att ett angrepp var nära. En indikator som de valde att bevaka var priset på kött då man antog att amerikanerna vid ett anfall skulle nödslakta sin boskap och frysa in köttet för att ha mat för en lång tid. Sovjet satte en dator på att bevaka priset på kött på den amerikanska marknaden. Priset på kött gick in i algoritmen som användes för att besluta om man skulle avfyra kärnvapen och på så sätt hinna före amerikanerna. Det visade sig att amerikanerna inte ens hade tänkt på detta.

– Då är det skönt att den algoritmen inte hade makten att bestämma om huruvida kärnvapen skulle avfyras eller inte. Vad skönt att det fanns människor som fattade beslutet, säger Karim.

När AI integreras i vapensystem så minskar tiden mellan ett beslut och en faktisk attack. 25 gånger har världen varit minuter från ett kärnvapenkrig, men varje gång har någon individ på plats fattat ett beslut som har räddat oss. När människor byts ut mot AI försvinner möjligheten till sunt förnuft ur beslutsloopen och Karim menar att det ökar sannolikheten för krig.

Svenska Freds har länge engagerat sig för att stoppa utvecklingen av autonoma vapensystem eller så kallade killer robots, tillsammans med civilsamhällesorganisationer från 80 länder under namnet ”Campaign to Stop Killer Robots”. Men det är inte bara civilsamhället som känner oro.

FN-möte i Genève

Organisationen Future of Life har samlat flera hundra forskare från hela världen som varnar för konsekvenserna av en oreglerad utveckling av AI och i augusti i år samlade FN flera experter på området för ett möte i Genève för att utreda möjligheter till internationella överenskommelser. Det finns redan 22 stater som står bakom ett internationellt förbud mot autonoma dödliga vapen. Sverige är inte ett av de länderna. Frågan har låg prioritet, kanske för att få är insatta i vad det handlar om.
I Svenska Freds valgranskning fick partierna frågan hur de ställer sig till reglering av utvecklingen av AI kopplat till vapenindustrin. Moderaterna, Liberalerna, Vänsterpartiet, Miljöpartiet och Feministiskt Initiativ var för en reglering. Socialdemokraterna, Centerpartiet och Kristdemokraterna hänvisade till folkrätten och Sverigedemokraterna har inte tagit ställning i frågan.

Karim Jebari är tydlig med att det finns stora möjligheter med AI. På många sätt är AI överlägsen människor.

– Om du är i en kritisk situation i en bil så ska du i de flesta fallen bromsa så fort som möjligt. Människor har långsam reaktionshastighet. I de fallen gör AI alltid jobbet bättre.

Problemet är att AI inte tar hänsyn till omständigheter utan löser den uppgift som vi har gett den, oavsett om det är moraliskt rätt eller fel. Karim menar därför att det är nu vi måste bestämma på vilka sätt AI ska få användas och för vilka syften. Om tio år kan det vara för sent.

KAJSA SÖRMAN

Nätverk bestående av noder

För cirka tio år sedan var de mest användbara AI-systemen ”good old fashion AI” eller expertsystem. Den typen av AI användes till exempel för att besegra Garri Kasparov i schack. Googles sökmotor, där sökresultaten rankas, styrdes ursprungligen också av den här typen av AI. Den nya AI som vi har idag kallas för Artificiella Neurala Nätverk. Det är nätverk bestående av noder, varje nod får ett värde. Nätverken med noder är kopplade till varandra i olika lager. Det är på det här sättet som våra människohjärnor är konstruerade. Varje nod motsvarar en hjärncell som antingen tar emot eller blockerar signaler beroende på vilket värde den tilldelats. Hjärnceller är mycket mer komplicerade än noderna men i teorin är det samma struktur.

Pax nr 3 2018