Het verbod op killer-robots is begonnen in Genève


stm.com.tr

Zwitserland loopt voorop op het gebied van robotica en kunstmatige intelligentie, twee onderzoeksgebieden waarvan de bevindingen voor zowel civiele als militaire doeleinden kunnen worden gebruikt, maar waarover geen internationaal toezicht bestaat.

Deze inhoud is gepubliceerd op 23 juni 2022 – 09:45

Volgens een rapportExterne link De Verenigde Naties, de Libische regering gebruikte de Kargu-2 quadcopter tijdens de burgeroorlog in maart 2020. Deze drone joeg een menselijk doelwit achterna zonder het commando te krijgen. Voor het eerst werd een autonoom dodelijk wapen – een moordrobot – gebruikt.

Deze wapensystemen, ontwikkeld met behulp van robotica en kunstmatige intelligentie (AI), vereisen geen menselijke tussenkomst. Autonome drones zijn bijvoorbeeld geprogrammeerd om naar een specifieke locatie te vliegen, een object te kiezen en een doelwit te elimineren, zonder dat ze door een mens worden bestuurd. Het Libische incident bewijst dat killer robots onafhankelijk kunnen handelen. In tegenstelling tot massavernietigingswapens, is er geen specifiek verdrag of regime dat deze wapens en technologieën internationaal verbiedt of verbiedt.

Wat is de controle van massavernietigingswapens?

Massavernietigingswapens zijn wapens met een grotere vernietigende kracht dan conventionele wapens. Deze omvatten nucleaire, biologische en chemische wapens (ABC-wapens). Deze zijn in staat om in zeer korte tijd een groot aantal mensen te doden en het milieu te vernietigen.

Voor massavernietigingswapens zijn er ontwapenings- en non-proliferatieverdragen die bindend zijn in het internationaal recht. Onder hen: het Verdrag inzake de niet-verspreiding van kernwapens, het Verdrag inzake biologische wapens of die over chemische wapens. Het heeft tot doel de verspreiding van kernwapens en het verbieden van biologische en chemische wapens over de hele wereld te voorkomen.

Er zijn ook vier politiek bindende multilaterale regimes waaronder deelnemende landen hun exportcontroles uitbreiden en harmoniseren: de Nuclear Suppliers Group (NSG), de Australia Group (AG), de Missiles (MTCR) en het Wassenaar Arrangement (WA). Zwitserland doet mee aan de vier.

Bron: SECOExterne link

invoer einde

Over de vraag of dit al dan niet als een gebrek moet worden aangemerkt, verschillen de meningen. In antwoord op een vraag van swissinfo.ch antwoordde het Federale Ministerie van Buitenlandse Zaken (FDFA) dat het IHR van toepassing is op alle wapens en technologieën, inclusief nieuwe soorten wapensystemen zoals autonome systemen. “Er zijn dus geen mazen in het gebruik van robots, kunstmatige intelligentie en andere digitale technologieën in gewapende conflicten.”

Maar deze visie wordt niet unaniem gedeeld binnen de internationale gemeenschap. “Sommige landen vinden dat de huidige wetgeving niet voldoende is”, zegt Laura Brun, een expert op het gebied van nieuwe militaire en veiligheidstechnologieën bij het Stockholm International Peace Research Institute. Het internationaal humanitair recht is zeker van toepassing op alle soorten wapens, maar het gebruik van AI-gestuurde militaire technologieën is geen expliciet doel. De deskundige is van mening dat er, afhankelijk van hoe de wet wordt geïnterpreteerd, een normatieve leegte kan bestaan.

Laura Brun voegt eraan toe dat de EU- of UNESCO-regels over ethisch gebruik van AI betrekking hebben op zowel civiele als niet-militaire toepassingen. Met de vooruitgang in nieuwe technologieën zoals kunstmatige intelligentie, wordt het steeds moeilijker om onderscheid te maken tussen civiel en militair potentieel voor vooruitgang. Bovendien zijn deze technologieën heel gemakkelijk te verspreiden – bijvoorbeeld via e-mail of open source in het geval van AI-software – wat de regelgeving en het toezicht verder bemoeilijkt.

Elisabeth Hofberger Biban, een veiligheidsonderzoeker en internationaal juridisch expert bij het Duitse Instituut voor Internationaal en Veiligheidsbeleid in Berlijn, zegt.

Hopeloze ontmoetingen in Genève

Een mogelijk verbod op autonome wapensystemen is sinds 2017 onderwerp van onderhandelingen bij de Verenigde Naties in Genève. Zwitserland steunt het principe van deze onderhandelingen, want hoewel het tegen een alomvattend verbod is, blijft het voorstander van regulering, controle en beperking. Vorig jaar heeft de Zwitserse missie bij de Verenigde Naties een voorstel ingediendExterne link Regel dodelijke autonome wapens en sluit je aan bij de groep landen die aandringen op juridisch bindende maatregelen.

Maar het gaat niet vooruit: Rusland verwerpt bijna elk voorstel om zich te organiseren. Het heeft zelfs de laatste onderhandelingsronde in maart geboycot vanwege de oorlog in Oekraïne. Maar Israël, de Verenigde Staten, Turkije, Groot-Brittannië en Zuid-Korea willen nietExterne link Geen bindende regelgeving meer voor autonome wapensystemen, omdat ze vinden dat het IHR voldoende is voor verantwoord gebruik.

De laatste vergadering van de VN-commissie zal in juli plaatsvinden. Specialisten verwachten geen significante vooruitgang. Landen spreken nu al in verhulde bewoordingen over het mislukken van de onderhandelingen in Genève. In antwoord op een vraag van swissinfo.ch merkte de FDFA ook op dat er momenteel geen overeenkomst is tussen staten met betrekking tot een internationaal instrument.

“Het is mogelijk dat niet alle staten het proces van Genève willen blijven steunen, omdat het het simpelweg niet waard is”, zegt Elizabeth Hofberger-Beiben. Je zou dus verwachten dat je op zoek gaat naar alternatieve instanties om te onderhandelen over de regels voor autonome wapensystemen.

Waarom willen landen niet verbieden?

Als Zwitserland, zoals de meeste landen, geen volledig verbod op autonome wapens wil, is dat om economische en diplomatieke redenen, legt Stephen Herzog van het Centrum voor Veiligheidsstudies van het Zwitserse Federale Instituut voor Technologie in Zürich (ETHZ) uit. Zwitserland vreest dat zijn export wordt aangetast. Het land loopt inderdaad voorop bij de wereldwijde vooruitgang op het gebied van robotica en kunstmatige intelligentie.

Elizabeth Hofberger Beeben begrijpt deze angst maar gedeeltelijk. Op dit moment gaat het in de eerste plaats om het reguleren van het gebruik van autonome wapensystemen op het niveau van internationaal recht, en niet om exportcontrole, zoals de onderzoeker uitlegt. Maar volgens haar is de angst van veel landen dat een algemeen verbod onderzoek op dit gebied zal veroorzaken terecht: “Investeerders kunnen zich afvragen: wat heeft het voor zin om het geld uit te geven als de resulterende uitvindingen niet worden gebruikt”? Het is een echte uitdaging, vooral voor de Verenigde Staten, maar ook voor vele andere grote militaire machten.

De VS stellen dat autonome wapens eerst moeten worden getest voordat ze worden verboden. Op die manier zou kunnen worden bepaald of het daadwerkelijk mogelijk is om deze wapens goed in te zetten. Sommige landen zijn zelfs van mening dat autonome wapens voordelen hebben: voor de kant die deze wapens bezit, kunnen het dodental en de personeelskosten worden verlaagd.


Voorbeeld van levensreddend gebruik: De robot ontwapent een etalagepop met nep-explosieven op haar borst tijdens een oefening van de Duitse recherche in Baden-Württemberg. Keystone / Marijan Murad

De Zwitserse regering was ook tegen een algemeen verbod in 2017Externe link om soortgelijke redenen. Volgens Bern bestaat het gevaar dat potentieel voordelige systemen, zoals systemen die het voorkomen van nevenschade aan de bevolking mogelijk maken, worden voorkomen. Daarom moeten volgens Laura Brun discussies over de regulering van civiele en militaire toepassingen hand in hand gaan. “Erkennen dat de grens tussen deze twee toepassingen steeds vager wordt, zou de eerste stap zijn in de richting van controle over de technologie.”

Elisabeth Hofberger-Beiben merkt een paradigmaverschuiving op met betrekking tot drones: hoewel ze eerder zwaar werden bekritiseerd, worden ze internationaal steeds meer geaccepteerd, zelfs door de bevolking. In de oorlog in Oekraïne maakten Oekraïense troepen bijvoorbeeld uitgebreid gebruik van civiele drones en militaire drones, waardoor ze een onverwacht voordeel kregen tegen Rusland. Toegegeven, het gebruik van drones in de strijd tegen terrorisme blijft een zeer gevoelig onderwerp op juridisch en ethisch vlak, en de Russische agressieoorlog in Oekraïne is slechts gedeeltelijk vergelijkbaar, maar we zien aan dit voorbeeld dat drones niet altijd door de samenleving worden verbannen. Ook kunnen er mogelijkheden zijn voor oordeelkundig gebruik van grotendeels zelfstandig opererende wapensystemen.

Elisabeth Hofberger Beiban legt uit dat “tijden veranderen en leiden tot de modernisering van het leger en dus tot een beter begrip van technologieën.” Het is dus goed mogelijk dat de publieke opinie ook evolueert naar autonome wapens.

Wat is een product voor tweeërlei gebruik?

Wanneer producten of technologieën voor zowel civiele als militaire doeleinden kunnen worden gebruikt, spreekt men van dual use. Probleem: Een uitvinding als kernenergie kan enerzijds de mensheid civiele voordelen opleveren in de vorm van kerncentrales (hoewel ook controversieel) of medische behandelingen, en anderzijds ook levens vernietigen in de vorm van bommen. Een volledig verbod op deze technologie en onderzoek op dit gebied is zinloos, maar een verantwoorde aanpak is noodzakelijk.

Het Akkoord van Wassenaar is een unie van landen die tot doel heeft de destabiliserende accumulatie van conventionele wapens en de inbreng van goederen voor tweeërlei gebruik te voorkomen.

Bron: SECOExterne link

invoer einde

Volgens JTI-normen

Volgens JTI-normen

Meer: SWI swissinfo.ch Gecertificeerd door de Trust in the Press

Leave a Comment