Gaan robots beslissen over leven en dood? Defensie is en blijft mensenwerk, zegt HCSS strategisch analist Esther Chavannes in het Reformatorisch Dagblad. De kans dat je te maken krijgt met uitvallende elektriciteit en gehackte banken is vele malen groter dan dat je door een autonoom wapen wordt aangevallen.
Er bestaat nog steeds geen internationaal geaccepteerde definitie voor autonome wapensystemen. Onderzoeker Merel Ekelhof omschreef ze in vakblad Militaire Spectator als „offensieve wapensystemen die na activering, zonder menselijke controle, doelwitten kunnen selecteren en uitschakelen.” Een autonoom wapen zal dus na activering volledig zelfstandig kunnen handelen, licht Homan toe. Een mens kan dan niet meer ingrijpen om de aanval te stoppen.
Ook zogeheten ”human-supervised” autonome wapens horen hierbij, stelt Esther Chavannes, strategisch analist bij The Hague Centre for Strategic Studies (HCSS). „Dat zijn wapensystemen die zelfstandig functioneren, maar waarbij mensen nog kunnen ingrijpen.”
Toch maken mensen zich hier zorgen over, weet Chavannes. „Dergelijke wapens gelden technisch gezien nog niet als autonoom – het systeem opereert volgens vooraf ingeprogrammeerde regels en ‘denkt’ zelf niet. Maar het kan tijdens een specifieke missie wel zelfstandig besluiten om een mens te doden, zonder dat een mens dit besluit nog hoeft te bekrachtigen.”
„Maar als iemand alleen in het laatste stadium voor de aanval nog even op een knop mag drukken, is er eigenlijk al geen sprake meer van menselijke controle”, vindt Chavannes. Grootmachten, zoals de VS, Rusland en China zouden dergelijke wapens graag willen ontwikkelen. „Nu hoeft een mens niet elk stapje dat een autonoom systeem uitvoert te bevatten. Maar hij moet wel begrijpen wat het systeem zal doen binnen de kaders die hij vooraf heeft vastgesteld.”
Zo moet de mens bij de inzet van autonome wapens afwegingen kunnen blijven maken binnen het humanitair oorlogsrecht. Een autonoom wapen kan niet beoordelen of er een groot risico bestaat op onbedoelde nevenschade, zoals burgerdoden. Een mens wel. Chavannes: „Als je dus ethisch en rechtmatig wilt handelen, moeten de afwegingskaders en de doelen van de missie in handen van mensen zijn.”
Ze merkt op dat het oorlogsrecht strikt, maar ook tamelijk vaag is geformuleerd. „Dit is zowel een vloek als een zegen. Een vloek omdat landen die het aan hun laars willen lappen daar relatief makkelijk een verhaal bij kunnen verzinnen; ze schuiven het bijvoorbeeld op militaire noodzaak. De zegen van de vaagheid van het oorlogsrecht is dat het niet uitmaakt welke wapens of uitvindingen er worden ingezet.”
Maar is het moreel en ethisch verantwoord om autonome wapens zelfstandig te laten beslissen over leven en dood? Chavannes vindt dit een lastige vraag. „De hoofddiscussie is eigenlijk: Vind je dat de beslissing rondom leven of dood altijd alleen door mensen mag worden genomen? Of vind je het ethischer dat er in conflictgebieden sowieso minder doden vallen, onafhankelijk of mensen of machines delen van de missie uitvoeren?”
De strategisch analist denkt dat het verantwoord kan zijn om dergelijke beslissingen over te laten aan autonome wapensystemen, zolang ze voorspelbaar handelen binnen ethische kaders en het internationaal recht. „Maar in de praktijk weet ik niet of dit zal kunnen. Mensen zijn namelijk vindingrijk en kunnen zich gemakkelijk aanpassen aan veranderende omstandigheden; zo creatief zie ik machines nog niet snel worden. Defensie is en blijft mensenwerk, al wordt de uitvoering van bepaalde taken naar machines overgeheveld.”
De echte oorlog vechten de grootmachten momenteel onder de radar uit, vervolgt Chavannes. „Met cyberaanvallen en digitale spionage. De kans dat een Nederlander te maken krijgt met uitvallende elektriciteit en gehackte banken is vele malen groter dan dat hij door een autonoom wapen wordt aangevallen.”
Autonome systemen kunnen zeker nuttig zijn om bijvoorbeeld gewonden van het slagveld te halen, inlichtingen te vergaren en te analyseren. „Maar in hoeverre wapensystemen onderscheid kunnen maken tussen burgers en strijders?” Chavannes zou het niet weten. „Om een pijnlijk voorbeeld te noemen: westerse mogendheden hebben nu al grote moeite om een ziekenhuis te onderscheiden van een gebouw dat terroristische strijders als basis gebruiken; zeker als terroristen hier om propagandadoeleinden bewust misbruik van maken. Laat staan dat een autonoom wapensysteem dat onderscheid zou kunnen maken. Ik denk daarom dat goed functionerende autonome wapens er voorlopig niet zullen komen.”
Lees het hele artikel van Bart van den Dikkenberg terug bij Reformatorisch Dagblad.
Esther Chavannes is binnenkort ook te gast in podcast De Strateeg op BNR Nieuwsradio.