HCSS
  • News
    • BNR | De Strateeg
    • Columns
    • Draghi Report Series
    • Events
    • Podcasts
  • Publications
    • Publications
      • All Publications
    • Defence & Security
      • Behavioural Influencing in the Military Domain
      • (Nuclear) Deterrence and Arms Control
      • Hybrid Threats
      • Rethinking Fire and Manoeuvre
      • Robotic and Autonomous Systems
      • Strategic Monitor Dutch Police
      • Transnational Organised Crime
    • Geopolitics & Geo-economics
      • China in a Changing World Order
      • Europe in a Changing World Order
      • Europe in the Indo-Pacific
      • Knowledge base on Russia (RuBase)
      • PROGRESS / Strategic Monitor
      • Transatlantic Relations
    • Climate, Energy, Materials & Food
      • Climate and Security
        • International Military Council on Climate and Security (IMCCS)
        • Water, Peace & Security (WPS)
      • Critical Minerals
      • Energy Security
        • Tank Storage in Transition
      • Food Security
    • Strategic Technologies
      • Cyber Policy & Resilience
        • Global Commission on the Stability of Cyberspace (GCSC)
      • Emerging Technologies
      • Global Commission on Responsible Artificial Intelligence in the Military Domain (GC REAIM)
      • Semiconductors
      • Space
  • Dashboards
    • Dashboards
      • All Dashboards
        • GINA
    • Defence & Security
      • DAMON | Disturbances and Aggression Monitor
      • GINA | Military
      • Nuclear Timeline
    • Geopolitics & Geo-economics
      • Dutch Foreign Relations Index
      • GINA | Diplomatic
      • GINA | Economic
      • GINA | Information
    • Climate, Energy, Materials & Food
      • Agrifood Monitor
      • CRM Dashboard
    • Strategic Technologies
      • Cyber Arms Watch
      • Cyber Comparator
      • Cyber Norms Observatory
      • Cyber Transparency
  • Services
    • HCSS Boardroom
    • HCSS Datalab
    • HCSS Socio-Political Instability Survey
    • Strategic Capability Gaming
    • Studio HCSS
    • Indo-Dutch Cyber Security School 2024
    • Southern Africa-Netherlands Cyber Security School 2025
  • NATO Summit
  • GC REAIM
    • GC REAIM | Members
    • GC REAIM | Conferences
    • GC REAIM | Partners, Sponsors, Supporters
  • About HCSS
    • Contact Us
    • Our People
    • Funding & Transparency
    • Partners & Clients
    • HCSS Newsletter
    • HCSS Internship Programme
    • Press & Media Inquiries
    • Working at HCSS
    • Global Futures Foundation
  • Click to open the search input field Click to open the search input field Search
  • Menu Menu

News

Esther Chavannes over autonome wapens in RD: Defensie is en blijft mensenwerk

April 20, 2020

Gaan robots beslissen over leven en dood? Defensie is en blijft mensenwerk, zegt HCSS strategisch analist Esther Chavannes in het Reformatorisch Dagblad. De kans dat je te maken krijgt met uitvallende elektriciteit en gehackte banken is vele malen groter dan dat je door een autonoom wapen wordt aangevallen.

Er bestaat nog steeds geen internationaal geaccepteerde definitie voor autonome wapensystemen. Onderzoeker Merel Ekelhof omschreef ze in vakblad Militaire Spectator als „offensieve wapensystemen die na activering, zonder menselijke controle, doelwitten kunnen selecteren en uitschakelen.” Een autonoom wapen zal dus na activering volledig zelfstandig kunnen handelen, licht Homan toe. Een mens kan dan niet meer ingrijpen om de aanval te stoppen.

Ook zogeheten ”human-supervised” autonome wapens horen hierbij, stelt Esther Chavannes, strategisch analist bij The Hague Centre for Strategic Studies (HCSS). „Dat zijn wapensystemen die zelfstandig functioneren, maar waarbij mensen nog kunnen ingrijpen.”

Toch maken mensen zich hier zorgen over, weet Chavannes. „Dergelijke wapens gelden technisch gezien nog niet als autonoom – het systeem opereert volgens vooraf ingeprogrammeerde regels en ‘denkt’ zelf niet. Maar het kan tijdens een specifieke missie wel zelfstandig besluiten om een mens te doden, zonder dat een mens dit besluit nog hoeft te bekrachtigen.”

„Maar als iemand alleen in het laatste stadium voor de aanval nog even op een knop mag drukken, is er eigenlijk al geen sprake meer van menselijke controle”, vindt Chavannes. Grootmachten, zoals de VS, Rusland en China zouden dergelijke wapens graag willen ontwikkelen. „Nu hoeft een mens niet elk stapje dat een autonoom systeem uitvoert te bevatten. Maar hij moet wel begrijpen wat het systeem zal doen binnen de kaders die hij vooraf heeft vastgesteld.”

Zo moet de mens bij de inzet van autonome wapens afwegingen kunnen blijven maken binnen het humanitair oorlogsrecht. Een autonoom wapen kan niet beoordelen of er een groot risico bestaat op onbedoelde nevenschade, zoals burgerdoden. Een mens wel. Chavannes: „Als je dus ethisch en rechtmatig wilt handelen, moeten de afwegingskaders en de doelen van de missie in handen van mensen zijn.”

Ze merkt op dat het oorlogsrecht strikt, maar ook tamelijk vaag is geformuleerd. „Dit is zowel een vloek als een zegen. Een vloek omdat landen die het aan hun laars willen lappen daar relatief makkelijk een verhaal bij kunnen verzinnen; ze schuiven het bijvoorbeeld op militaire noodzaak. De zegen van de vaagheid van het oorlogsrecht is dat het niet uitmaakt welke wapens of uitvindingen er worden ingezet.”

Maar is het moreel en ethisch verantwoord om autonome wapens zelfstandig te laten beslissen over leven en dood? Chavannes vindt dit een lastige vraag. „De hoofddiscussie is eigenlijk: Vind je dat de beslissing rondom leven of dood altijd alleen door mensen mag worden genomen? Of vind je het ethischer dat er in conflictgebieden sowieso minder doden vallen, onafhankelijk of mensen of machines delen van de missie uitvoeren?”

De strategisch analist denkt dat het verantwoord kan zijn om dergelijke beslissingen over te laten aan autonome wapensystemen, zolang ze voorspelbaar handelen binnen ethische kaders en het internationaal recht. „Maar in de praktijk weet ik niet of dit zal kunnen. Mensen zijn namelijk vindingrijk en kunnen zich gemakkelijk aanpassen aan veranderende omstandigheden; zo creatief zie ik machines nog niet snel worden. Defensie is en blijft mensenwerk, al wordt de uitvoering van bepaalde taken naar machines overgeheveld.”

De echte oorlog vechten de grootmachten momenteel onder de radar uit, vervolgt Chavannes. „Met cyberaanvallen en digitale spionage. De kans dat een Nederlander te maken krijgt met uitvallende elektriciteit en gehackte banken is vele malen groter dan dat hij door een autonoom wapen wordt aangevallen.”

Autonome systemen kunnen zeker nuttig zijn om bijvoorbeeld gewonden van het slagveld te halen, inlichtingen te vergaren en te analyseren. „Maar in hoeverre wapensystemen onderscheid kunnen maken tussen burgers en strijders?” Chavannes zou het niet weten. „Om een pijnlijk voorbeeld te noemen: westerse mogendheden hebben nu al grote moeite om een ziekenhuis te onderscheiden van een gebouw dat terroristische strijders als basis gebruiken; zeker als terroristen hier om propagandadoeleinden bewust misbruik van maken. Laat staan dat een autonoom wapensysteem dat onderscheid zou kunnen maken. Ik denk daarom dat goed functionerende autonome wapens er voorlopig niet zullen komen.”

Lees het hele artikel van Bart van den Dikkenberg terug bij Reformatorisch Dagblad.

Esther Chavannes is binnenkort ook te gast in podcast De Strateeg op BNR Nieuwsradio.

  • Share on Facebook
  • Share on X
  • Share on WhatsApp
  • Share on LinkedIn
  • Share by Mail

Experts

Related News

Related Content

Militaire Courant | Robots en Autonome Systemen bij Defensie
Waar blijft het geld voor defensie?
BNR Big Five | Patrick Bolder: ‘Welke rol kunnen autonome wapens spelen in de oorlog?’

Office Address

  • The Hague Centre for Strategic Studies
  • Lange Voorhout 1
  • 2514 EA The Hague
  • The Netherlands

Contact Us

  • Telephone: +31(70) 318 48 40
  • E-mail: info@hcss.nl
  • IBAN NL10INGB0666328730
  • BIC INGBNL2A
  • VAT NL.8101.32.436.B01
  • Contact

Legal & Privacy

  • Disclaimer & Privacy
  • Algemene Voorwaarden (NL) 
  • Terms & Conditions (ENG) 
  • Coordinated Vulnerability Disclosure
  • Ethical Standards
  • Manual for Responsible Use of AI

Follow us

© The Hague Centre for Strategic Studies
    Link to: Column: Globalisering is een feit, geen keuze Link to: Column: Globalisering is een feit, geen keuze Column: Globalisering is een feit, geen keuze Link to: Prijs voor een vat Amerikaanse olie negatief: ‘Ongelooflijk en ongekend’ Link to: Prijs voor een vat Amerikaanse olie negatief: ‘Ongelooflijk en ongekend’ Prijs voor een vat Amerikaanse olie negatief: ‘Ongelooflijk en ongeke...
    Scroll to top Scroll to top Scroll to top

    GDPR Consent

    Your privacy is important to us. Here you can set which consent you are allowing us with regards to the collection of general information, the placing of cookies of the collection of personal information. You can click 'Forget my settings' at the bottom of this form to revoke all given consents.

    Privacy policy | Close
    Settings

    GDPR Consent Settings

    Your privacy is important to us. Here you can set which consent you are allowing us with regards to the collection of general information, the placing of cookies of the collection of personal information. You can click 'Forget my settings' at the bottom of this form to revoke all given consents.

    Website statistics collect anonymized information about how the site is used. This information is used to optimize the website and to ensure an optimal user experience.

    View details

    Functional cookies are used to ensure the website works properly and are neccessary to make the site function. These cookies do not collect any personal data.  

    View details
    Forget my settings Deleted!