Met de grootschalige wapenleveranties aan Oekraïne laait ook de discussie op over raketten en vliegtuigjes die tijdens een oorlog autonoom opereren op basis van artificiële intelligentie (AI). Afgelopen week was er een internationale conferentie over in Den Haag.
„Het is een misverstand dat AI iets zou zijn van de 21ste eeuw”, zegt dr. Tim Sweijs van denktank HCSS. „Onderzoek ernaar vindt al plaats sinds de jaren vijftig. Het laatste decennium is de ontwikkeling in een stroomversnelling terecht gekomen.
Algoritmen
AI probeert machines te laten denken en handelen als een mens. Zij stelt een systeem in staat om grote hoeveelheden data te verwerken en door middel van mathematische algoritmen een taak uit te voeren.
Voor de programmering van wapensystemen worden al sinds de jaren tachtig algoritmen gebruikt, onder meer voor semiautonome luchtverdediging. „Een raket wordt gezien door de radar en vervolgens kan het die automatisch uit de lucht schieten, zoals bijvoorbeeld het Patriot-systeem”, vertelt de oorlogsdeskundige. „Dit gebeurt op basis van AI.”
Vliegtuigjes
De techniek wordt nu ook aangewend voor aanvallen met onbemande vliegtuigjes. In Oekraïne gebeurt dit met drones die onbemand navigeren maar het bevel om te vuren nog krijgen van iemand op de grond.
Het is wachten op het moment dat er in deze oorlog door de Russen en Oekraïners volledig zelfstandige vliegtuigjes op pad worden gestuurd. „Die kunnen zes uur boven een strijdgewoel hangen en als ze een tank zien vuren”, aldus dr. Sweijs. „In de burgeroorlog in Libië werd er volgens een VN-rapport al zo’n wapen ingezet.”
Rebellengeneraal
Hij doelt op de Turkse Kargu. Deze drone kan op basis van algoritmen, die zijn getraind door combinaties van data, tanks en andere militaire voertuigen herkennen en vernietigen. In 2020 viel een exemplaar op eigen houtje de troepen van rebellengeneraal Khalifa Haftar aan.
Aanval
Over het verantwoordelijk gebruik van AI in oorlog, inclusief de voor- en nadelen van dit soort dodelijke, autonome wapensystemen (LAWS) ging de conferentie in Den Haag. „Met behulp van artificiële intelligentie kan bijvoorbeeld sneller worden geanticipeerd op een vijandelijke aanval en kan die zelfs worden voorkomen.”
Catastrofe
Maar er zitten ook fundamenteel negatieve aspecten aan het gebruik van militaire AI: „Oorlog, hoe vreselijk ook, is het werk van mensen. De beslissing over de inzet van dodelijke wapens willen we niet overlaten aan machines. En dan is er natuurlijk ook het risico dat een autonome drone een onschuldig doel kiest door fouten of hiaten in de algoritmen. De catastrofe is dan niet te overzien.”
Toezicht
Om dit te voorkomen zou je internationaal kunnen afspreken dat een luchtafweersysteem of onbemand vliegtuigje niet volledig autonoom mag opereren en dat er altijd menselijk toezicht op dient te zijn. Maar zie dat bij elke raket die wordt afgeschoten maar eens te controleren. Toch wil de VN een internationaal wettelijk kader maar leden als VS, China, Rusland en Israël blokkeren dat.
Buskruit
„De techniek schrijdt voort, ook in wapensystemen”, aldus de HCSS-deskundige. „Dezelfde discussie zag je eerder bij de introductie van buskruit of tanks. De komende jaren dienen we niet alleen nieuwe technologie maar ook nieuwe normen te ontwikkelen om het gebruik van AI te reguleren.”