Experts waarschuwen dat de nieuwste AI-systemen het potentieel hebben om militaire conflicten te escaleren, meldt Politico. Sofia Romansky, strategisch analist bij het Haags Centrum voor Strategische Studies (HCSS), legt uit hoe het momenteel gebruikt wordt en welke bezwaren aan het gebruik van AI bij militaire toepassingen kleven.
Volgens Politico geloven sommige AI-wetenschappers dat het Pentagon begonnen is met het versneld incorporeren van de nieuwste AI-generaties in militaire toepassingen, dit als essentieel onderdeel van de Amerikaanse defensie. Washington zou zich daarmee willen wapenen tegen meerdere vijanden tegelijk zoals China en Rusland en tegen andere mondiale dreigingen. Om deze redenen ontwikkelt het ministerie van Defensie AI-gestuurde verdedigingssystemen, die snel autonoom worden. Romansky bedrukt dat de grootste zorg is dat onderontwikkelde en onder geteste systemen te snel worden ingezet.
Defensie in Nederland
Ook in Nederland gebruikt Defensie al geruime tijd kunstmatige intelligentie. Zo gebruikt de marine al een aantal jaren de Goalkeeper, een zogenaamd close- in wapensysteem. Dit systeem is ontworpen om inkomende raketten, vliegtuigen en andere bedreigingen uit te schakelen, die door alle eerdere lagen van de verdediging gedrongen zijn. Het is daarmee één van de laatste verdedigingsmiddelen van een marineschip. De Goalkeeper is volledig geautomatiseerd, heeft een Gatling-geweer, een zoekradar en belichtingsradar en een geavanceerd softwarepakket ontwikkeld door Holland Signaal.
Romansky geeft aan dat AI steeds vaker wordt ingezet om grote hoeveelheden data realtime te verwerken en zo tot een beter begrip van de omgeving te komen. ‘Dit kan helpen met snelle en betere beslissingen nemen, wat cruciaal is in situaties waarin snelheid het verschil kan maken tussen winnen en verliezen.’
Ethiek, legaliteit en operationele risico’s
De belangrijkste zorgen bij een te snelle inzet van AI zijn te vinden op ethisch en juridisch gebied en op dat van operationele risico’s. Ethische risico’s ontstaan wanneer AI als slimmer dan de mens wordt gezien, waardoor gebruikers eerder geneigd zijn de AI-aanbevelingen blindelings te volgen. Dit fenomeen staat ook bekend als de zogeheten automation bias. ‘Mensen vertrouwen AI soms te snel, zonder zelf verder te onderzoeken’, aldus Romansky.
Ook op juridisch gebied kleven er risico’s aan het gebruik van AI in militaire toepassingen, risico’s die in strijd kunnen zijn met het humanitair recht. Zo zet Romansky grote vraagtekens bij het vermogen van AI-systemen om contextafhankelijk besluiten te nemen. Een zelfdenkende drone die getraind is in een woestijnachtige omgeving ‘denkt’ en reageert mogelijk op een andere manier in bijvoorbeeld een stedelijke omgeving.
‘Er is veel debat over of deze principes in AI ingebouwd kunnen worden. De meerderheid denkt van niet.’ Ten slotte zijn er nog operationele risico’s die voortvloeien uit het niet goed ingeregeld zijn van de ethische en juridische aspecten. ‘Succesvolle inzet van AI hangt af van goede voorbereiding en training.’
Bezorgdheid autonome wapensystemen
De opkomst van generatieve AI – AI die op een mensachtige manier kan communiceren – maakt het onderwerp actueler. ‘In Nederland wordt GPT-achtige AI nog niet actief ingezet op het slagveld, maar het zit wel in de ontwikkelingsfase.’ Tegelijkertijd neemt de bezorgdheid over autonome wapensystemen toe. Zo wijst Romansky erop dat zwermen drones in de toekomst zelfstandig beslissingen kunnen gaan nemen, zonder tussenkomst of controle van de mens. Deze systemen zijn nu al krachtige en gevaarlijke wapens, maar zodra ze in staat zijn om zelfstadig beslissingen te nemen – bijvoorbeeld over wie of wat ze aanvallen – ontstaat het risico op volledig ongecontroleerde en onvoorspelbare geweldstoepassing. ‘Daarom moet er altijd een mens achter zitten die de uiteindelijke beslissing neemt.’
Menselijke controle blijft cruciaal
Het is essentieel dat een commandant die AI inzet voor advies over hoe hij op een crisissituatie moet reageren, begrijpt hoe AI werkt en kritisch blijft nadenken over AI-suggesties, het gaat hierbij om de AI Decision-Making Support Systems. ‘Zo is het belangrijk dat AI moet kunnen uitleggen hoe het tot een bepaalde aanbeveling komt, en welke data het daarvoor heeft gebruikt. AI moet onderbouwen waarom iets een juiste aanbeveling is. Daarnaast moeten besluiten met grote gevolgen – zoals het inzetten van nucleaire wapens – nooit volledig aan AI mogen worden overgelaten, benadrukt Romansky. ‘Een mens moet altijd de eindverantwoordelijkheid dragen.’ Toch zien sommige analisten AI als onderdeel van een internationale wapenwedloop. Grote mogendheden investeren fors in de technologie, waardoor het strategische belang ervan blijft. ‘Het is een ethisch en juridisch complex onderwerp. Maar het advies is om voorzichtig en verantwoord met AI om te gaan’.