HCSS
  • News
    • BNR | De Strateeg
    • Columns
    • Draghi Report Series
    • Events
    • Podcasts
  • Publications
    • Publications
      • All Publications
    • Defence & Security
      • Behavioural Influencing in the Military Domain
      • (Nuclear) Deterrence and Arms Control
      • Hybrid Threats
      • Rethinking Fire and Manoeuvre
      • Robotic and Autonomous Systems
      • Strategic Monitor Dutch Police
      • Transnational Organised Crime
    • Geopolitics & Geo-economics
      • China in a Changing World Order
      • Europe in a Changing World Order
      • Europe in the Indo-Pacific
      • Knowledge base on Russia (RuBase)
      • PROGRESS / Strategic Monitor
      • Transatlantic Relations
    • Climate, Energy, Materials & Food
      • Climate and Security
        • International Military Council on Climate and Security (IMCCS)
        • Water, Peace & Security (WPS)
      • Critical Minerals
      • Energy Security
        • Tank Storage in Transition
      • Food Security
    • Strategic Technologies
      • Cyber Policy & Resilience
        • Global Commission on the Stability of Cyberspace (GCSC)
      • Emerging Technologies
      • Global Commission on Responsible Artificial Intelligence in the Military Domain (GC REAIM)
      • Semiconductors
      • Space
  • Dashboards
    • Dashboards
      • All Dashboards
        • GINA
    • Defence & Security
      • DAMON | Disturbances and Aggression Monitor
      • GINA | Military
      • Nuclear Timeline
    • Geopolitics & Geo-economics
      • Dutch Foreign Relations Index
      • GINA | Diplomatic
      • GINA | Economic
      • GINA | Information
    • Climate, Energy, Materials & Food
      • Agrifood Monitor
      • CRM Dashboard
    • Strategic Technologies
      • Cyber Arms Watch
      • Cyber Comparator
      • Cyber Norms Observatory
      • Cyber Transparency
  • Services
    • HCSS Boardroom
    • HCSS Datalab
    • HCSS Socio-Political Instability Survey
    • Strategic Capability Gaming
    • Studio HCSS
    • Indo-Dutch Cyber Security School 2024
    • Southern Africa-Netherlands Cyber Security School 2025
  • NATO Summit
  • GC REAIM
    • GC REAIM | Members
    • GC REAIM | Conferences
    • GC REAIM | Partners, Sponsors, Supporters
  • About HCSS
    • Contact Us
    • Our People
    • Funding & Transparency
    • Partners & Clients
    • HCSS Newsletter
    • HCSS Internship Programme
    • Press & Media Inquiries
    • Working at HCSS
    • Global Futures Foundation
  • Click to open the search input field Click to open the search input field Search
  • Menu Menu

News

Militär Aktuell | Interview with AI expert Sofia Romansky

February 21, 2025
Militär Aktuell recently took part in the Paris Action Summit on Artificial Intelligence (February 10-11), a high-profile event organized by the French Ministry of Foreign Affairs. On the fringes of the summit, the renowned École Supérieure de Guerre provided an opportunity to talk to Sofia Romansky, strategic analyst at The Hague Centre for Strategic Studies and project coordinator of the Global Commission on Responsible AI in the Military Domain.

(See below for a German version of this interview)

Sofia Romansky conducted a comprehensive investigation into the military use of information during the first seven months of the Russian invasion of Ukraine in 2022. She also wrote a study on the protection of European AI innovations to prevent their use in China’s military development.

Ms Romansky, at the Action Summit there was often talk of AI tools that can replace human actors in certain applications. How exactly is that to be understood?

Currently, most of the AI models we work with or talk about are geared towards a specific task or a clearly defined area of application.

So tasks such as target tracking, identification or decision support?

Exactly. AI tools are providing increasingly precise and relevant recommendations – that is their purpose.

But now it is being said that supervision, i.e. management, could also be taken over by AI tools?

Yes, because these systems can perform several tasks simultaneously and benefit from specialized, singularly operating AI systems. We then speak of so-called agents.

So you coordinate what happens on several levels?

Yes, they make decisions about how the subordinate systems are managed. The result is a kind of pyramid-shaped structure.

But without humans at the helm? Isn’t their knowledge based on machine learning and what human operators tell them?

It’s a combination. You can involve people who check the results of the agents, or you can let them act autonomously – under the supervision of higher AI instances. Both are possible. This development is now coming to the fore.

And your role is to regulate this or at least give governments guidance on what they need to look out for?

We set standards and principles to define the framework for responsible AI – not in the form of hard regulations, but as guidelines. The question is: What is responsible AI? It must reliably fulfill certain tasks. Only when the associated standards are met can states and users use it safely.

And whoever does not adhere to these parameters is operating in a gray area?

Exactly. For example, there is a view that certain AI systems are inherently illegal due to their unpredictability. However, a certain degree of predictability is required in the military sector in particular. If a system is too unpredictable, its use could violate international humanitarian law. This is one of the central questions we are dealing with.

Source: Militär Aktuell, 18 february 2025

KI Expertin Sofia Romansky im Interview

Militär Aktuell nahm kürzlich am Pariser Aktionsgipfel zur Künstlichen Intelligenz (10. – 11. Februar) teil, einer hochkarätigen Veranstaltung des französischen Außenministeriums. Am Rande des Gipfels bot sich an der renommierten École Supérieure de Guerre die Gelegenheit zum Gespräch mit Sofia Romansky, strategische Analystin am The Hague Centre for Strategic Studies und Projektkoordinatorin der Global Commission on Responsible AI in the Military Domain (GC REAIM).

Sofia Romansky führte 2022 eine umfassende Untersuchung zur militärischen Nutzung von Informationen während der ersten sieben Monate der russischen Invasion in der Ukraine durch. Zudem verfasste sie eine Studie zum Schutz europäischer KI-Innovationen, um deren Nutzung in Chinas militärischer Entwicklung zu verhindern.

Frau Romansky, auf dem Aktionsgipfel war oft von KI-Tools die Rede, die in bestimmten Anwendungen menschliche Akteure ersetzen können. Wie genau ist das zu verstehen?

Derzeit sind die meisten KI-Modelle, mit denen wir arbeiten oder über die wir sprechen, auf eine spezifische Aufgabe oder einen klar definierten Anwendungsbereich ausgerichtet.

Also Aufgaben wie Zielverfolgung, Identifikation oder Entscheidungsunterstützung?

Genau. Dabei geben die KI-Tools zunehmend präzisere und relevantere Empfehlungen – das ist ihr Zweck.

Aber nun heißt es, dass auch die Supervision, also die Führung, von KI-Tools übernommen werden könnte?

Ja, weil diese Systeme mehrere Aufgaben gleichzeitig ausführen können und dabei von spezialisierten, singulär arbeitenden KI-Systemen profitieren. Wir sprechen dann von sogenannten Agenten.

Sie koordinieren also, was auf mehreren Ebenen abläuft?

Ja, sie treffen Entscheidungen darüber, wie die untergeordneten Systeme verwaltet werden. Es entsteht eine Art pyramidenförmige Struktur.

Aber ohne Menschen in der Führung? Basiert ihr Wissen denn nicht auf maschinellem Lernen und dem, was ihnen menschliche Betreiber vorgeben?

Es ist eine Kombination. Man kann Menschen einbinden, die die Ergebnisse der Agenten überprüfen, oder man lässt sie autonom agieren – unter der Aufsicht höherer KI-Instanzen. Beides ist möglich. Diese Entwicklung rückt jetzt stärker ins Licht.

Und Ihre Rolle ist es, das zu regulieren oder zumindest Regierungen Orientierung zu geben, worauf sie achten müssen?

Wir setzen Normen und Prinzipien, um den Rahmen für verantwortungsvolle KI zu definieren – nicht in Form harter Vorschriften, sondern als Leitlinien. Die Frage ist: Was ist verantwortungsvolle KI? Sie muss verlässlich bestimmte Aufgaben erfüllen. Erst wenn damit verbundene Standards erfüllt sind, können Staaten und Anwender sie sicher einsetzen.

Und wer sich nicht an diese Parameter hält, bewegt sich in einer Grauzone?

Genau. Es gibt zum Beispiel die Auffassung, dass bestimmte KI-Systeme aufgrund ihrer Unvorhersehbarkeit von Natur aus rechtswidrig sind. Gerade im militärischen Bereich braucht es aber ein gewisses Maß an Vorhersehbarkeit. Wenn ein System zu unberechenbar ist, könnte seine Nutzung gegen humanitäres Völkerrecht verstoßen. Das ist eine der zentralen Fragen, mit denen wir uns beschäftigen.

Source: Militär Aktuell, 18 February 2025

  • Share on Facebook
  • Share on X
  • Share on WhatsApp
  • Share on LinkedIn
  • Share by Mail

Experts

Sofia Romansky

Related News

Related Content

Looking back at the AI Action Summit with Sofia Romansky
Intern to Analyst: Sofia Romansky
Sofia Romansky | AI Action Summit – Military Talks

Office Address

  • The Hague Centre for Strategic Studies
  • Lange Voorhout 1
  • 2514 EA The Hague
  • The Netherlands

Contact Us

  • Telephone: +31(70) 318 48 40
  • E-mail: info@hcss.nl
  • IBAN NL10INGB0666328730
  • BIC INGBNL2A
  • VAT NL.8101.32.436.B01
  • Contact

Legal & Privacy

  • Disclaimer & Privacy
  • Algemene Voorwaarden (NL) 
  • Terms & Conditions (ENG) 
  • Coordinated Vulnerability Disclosure
  • Ethical Standards
  • Manual for Responsible Use of AI

Follow us

© The Hague Centre for Strategic Studies
    Link to: De Alliantie: Drie jaar oorlog in Oekraïne – Wat wil Poetin? (deel 2) Link to: De Alliantie: Drie jaar oorlog in Oekraïne – Wat wil Poetin? (deel 2) De Alliantie: Drie jaar oorlog in Oekraïne – Wat wil Poetin? (deel 2... Link to: De Alliantie: Drie jaar oorlog in Oekraïne – Het machteloze Europa (deel 3) Link to: De Alliantie: Drie jaar oorlog in Oekraïne – Het machteloze Europa (deel 3) De Alliantie: Drie jaar oorlog in Oekraïne – Het machteloze Europa (deel...
    Scroll to top Scroll to top Scroll to top

    GDPR Consent

    Your privacy is important to us. Here you can set which consent you are allowing us with regards to the collection of general information, the placing of cookies of the collection of personal information. You can click 'Forget my settings' at the bottom of this form to revoke all given consents.

    Privacy policy | Close
    Settings

    GDPR Consent Settings

    Your privacy is important to us. Here you can set which consent you are allowing us with regards to the collection of general information, the placing of cookies of the collection of personal information. You can click 'Forget my settings' at the bottom of this form to revoke all given consents.

    Website statistics collect anonymized information about how the site is used. This information is used to optimize the website and to ensure an optimal user experience.

    View details

    Functional cookies are used to ensure the website works properly and are neccessary to make the site function. These cookies do not collect any personal data.  

    View details
    Forget my settings Deleted!