
Beim Infoabend des Forum für internationale Sicherheit Heidelberg zum Thema Künstliche Intelligenz (KI) in der Außenpolitik führte die Politikwissenschaftlerin Dr. Kerstin Zettl-Schabath zunächst in die Relevanz des Forschungsthemas ein. Das besondere daran: Dr. Kerstin Zettl-Schabath ist selbst ehemaliges Mitglied des FiS. Sie betonte, dass KI längst nicht mehr nur ein technisches, sondern auch ein geopolitisches Phänomen ist, das außenpolitische Prozesse zunehmend beeinflusst.
Im Anschluss stellte sie verschiedene bisherige Anwendungen von KI in der Außenpolitik vor. Ein wichtiges Beispiel sei der Einsatz von KI in der Textverarbeitung und -optimierung, etwa zur Zusammenfassung und Priorisierung von Dokumenten, wodurch Mitarbeitende in Ministerien und internationalen Organisationen entlastet und Rückmeldungen beschleunigt werden. Auch bei den Vereinten Nationen (UN) finde KI Anwendung: Dort werden historische Daten über das Verhalten politischer Akteure genutzt, um zukünftige Szenarien und mögliche Handlungsoptionen besser zu verstehen.
Ein weiterer Bereich sind Frühwarnsysteme, etwa in Konfliktgebieten wie Syrien. KI-gestützte Systeme analysieren dort Daten zu Bombenabwürfen – beispielsweise deren Flugbahn, Geschwindigkeit und Zielort – und können so bis zu zehn Minuten vor einem Einschlag warnen. Allerdings bestehe hier die Gefahr einer trügerischen Sicherheit, wenn das System einmal versagt oder eine Bedrohung nicht erkennt.
Auch im Bereich der Verhandlungsunterstützung und Bürgerbeteiligung wird KI eingesetzt, indem Antworten von Teilnehmenden geclustert und Prioritäten herausgearbeitet werden. Zudem spielt KI eine wachsende Rolle in Cyberoperationen: Zwar gibt es derzeit noch keine vollständig automatisierten Angriffe, doch ist KI bereits ein fester Bestandteil der sogenannten „Cyberkillchain“ und unterstützt unter anderem bei sprachlichen Manipulationen in Phishing- oder Desinformationskampagnen. Schließlich wird KI auch in der Meinungsforschung eingesetzt, um gesellschaftliche Stimmungen zu bewerten und politische Trends zu erkennen.
Zettl-Schabath erläuterte anschließend die Chancen von KI in der Außenpolitik. Sie ermögliche eine deutliche Entlastung von Ministerien, Behörden und der öffentlichen Verwaltung – ein nicht zu unterschätzender Vorteil angesichts des Fachkräftemangels. Zudem könne KI Entscheidungsprozesse beschleunigen und optimieren, was zu effektiveren und schnelleren politischen Entscheidungen führe. Insbesondere für kleinere Staaten eröffne sich dadurch die Möglichkeit, ihre Interessen auf internationaler Ebene gezielter durchzusetzen.
Den Chancen stünden jedoch erhebliche Risiken gegenüber. So könne eine fehlerhafte oder voreingenommene KI sicherheitspolitische Konsequenzen haben, insbesondere wenn sie mit verzerrten Daten trainiert wurde. Deshalb müsse der Mensch stets die Kontrolle behalten. Zudem sei KI häufig eine „Blackbox“ – ihre Entscheidungslogik bleibe intransparent. Open-Source-Ansätze könnten hier helfen, mehr Nachvollziehbarkeit zu schaffen. Zettl-Schabath warnte außerdem vor der Gefahr, dass KI zum Katalysator von Repression werden könne, etwa durch Desinformation oder staatliche Überwachung. Auch die ethische Korrumpierung durch Technologien wie Deepfakes, die bereits im US-Wahlkampf eine Rolle spielten, sei ein ernstzunehmendes Problem.
Im weiteren Verlauf sprach sie über die Auswirkungen der US-Wahl und insbesondere einer möglichen Wiederwahl Donald Trumps auf die globale KI-Entwicklung. Die USA fungierten traditionell als Innovationstreiber, während China häufig als Nachahmer auftrete. Die Europäische Union hingegen werde in diesem Kontext oft belächelt, obwohl auch dort leistungsfähige Sprachmodelle entwickelt würden. Unter Trump könnte jedoch eine kleine, wirtschaftlich einflussreiche Elite – etwa um Peter Thiel, Elon Musk und David Sacks – den Kurs der US-Technologiepolitik entscheidend prägen, was auch außenpolitische Relevanz habe.
In der anschließenden Diskussion, moderiert von Vinzenz Fröhlich, wurde intensiv über die geopolitischen, regulatorischen und ethischen Dimensionen von KI gesprochen. Ein zentrales Thema war die ungleiche Machtverteilung: Länder mit fortgeschrittener KI verfügten über mehr Einfluss. Daher seien klare EU- und UN-Regelungen notwendig. Dabei wurde auf den Unterschied zwischen Demokratien und Autokratien hingewiesen: Während Demokratien über Kontrollmechanismen und Datenschutz verfügen, nutzen autokratische Staaten KI oft zur Überwachung und Machtsicherung – wie etwa China. Das daraus entstehende Spannungsfeld zwischen Freiheit und Sicherheit sei eine der großen Herausforderungen unserer Zeit.
Auch mögliche Gegenbewegungen kamen zur Sprache. NGOs und internationale Initiativen setzten sich zunehmend für Transparenz und Regulierung ein. Zugleich waren sich die Teilnehmenden einig, dass sich die Entwicklung von KI nicht zurückdrehen lasse – entscheidend sei vielmehr, ihren Nutzen verantwortungsvoll zu gestalten.
Ein weiteres Thema war die Qualitätssicherung von KI-Systemen. Da viele Modelle – etwa ChatGPT – nicht vollständig transparent seien, bleibe die Überwachung ihrer Genauigkeit ein fortlaufender Prozess. Je weniger kritisch die Anwendung, desto geringer sei häufig die Sorgfalt bei der Qualitätssicherung.
Auf die Frage, ob auch in Deutschland Frühwarnsysteme existieren, verwies Zettl-Schabath auf entsprechende Projekte bei der Bundeswehr und in der Zukunftsforschung. In der Diskussion wurde außerdem erörtert, ob KI langfristig zu einer gerechteren globalen Ordnung beitragen könne. Hier gingen die Meinungen auseinander – einige sahen in KI eine Chance für mehr Demokratie, andere befürchteten eine Stärkung autoritärer Strukturen.
Zum Abschluss wurden deutsche Akteure benannt, die im Bereich der Cybersicherheit eine wichtige Rolle spielen, darunter Internetdienstanbieter, Rechenzentren und IT-Unternehmen, insbesondere auch kleine und mittlere Betriebe. Erfolgreiche Sicherheitsstrategien entstünden häufig durch Public-Private-Partnerships.
Schließlich wurde über die staatliche Nutzung von KI diskutiert. Besonders China setze KI umfassend zur Überwachung seiner Bevölkerung ein und diene damit anderen Staaten – etwa Russland – als Vorbild, etwa im Bereich der Internetkontrolle oder beim Einsatz von Drohnen. Umgekehrt übernehme China auch Elemente russischer Cyberoperationen nach außen.
Abschließend wurde die Frage aufgeworfen, ob Unternehmen bei mangelnder staatlicher Regulierung eigene Regelwerke entwickeln könnten. Grundsätzlich sei das möglich, so Zettl-Schabath, doch könne eine wirksame Regulierung langfristig nur im Zusammenspiel von Politik und Wirtschaft gelingen.