KI und Krieg – Wann entgleitet den Menschen die Kontrolle über die Waffensysteme?

Autoren: Karl Hans Bläsius/ Klaus Moegling, zuerst veröffentlicht in Telepolis

Die meisten KI-Anwendungen sind positiv und haben zu einer Verbesserung der menschlichen Lebensqualität geführt. In Zusammenhang mit militärischen Anwendungen können aber erhebliche Gefahren entstehen, bis hin zu einem Kontrollverlust.

Die Welt entfernt sich zunehmend von Immanuel Kants Ideen

Immanuel Kant, der in diesem Jahr 2024 300 Jahre alt geworden wäre, formulierte 1795 in seiner Schrift ‚Zum Ewigen Frieden‘ grundlegende Überlegungen zu einer internationalen Friedenspolitik, die in einem Gegensatz zu der heutigen Realität zunehmend militärisch ausgetragener Konflikte stehen. Kant forderte hingegen die Überwindung des kriegerischen Zustands der Menschheit zugunsten einer bewussten Friedensstiftung:

„Der Friedenszustand unter Menschen, die neben einander leben, ist kein Naturstand (status naturalis), der vielmehr ein Zustand des Krieges ist, d.i. wenn gleich nicht immer ein Ausbruch der Feindseligkeiten, doch immerwährende Bedrohung mit denselben. Er muß also gestiftet werden; (…)“[1]

Kant vertrat die Auffassung, dass republikanisch strukturierte Staaten eher zu Frieden als zu Krieg neigen würden und forderte einen internationalen Friedensbund als Voraussetzung der Beendigung aller Kriege. Dann würde sich zeigen, „daß doch die Vernunft, vom Throne der höchsten moralisch gesetzgebenden Gewalt herab, den Krieg als Rechtsgang schlechterdings verdammt, den Friedenszustand dagegen zur unmittelbaren Pflicht macht, welcher doch, ohne einen Vertrag der Völker unter sich, nicht gestiftet oder gesichert werden kann: – so muß es einen Bund von besonderer Art geben, den man den Friedensbund (foedus pacificum) nennen kann, der vom Friedensvertrag (pactum pacis) darin unterschieden sein würde, daß dieser bloß einen Krieg, jener aber alle Kriege auf immer zu endigen suchte.“[2]

Was aber bedeutet diese legitime Anforderung an eine international zu organisierende und zu institutionalisierende Friedensstiftung in der aktuellen globalen Entwicklungssituation und unter dem Einfluss einer sich dynamisierenden Weiterentwicklung von KI im Internet? Algorithmen, Internet und Künstliche Intelligenz waren für Kant unbekannte und unvorstellbare Phänomene. Liegt der friedenspolitische Königsweg daher noch in Friedensverträgen und Friedensbünden? Welchen Einfluss müssten ggf. Die Vereinten Nationen auf die KI-Entwicklung in den einzelnen Staaten nehmen?

Skizzierung weltweiter globaler Großkonflikte

Derzeit befinden sich viele Regionen und Staaten miteinander in einem mit militärischen Mitteln ausgetragenen Großkonflikt oder kurz vor einem Krieg. Militärische Interventionen verdrängen zunehmend diplomatische und zivile Konfliktlösungen. Insbesondere im Nahen Osten im Krieg zwischen Israel und der Hamas unterstützt vom Iran, im Krieg zwischen der Russischen Föderation und der Ukraine bzw. dem westlichen Lager und insbesondere den USA, der bedrohlichen Lage zwischen der VR China und Taiwan/unterstützt von den USA und der Verwerfung diplomatischer Aktivitäten und der nuklearen Bedrohung im Konflikt zwischen Nord- und Südkorea ist bei weiterer Eskalation das Potenzial eines 3. Weltkriegs mit der Option eines Einsatzes von Atomwaffen angelegt. Bei allen genannten Krisensituationen sind Nuklearmächte beteiligt, die im Falle von Nordkorea und der Russischen Föderation sogar ganz offen mit dem Einsatz von Atomwaffen drohen.

Gleichzeitig befinden wir uns in einem Zustand der Vereinten Nationen, die durch eine gezielte Schwächung der UN gekennzeichnet ist. Die Struktur der UN, insbesondere das Veto-Recht der fünf ständigen Mitglieder im UN-Sicherheitsrat und die relative Machtlosigkeit der UN-Generalsversammlung, führen zu einer institutionellen Hilflosigkeit der UN bei gegenwärtigen Konflikten.[3]

Inzwischen kommt allerdings eine die Gesamtsituation verschärfende Problematik hinzu, auf die weder die UN noch die EU oder die nationale Politik vorbereitet sind: Die Entwicklung und der Einsatz von Künstlicher Intelligenz im Zusammenhang mit modernisierten Waffensystemen.

Folgen globaler Großkonflikte: ungebremster Rüstungswettlauf, auch bzgl. Software

Eine auf Konfrontation statt auf Zusammenarbeit ausgerichtete Politik zwischen den großen Industrienationen und Militärmächten wird einen ungebremsten Rüstungswettlauf befeuern. Dies gilt auch für softwarebasierte Waffen, wie Cyber- und autonome Waffen. Bei einem Konfrontationskurs der großen Nationen wird niemand das Risiko eingehen, in den technologisch wichtigen Bereichen Cyberraum und Künstliche Intelligenz (KI) den Konkurrenten hinterher zu hinken. Die Softwareentwicklung auf diesen Gebieten kann völlig unkontrolliert und im Verborgenen ablaufen. Keine der Nationen kann wissen, welche Fähigkeiten ein Gegner bereits hat und welche in kurzer Zeit erreichbar sein werden. Deshalb muss jede Seite allergrößte Anstrengungen aufnehmen, um mithalten zu können. Ein Rüstungswettlauf im Bereich KI könnte deutlich schneller als erwartet zu äußerst gefährlichen militärischen Produkten führen, die kaum noch beherrschbar sind. Die Wahrscheinlichkeit nimmt zu, dass der Zeitpunkt der Möglichkeit einer international koordinierten und verantwortlichen Kontrolle von KI in Waffensystemen im Zuge des Rüstungswettlaufs bereits überschritten ist oder kurz davor steht, überschritten zu werden.

Bei üblichen Waffensystemen sind Rüstungskontrolle und Verifikation möglich. Flugzeuge, Schiffe, Panzer und Atomwaffen können gezählt werden. Bei Cyberwaffen und KI-basierten Waffen geht es indessen um Software. Softwaresysteme haben spezielle Merkmale, für die eine Rüstungskontrolle und die Verifikation von Vereinbarungen kaum realisierbar sind. Ein Staat wird kaum zulassen, dass bzgl. Verifikation von Rüstungskontrollvereinbarungen Mitarbeiter eines gegnerischen Staates Einblick in die eigene Software erhalten. Das Risiko wäre zu hoch, dass damit der Gegner eine Kopie dieser Software erhalten könnte. Des Weiteren wäre eine Überprüfung der möglichen Funktionalitäten sehr aufwendig und könnte Jahre dauern, währenddessen die Software ohnehin weiterentwickelt würde.

Es ist völlig unkalkulierbar, was in Zukunft hinsichtlich softwarebasierter Waffen auf uns zukommt.

Abrüstungsvereinbarungen bezogen auf Software werden kaum möglich sein. Bei Software sind beliebig viele Kopien in kurzer Zeit herstellbar und entsprechend beliebig oft anwendbar. Einmal entwickelte Software für autonome Waffen wird immer erhalten bleiben.

KI in Waffensystemen

Große Fortschritte im Gebiet „Künstliche Intelligenz“ haben auch zu entsprechenden Fortschritten in der Militärtechnik geführt. Insbesondere können selbständig agierende Roboter oder Drohnen auch für militärische Zwecke eingesetzt werden. Auf der Basis einer automatischen Bilderkennung mit guter Objektklassifikation können feindliche Ziele automatisch identifiziert und attackiert werden. Für Autonomie in Waffensystemen gibt es ein großes Anwendungsspektrum. Viele Arten von Waffen können mit immer mehr Autonomie versehen werden. Dies betrifft Roboter, Fahrzeuge, Flugobjekte und auch Schiffe oder U-Boote. In solchen Systemen können Menschen durch KI-Komponenten ersetzt werden. Dies kann ähnlich wie beim Autonomen Fahren auch schrittweise erfolgen. Unsere modernen Autos enthalten schon viele autonome Funktionen bis hin zum völlig autonomen Fahren, wobei aus rechtlichen Gründen aber ein Mensch noch jederzeit eingreifen können muss. Denn im Straßenverkehr werden Unfälle von autonomen Fahrzeugen noch nicht toleriert. In Kriegssituationen kann das anders sein, Kollateralschäden werden eher in Kauf genommen. Auch weniger gut ausgereifte autonome Funktionen könnten hier zum Einsatz kommen. Damit steigt das Risiko, dass solche Systeme in Kriegszeiten auch eingesetzt werden.

Bei der modernen Kriegsführung geht es nicht nur um Waffen, sondern auch um einen zunehmenden Einsatz von KI bei der Aufklärung, der Bestimmung von Lagebildern des Gegners und der eigenen Streitkräfte sowie bei der Planung von Aktionen. Auch im Ukraine-Krieg wird KI-basierte Software für diese Zwecke eingesetzt.[4]

Auch Entscheidungen, die die Auswahl von Zielen betreffen, werden zunehmend von Maschinen getroffen. Im Gaza-Krieg setzt Israel KI-Systeme ein, um Angriffsziele zu bestimmen. Diese Systeme liefern erheblich mehr Ziele mit genauen Ortsangaben von Mitgliedern der Hamas, als das durch Geheimdienstinformationen möglich wäre.[5]

In Waffensystemen der Zukunft wird die Angriffskette, die sogenannte „Kill-Chain“ zeitlich reduziert, eventuell auf wenige Sekunden. Diese Angriffskette beschreibt den Prozess von der Beobachtung, der Identifikation von Zielen, der Planung und Entscheidung bis zur Durchführung einer Aktion. In all diesen Phasen kann KI eingesetzt werden und damit den gesamten Entscheidungsprozess zeitlich soweit verkürzen, dass Menschen kaum noch eingreifen können. Auch wenn in der Politik immer wieder betont wird, dass letztendlich die Entscheidung über den tödlichen Einsatz einer Waffe bei einem Menschen bleiben muss („man in the loop“), wird dieses Prinzip teilweise bereits in Frage gestellt. In Situationen, in denen eine Maschine erkennt, dass das Leben eines Soldaten bedroht ist, müsse diese auch selbständig über einen Waffeneinsatz entscheiden können, falls die Einbeziehung eines Menschen zu lange dauern würde.[6]

Lahl und Varwick argumentieren ähnlich: „Die formale Kompetenz ist das eine, die tatsächliche Eingriffschance das andere. Je komplexer ein kollektiver Verbund teilautonomer Waffensysteme ist, desto unmöglicher wird es dem kontrollierenden Menschen, die ‚Black Box‘ zu durchschauen und Fehler oder Manipulation zu erkennen – also die von Algorithmen gelieferten Ergebnisse nachzuvollziehen, zu bewerten und notfalls auch zu korrigieren. In hochintensiven Lagen unter extremem Zeitdruck reduziert sich seine Rolle dann de facto auf eine Scheinkontrolle.“[7]

Die Forderungen Menschen in der Entscheidungskette zu belassen mit der Möglichkeit gegebene Situationen mit hinreichender Sicherheit bewerten zu können („Meaningful Human Control“), wird in den meisten Fällen nicht realisierbar sein. Bei der Verwendung von Neuronalen Netzen sind Entscheidungen der Maschine eh nicht nachvollziehbar. Auch bei der Verwendung von symbolischer KI würden Entscheidungen der Maschine in der Regel nicht im Sinne von IF-THEN-ELSE-Verzweigungen in einem Entscheidungsbaum erfolgen, was eventuell relativ einfach nachvollziehbar wäre. Stattdessen basieren Entscheidungen auf Hunderten von Merkmalen, die unsicher und vage sind und mit irgendwelchen Formeln verrechnet werden. Eine einfache Kontrolle wird hierbei nicht möglich sein.

Atomkriegsrisiko steigt

Ein ungebremster Rüstungswettlauf von Atommächten auf Konfrontationskurs erhöht auch das Atomkriegsrisiko in erheblichem Umfang.[8]

In den letzten Jahren hat ein neues Wettrüsten in verschiedenen militärischen Dimensionen begonnen. Die meisten dieser Entwicklungen sind noch am Anfang und die Folgen kaum kalkulierbar.  Dies gilt für neue Trägersysteme von Atomwaffen, wie etwa die Hyperschallraketen, die geplante Bewaffnung des Weltraums, Laserwaffen, den Ausbau von Cyberkriegskapazitäten und die zunehmende Anwendung von Systemen der Künstlichen Intelligenz bis hin zu autonomen Waffensystemen. Alle diese Aspekte haben auch Wechselwirkungen mit Frühwarnsystemen zur Erkennung von Angriffen mit Atomraketen und werden die Komplexität dieser Systeme deutlich erhöhen.

Die Weiterentwicklung von Waffensystemen mit höherer Treffsicherheit, verbesserter Lenkbarkeit und immer kürzeren Flugzeiten (Hyperschallraketen) wird zunehmend Techniken der Künstlichen Intelligenz (KI) erforderlich machen, um für gewisse Teilaufgaben Entscheidungen automatisch zu treffen. Es gibt im Zusammenhang mit Frühwarnsystemen bereits Forderungen, autonome KI-Systeme zu entwickeln, die vollautomatisch eine Alarmmeldung bewerten und gegebenenfalls einen Gegenschlag auslösen, da für menschliche Entscheidungen keine Zeit mehr bleibt. Die für eine Entscheidung verfügbaren Daten sind in der Regel jedoch vage, unsicher und unvollständig. Deshalb können auch KI-Systeme in solchen Situationen nicht zuverlässig entscheiden. In der kurzen verfügbaren Zeit wird es kaum möglich sein, Entscheidungen der Maschine zu überprüfen. Dem Menschen bleibt nur zu glauben, was die Maschine liefert. Aufgrund der unsicheren und unvollständigen Datengrundlage werden weder Menschen noch Maschinen in der Lage sein, Alarmmeldungen zuverlässig zu bewerten.

Nach einem Bericht der „National Security Commission on Artificial Intelligence“ der USA vom November 2019 besteht die Gefahr, dass KI-fähige Systeme bisher unverletzliche militärische Positionen verfolgen und angreifen und somit die globale strategische Stabilität und nukleare Abschreckung untergraben könnten. Staaten könnten dadurch zu einem aggressiveren Verhalten verleitet werden, was die Anreize für einen Erstschlag erhöhen könnte.  In dem Bericht werden auch Vereinbarungen zwischen USA, Russland, China und anderen Nationen vorgeschlagen, um ein Verbot für einen durch KI-Systeme autorisierten oder ausgelösten Abschuss von Atomwaffen zu erwirken.[9]

Auch der SIPRI-Bericht über die Auswirkungen der KI auf die strategische Stabilität und die nuklearen Risiken warnt vor einem zunehmenden Einsatz von autonomen oder KI-basierten Entscheidungsunterstützungssystemen, die nur scheinbar ein klares Bild in kurzer Zeit liefern. Um ein gewisses Maß an Stabilität aufrechtzuerhalten, sei ein Austausch zwischen Militärs über die jeweiligen KI-Fähigkeiten erforderlich, um das Prinzip der nuklearen Abschreckung aufrecht erhalten zu können.[10]

Unkalkulierbar sind auch potenzielle Cyberangriffe, wobei Komponenten oder Daten eines Frühwarnsystems manipuliert werden könnten, was auf vielfältige Art möglich sein kann.

KI –  gesellschaftliche Entwicklungstendenzen

Bei zivilen KI-Anwendungen gab es in den letzten Jahren einige Überraschungen, wobei unerwartete Fähigkeiten erreicht wurden, wie zuletzt mit Systemen der generativen KI, wie z.B. ChatGPT. Weltweit führende KI-Wissenschaftler und auch Chefs von großen KI-Unternehmen haben in 2023 eindringlich vor den möglichen Risiken dieser Entwicklung gewarnt. Auch eine Superintelligenz, bei der das menschliche Intelligenzniveau weit überschritten wird, wird in den nächsten Jahren für möglich gehalten.[11]

Mit Hilfe von Techniken von „deepfake“ und Systemen der generativen KI können massenhaft Texte, Bilder und Videos erzeugt werden, die vermeintliche Tatsachen vermitteln. Mit solchen Desinformationen können Menschen manipuliert und Gesellschaften destabilisiert werden. Wenn immer mehr Medieninhalte automatisch erzeugt werden, ohne Möglichkeit den Wahrheitsgehalt zu prüfen, wird politisches Handeln in demokratischen Staaten immer schwieriger. Chaos mit sozialen Verwerfungen, Aufständen und eventuell Bürgerkriege könnten die Folge sein.

Zunehmend schwieriges politisches Handeln verbunden mit immer gefährlicheren Waffensystemen, wie z.B. die Weiterentwicklung  von Hyperschallraketen und die oben beschriebene Tendenz zu KI-basierten Waffen bilden eine Mischung, die für unsere politischen Systeme unbeherrschbar wird und auch durch Missverständnisse leicht zu einer globalen Katastrophe führen kann, z.B. in Form eines Atomkriegs aus Versehen.

Forderungen

Eine Politik, die einzig auf eine wechselseitige Konfrontation zwischen dem Westen und  Russland oder China setzt, wird zur Folge haben, dass gefährliche Waffensysteme auf allen Seiten mit höchster Priorität weiterentwickelt werden, einschließlich der Einbeziehung von Techniken der KI. Die aktuellen Kriege bieten ein „ideales Testfeld“ zur Erprobung und Perfektionierung dieser militärischen Fähigkeiten. Um eine globale Katastrophe zu vermeiden, die zu einer Vernichtung der Menschheit führen könnte, muss dieser Prozess umgekehrt werden.

Die aktuellen Kriege müssen so schnell wie möglich beendet werden. Statt Waffenlieferungen in Kriegsgebiete sollte umfangreiche Diplomatie das Gebot der Stunde sein. An die Stelle eines gegenseitigen Konfrontationskurses  müssen Vertrauen, Kooperationen und gute Kommunikationskanäle wieder aufgebaut und verbessert werden. Hierbei müssen ökonomische und geostrategische Interessen der verschiedenen Seiten in Verhandlungsprozessen berücksichtigt werden.

Statt neue Hyperschallraketen in Ost und West zu stationieren sind wirksame Vereinbarungen zur Rüstungskontrolle, einschließlich nuklearer Abrüstung erforderlich. Auch weltweite Vereinbarungen zum Verbot autonomer Waffensysteme und einer Regulierung der KI werden dringend benötigt. Die Abhängigkeit von Internetdiensten sollte nicht weiter steigen. Stattdessen müssen wichtige Infrastruktursysteme, wie das Gesundheitswesen und die Stromversorgung auch ohne Internet fehlerfrei funktionieren. Auch muss sichergestellt werden, dass gefährliche Waffensysteme, wie Atomraketen, nicht über das Internet ansteuerbar sind.

Hier soll zudem die Auffassung vertreten werden, dass derartige  international anzulegende Kontrollprozesse über eine Reform der UN unterstützt werden können – Reformprozesse,  die sowohl ihre Struktur als auch den Rechtsstatus der über die UN vertretenen Menschen betreffen.[12]

Die UN sind zum einen in ihrer Wirkmächtigkeit und finanziellen Unabhängigkeit zu stärken, damit sie auch die Macht bekommen, über die notwendigen Zukunftsentscheidungen maßgeblich zu bestimmen. Gleichzeitig – und immer etwas vor der Erweiterung der Befugnisse – sind die Vereinten Nationen zu demokratisieren, um demokratische Wahlen der UN-Gremien zu gewährleisten und eine legitime und institutionell ausbalancierte Kontrolle über die Entscheidungsgremien zu bekommen.

Immanuel Kant verband seine Idee vom Frieden zudem mit einer Veränderung bzw. notwendigen Ergänzung im Staats- und Völkerrecht:

 „Da es nun mit der unter den Völkern der Erde einmal durchgängig überhand genommenen (engeren oder weiteren) Gemeinschaft so weit gekommen ist, daß die Rechtsverletzung an einem Platz der Erde an allen gefühlt wird: so ist die Idee eines Weltbürgerrechts keine phantastische und überspannte Vorstellungsart des Rechts, sondern eine notwendige Ergänzung des ungeschriebenen Kodex, sowohl des Staats- als Völkerrechts zum öffentlichen Menschenrechte (…) überhaupt, und so zum ewigen Frieden, zu dem man sich in der kontinuierlichen Annäherung zu befinden nur unter dieser Bedingung schmeicheln darf.“[13]

Gegenwärtige Initiativen zur UN-Reform und zum Weltbürgerrecht[14] müssten auch die Forderungen hinsichtlich der internationalen Kontrolle der KI in ihre Agenda aufnehmen.[15]  Dies wird dann die Chancen, die in der gesellschaftlichen Anwendung vorhanden sind, aber auch die Probleme klären müssen, die sich aus einer ungenügend kontrollierten KI-Entwicklung, insbesondere im Zusammenhang mit inter- und intragesellschaftlichen Großkonflikten, ergeben.  Es ist zu erwarten, dass es bei mächtigen Akteuren, die in den Vereinten Nationen ihre Interessen ohne Verantwortung für das Ganze vertreten wollen, erhebliche Widerstände gegen eine UN-koordinierte Kontrolle der KI-Entwicklung geben wird. Doch hier geht es um zu viel, ohne zumindest den Einsatz dafür deutlich zu erhöhen, eine verantwortliche KI-Entwicklung für die weltbürgerliche Gemeinschaft zu erreichen.

Zu den Autoren:

Prof. Dr. Karl Hans Bläsius, Informatiker mit Schwerpunkt KI, https://blaesius.net/

Prof. Dr. Klaus Moegling, Politikwissenschaftler und Soziologe, https://www.klaus-moegling.de/


[1] Kant, Immanuel: Werke in zwölf Bänden. Band 11, Frankfurt am Main 1977, S. 203.

[2] Kant, Kant: Werke in zwölf Bänden. Band 11, Frankfurt am Main 1977, aus dem Kapitel „Das Völkerrecht soll auf einen Föderalism freier Staaten gegründet sein.“, S. 210.

[3] Vgl. hierzu ausführlicher u.a. Moegling: Neuordnung. 5. aktualisierte Auflage (2024), Kapitel 1.2: Politische Krisen: Krise der UN, Rückzug der Demokratien und Wiederkehr autoritärer Herrschaftsformen. Frei lesbar in: https://www.klaus-moegling.de/aktuelle-auflage-neuordnung/

[4]    https://www.heise.de/news/Palantir-wirbt-mit-KI-Plattform-zur-Kriegsfuehrung-8981871.html

[5]    https://www.heise.de/news/100-pro-Tag-statt-50-pro-Jahr-KI-liefert-Ziele-fuer-israelische-Luftangriffe-9547241.html?wt_mc=nl.red.ho.ho-nl-newsticker.2023-12-05.link.link

[6]    Kirsten Bialdiga, Christina Kyriasoglou: Kommandosache KI, Manager Magazin, Februar 2024, Seite 40-46.

[7]    Kersten Lahl, Johannes Varwick: Sicherheitspolitik verstehen – Handlungsfelder, Kontroversen und Lösungsansätze. Wochenschauverlag, 2. Auflage, 2021, Seite 134.

[8] Vgl. auch Müller, Bernd: KI würde im Krieg Atomwaffen rasch einsetzen.  In: Telepolis, https://www.telepolis.de/features/KI-wuerde-im-Krieg-rasch-Atomwaffen-einsetzen-9624831.html

[9]    Eric Schmidt, Robert O. Work, u.a.: National Security Commission on Artificial Intelligence – Interim Report, November 2019, https://www.epic.org/foia/epic-v-ai-commission/AI-Commission-Interim-Report-Nov-2019.pdf , Seite 11 und 46

[10]   Vincent Boulanin (ed.): The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk. Sipri Report, https://www.sipri.org/sites/default/files/2019-05/sipri1905-ai-strategic-stability-nuclear-risk.pdf, 2019, Seite 50-51

[11]   Siehe z.B. https://Ki-folgen.de 

[12] Vgl. hierzu u.a. Moegling, Klaus: Neuordnung.  Kapitel 5: Neuordnung des Systems internationaler Beziehungen. 5. aktualisierte Auflage (2024), frei lesbar in: https://www.klaus-moegling.de/aktuelle-auflage-neuordnung/

[13] Kant, Immanuel: Werke in zwölf Bänden. Band 11, Frankfurt am Main 1977, aus dem Kapitel „Das Weltbürgerrecht soll auf Bedingungen der allgemeinen Hospitalität eingeschränkt sein“, S. 215.

[14] Vgl. https://www.democracywithoutborders.org/we-the-peoples/

[15] Bisherige Versuche der UN (UN-Beratungsgremium für künstliche Intelligenz) basieren nur auf unverbindlichen Empfehlungen, vgl. https://www.welt.de/debatte/kommentare/article249269132/UN-Gremium-Das-ist-noetig-um-die-KI-in-den-Griff-zu-bekommen.html.

Please follow and like us: