Leben oder Tod? Im modernen Krieg entscheidet die KI

Politik

Die Bilder sind unscharf, meist zu grell oder zu dunkel. Ein menschliches Auge kann darauf nur weiße Flecken erkennen. Doch für das menschliche Auge sind diese Aufnahmen ohnehin nicht gemacht. Rund 50.000 von ihnen laufen täglich durch die Server der ukrainischen Armee, hunderte Kilometer von der Front entfernt.

Was die Soldaten dann auf ihre Bildschirme geliefert bekommen, sind klar definierte Ziele: Panzer oder Transportfahrzeug? Kampfverband oder Rettungskräfte? Eine Künstliche Intelligenz (KI) hat in Sekunden entschieden, auf wen die Verteidiger ihre Geschütze richten, wohin sie ihre Kampfdrohnen schicken.

„Kampf in Maschinengeschwindigkeit“ nennen es Militärs: Der Einsatz von KI-Modellen habe die Kriegsführung beschleunigt. „Unsere Kommandanten können das ständige Rauschen an Informationen schneller durchdringen, schneller Entscheidungen treffen“, erklärte ein US-General kürzlich recht hemdsärmelig gegenüber Bloomberg den Einsatz von Künstlicher Intelligenz an der Front, „aber die Entscheidung treffen Menschen: auf wen ich schieße und wann.“

Im vertraulichen Gespräch aber geben sich andere Militärs, die sich mit KI beschäftigen, skeptisch: Der Mensch werde zunehmend aus dem Kriegsgeschehen hinausgedrängt: Auch wenn ein Soldat letztlich die Verantwortung trage, die Grundlage seiner Entscheidungen liefere ein Algorithmus. Dessen Ergebnisse zu hinterfragen, dafür gebe es im modernen Krieg nicht mehr die Zeit: „Ich kann mich nur darauf verlassen, dass das System funktioniert.“

Hamas-Kämpfer im Visier

Die Entscheidungen, die diese Systeme treffen, gehen über das Erkennen eines Panzers weit hinaus. Es geht auch um die Auswahl menschlicher Ziele und damit um Entscheidungen über Leben und Tod.

Die Bombenangriffe der Israelis im Gazastreifen wurden von einem KI-System gesteuert, dem man den Namen „Evangelium“ gegeben hatte. Dieses hatte die Gesichter von Tausenden mutmaßlichen Hamas-Kämpfern gespeichert. Die Aufnahmen von Drohnen wurden automatisch mit dieser Datenbank verglichen. 

  König Charles bei Trump: "Historischer" Besuch und "brillante Witze"

Gab es in einer Menschenmenge oder in einem Gebäude mehrere Übereinstimmungen, wurden die als Ziel festgelegt. Weil aber die Hamas-Kämpfer selten alleine auftauchten, war klar, dass ein Angriff auch Zivilisten töten würde. Auch die Anzahl unschuldiger Opfer wurde von der Künstlichen Intelligenz einkalkuliert. Am Ende, so erfuhr die britische Zeitung Guardian von israelischen Offizieren, seien die Ziele nach einem Ampelsystem eingeteilt worden: Grünes, gelbes oder eben rotes Licht. Nur noch darauf habe die Entscheidung eines Kommandanten beruht.

„Ist das also die Rolle, die man den Menschen bei diesen Entscheidungen zubilligt?“, fragt der deutsche EU-Abgeordnete Tobias Cremer, der sich mit Fragen zur KI und der Verantwortung für ihren militärischen Einsatz beschäftigt. Das ernüchternde Resümee des Sozialdemokraten: „Wir stecken bei diesen Fragen noch in den Kinderschuhen. Es gibt nicht einmal Definitionen dafür, was menschliche Verantwortung in diesem Fall bedeutet.“

Die jüngsten Kriege in der Ukraine, aber auch im Nahen Osten haben den Einsatz von KI, vor allem aber deren Fähigkeiten dramatisch verändert. Es sei „erschreckend“, wie schnell, wie präzise, vor allem aber wie eigenständig diese Systeme bereits agierten, gestehen Militärs insgeheim ein. Außerdem würden sie, wie jede KI, ständig dazu lernen.

Jeder Angriff und dessen Auswertung liefert also neue Daten, birgt aber auch neue Risiken. Noch wisse niemand, ob diese Systeme nicht auch früher oder später versuchen würden, die Beschränkungen, die ihnen die Militärs auferlegt haben, zu umgehen.

US-Entwickler, für deren KI-Modelle sich das Pentagon interessierte, sollen über die Fähigkeiten und …read more

Source:: Kurier.at – Politik

  Zuletzt in Emiraten gemeldet: Öltanker vor Jemens Küste entführt

      

(Visited 1 times, 1 visits today)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.