Juni 2025
Content Hub: Ethische Reflexion durch Künstliche Intelligenz?
In der Ukraine und in Gaza wird Künstliche Intelligenz bereits aktiv von militärischen Akteur:innen zur Kriegsführung eingesetzt und getestet. Angesichts autonomer Waffensysteme stellt sich in der Forschung die Frage: Ist KI Vorrecht des Militärs? Nein! So die Antwort einer Forschungsgruppe der Eidgenössischen Technischen Hochschule (ETH) Zürich. Dort arbeitet ein Team aus Informatiker:innen und Politikwissenschaftler:innen im Auftrag der Vereinten Nationen (UNO) an einem System, das mit Hilfe von KI Indikatoren für Gewaltausbrüche erkennen kann. Ziel des Forschungsteams: Die Voraussage gewaltsamer Konflikte, um die Friedensmissionen der weltweit 90.000 Blauhelme zu unterstützen. „Je besser die Informationslage, je vorausschauender die Lageanalysen, desto besser können die Blauhelme arbeiten“, so folgert Andreas Wenger, Professor für Sicherheitspolitik.
Gefüttert wird die KI mit Krisen der Vergangenheit. Aus Medien- und UN-Berichten soll die KI Muster erfassen, anhand derer eine Eskalation nachgezeichnet und auf zukünftige Szenarien übertragen werden kann. So aggregierte und gefilterte Daten können für Entscheidungen nützlich sein. Blauhelme werden Erfahrungen rückmelden und zusätzliche Datensätze schaffen. Konflikte sind menschengemacht – und müssen von ihnen beigelegt werden.
- Kann ein Algorithmus im Konflikt moralisch kalkulieren? Ethik und digitale Operationalisierung im Feld der Kindeswohlgefährdung:
https://hfph.de/forschung/drittmittelprojekte/kaimo - Kann künstliche Intelligenz ethisch korrekte Entscheidungen treffen?:
https://analytics-agentur.ch/2023/05/kann-kuenstliche-intelligenz-ethisch-korrekte-entscheidungen-treffen/
[letzter Abruf aller Links: 28.11.2024]
*Prompt: A futuristic human sized robot interacts with a white dove in a modern abstract room with turquise to yellow gradient. Human retouch: Korrektur fehlerhaft generierter Roboterfinger, Entfernen fehlerhaft generierter Kabel, Entfernen von störender Mauer im Raum.