Wenn über KI gesprochen wird, kommen meist Themen wie Bilderkennung/-klassifizierung, Automatisierungen und Verarbeitung von sehr großen Datenmengen vor. Es wird von autonomen Systemen und selbstfahrende Automobile gesprochen. Dazu Algorithmen, die uns ermüdende und sich wiederholende Arbeit abnehmen, damit sich der Mensch wieder auf seine Kreativität besinnen kann. Was sehr selten zur Sprache kommt, sind militärische Einsatzgebiete. Dass die Armeen dieser Welt bereits unbemannte Drohnen besitzen und benutzen, ist Alltag geworden. Aber sind wir ehrlich: Die Dinger muss doch kein Soldat mehr fernsteuern. Ein Flugzeug automatisiert in der Luft zu halten, Ziele zu suchen und per Bildanalyse das Ziel als Angriffsziel identifizieren? Das ist 2019 kein Hexenwerk. Praktischer Nebeneffekt: Es wird kein Mensch mehr mit der Tötung eines Menschen belastet! Das übernimmt die Maschine. Die Frage, die zurückbleibt, ist: Wer steht über wem? Eine Maschine entscheidet über das Leben eines Menschen. Auf welcher Grundlage, welche Trainingsdaten? Wie wird mit False Positives umgegangen? Moralisch ist es auf jeden Fall verwerflich und hochgradig unethisch.
Der jährliche Bericht von PAX for Peace listet diese Gefahren auf. Neben den „Big Five“ der Rüstungsindustrie (Lockheed Martin, Boeing, Raytheon, Northrop Grumman und BAE Systems), mischen Unternehmen wie Amazon, Microsoft, Oracle und Palantir in dem Geschäft mit. Logisch, liegt dort doch einiges an Geld, gerade wenn es Krisenzeiten gibt.
Wer glaubt, die modernen Algorithmen werden nur friedlich eingesetzt ist naiv. Ein dystopisches Szenario hat das Future of Life Institute 2017 in einem fiktiven Kurzfilm skizziert. Heute 2019 sind wir schon so weit, dass diese Fiktion real werden kann. Selbst die Bundeswehr, die derzeit nur über einige wenige funktionierende herkömmliche Jets verfügt, mischt in diesem Gebiete mit. Dass es auch anders geht, zeigen wieder einmal die Niederländer: Sie drängen Hersteller dazu, sich öffentlich zu verpflichten, nicht an diesen Techniken mit zu arbeiten.
Eines ist klar: Jeder, der an KI-/ML-/DL-Systemen oder -Produkten arbeitet, sollte immer die Ethik und den Menschen als erstes Bedenken. Es ist und bleibt wie bei jedem technischen Fortschritt: Der Missbrauch und militärische Einsatz verhilft zu relativen schnellen Entwicklungssprüngen. So war es bei der Atomspaltung und so wird es bei der KI ebenfalls sein. Denn der Mensch lernt langsamer als die Technik sich verbessert. Leider.
Kommentare