Überschätzte Risiken: Skynet und Killerdrohnen

Die künstliche Intelligenz hat in den letzten Jahren rasante Fortschritte gemacht. Dahinter steckt eine Mischung aus weiter wachsenden Rechenkapazitäten, verbesserten Verfahren sowie immer mehr verfügbaren Daten, mit denen sich lernende Systeme trainieren lassen. Parallel dazu entstand das Internet der Dinge beziehungsweise das Internet of Everything – vernetzt sind nicht mehr nur klassische Computer, sondern tendenziell alles, was Energie verbraucht. Kombinieren wir beide Trends, so erhalten wir intelligente autonome Roboter – Staubsauger, Autos, Fluggeräte und so weiter.

Wo sich technischer Fortschritt zeigt, sind die Mahner nicht weit. Eine KI würde den Menschen eines Tages überflügeln und sodann auslöschen, fürchten sie, und autonome Roboter könnten uns als automatische Todesschwadronen begegnen:

Nicht alle überzeugt dieses Szenario, doch die Autoren des Films halten daran fest.

Was fällt daran auf?

  1. Das Szenario spielt mit Vorstellungen aus dem Hollywood-Kino vom Angriff der Killer* (-bienen, -tomaten, usw.) bis zu Skynet. So weit ist die KI jedoch gar nicht.
  2. Eine plausible Risikobetrachtung fehlt und vielleicht muss sie das auch, weil wir es mit epistemischen Risiken zu tun haben.
  3. Die Technik wird einseitig als Waffe in der Hand eines Gegners dargestellt. Zu welchen Szenarien kämen wir, machten wir uns diese Technik zunutze? Was, wenn die Killerdrohnenschwärme für uns auf Terroristenjagd gingen oder gar Kernwaffen unschädlich machten?
  4. Strategische und taktische Diskussionen fehlen. Für wen ergäbe so einen Drohnenschwarmangriff einen Sinn? Wie würde man sich dagegen verteidigen? Ergäbe der Angriff dann immer noch einen Sinn?
  5. Die Baseline, der Bezugsrahmen bleibt unklar. Reden wir über eine neue Form von Krieg, oder reden wir über Terror im zivilen Leben? Was genau verändern die neuen Mittel?

Das Video ist gut gemacht, aber nicht so richtig ausgegoren. Es appelliert an die Emotion, nicht an den Verstand. Diesem Appell nachzugeben, ist mir zu riskant.

P.S. (2018-02-19): Im Mittelpunkt unserer echten militärstrategischen Probleme steht weiter die gute alte Atomrakete.

P.S. (2018-04-25): Interessant wird die Sache, wenn wir über KI und Kernwaffen nachdenken und über die Logik der Abschreckung und über die Reaktionszeiten im hypothetischen Fall eines Angriffs.

8 Kommentare zu „Überschätzte Risiken: Skynet und Killerdrohnen

  1. Ich hab Ihnen schon auf LinkedIn geantwortet. Ich finde, Sie sind dreist, weil Sie sich als Fachmann ausgeben, tatsächlich aber an Hand Ihrer Aussagen einfach überführt werden können, wie limitiert Ihre Kenntnise zum Thema AI tatsächlich sind, und Sie sind in gewisser Weise gefährlich, weil Sie als Prediger mit offenkundig ideologischen Motiven Unwahrheit verkünden und sich darin kaum von US-Amerikanischen Crationisten unterscheiden, die die Evolutionstheorie leugnen.
    Hinsichtlich der autonomen Waffen gibt es selbst in der Bundesregierung, aber vorallem einhellig unter den Wissenschaftlern der Welt die Überzeugung, dass ihre EInführung die Sicherheitsarchitektur dramatisch verschieben wird und ihre EInführung zumindest sehr stark reguliert werden muss. Die ganze Diskussion am Slaughterbot-Video festmachen zu wollen, führt in die Irre. Aber das scheinen Sie ja zu wollen…

    1. KI-Fachmann ist also, wer Ihre Emotionen teilt?

      Das Regulierungs-Mem habe ich schon zum Gähnen oft gehört, nämlich bei nahezu jedem Evolutionsschritt der Technik. Die vorbeugende Regulierung auf der Grundlage vager Vorstellungen funktioniert jedoch nie; man muss die Technik erst einmal entwickeln und sich ihre Funktion und ihre Wirkungen anschauen, bevor man qualifizierte Regeln aufstellen kann.

      Das gilt sogar für Waffensysteme. Die letzten großen Sprünge – Kernwaffen und globale Einsatzfähigkeit – haben der Welt jedenfalls bis heute ganz gut getan. Wir leben jetzt friedlicher als vor hundert Jahren und halten die Vorstellung eines Feldzugs gegen Dänemark, Frankreich oder Polen für grotesk. Krieg lohnt sich nur noch im kleinen Maßstab und in entlegenen Gegenden.

      Ich lasse mich ja gerne von guten Argumenten überzeugen: Was genau macht autonome KI-Waffen schlimmer als Kalaschnikows in Kinderhänden oder ein gemächlich erodierendes Minenfeld?

  2. Die Installierung/In-Dienst-Stellung autonomer Waffensysteme gefährdet die strategsiche Stabilität, weil sie den Threshold für eine mitlitärische Auseinandersetzung – auch zwischen Großmächten – senkt. Wenn autonome Systeme erst stationiert sind, wird die Entwicklung damit nicht aufhören und wir laufen ernsthaft in Gefahr, dass AI Systeme auch in Bereichen der strategischen Kernwaffen Einzug finden, mit der geradezu zwangläufigen Konsequenz, Präventivschläge als eine realistische Option zu sehen.
    AWS können sehr viel leichter sowohl horizontal – hin in Richtung nicht-nuklearer Staaten und vertikal – hin zu nicht-staatlichen Akteuren – poliferieren. Das unterminiert die globale Sicherheit.
    Die Einführung von AWS wird – siehe 1. – ein beispielloses Wettrüsten lostreten. Eben weil die technologische Beherrschung von AI in Waffensystemen so große strategische Bedeutung hat, ist es für alle Player, die dazu prinzipiell in der Lage sind, im vitalen Interesse, immer gleichzuziehen. Das ist hemmungsloses Wettrüsten pur – und jeder weiterer „Fortschritt“ vergößert wiederum die Instabilität.
    Ein Wettrüsten um AI zwischen den geostrategischen Hauptmächten USA, Rußland, China und EU – vielleicht noch Indien – hemmt und verhindert die eigentlich dringend gebotene internationale Kooperation zur Lösung globaler Probleme, wie die des Klimawandels, Wasserversorgung, Hungereleminierung, Flüchtlingskrisen und die extrem gewachsene Ungleicheit. Wie wollen wir Sicherheit der entwickelten Nationen herstellen, wenn wir alle Ressourcen in einem sinnlosen dun gefährlichen AI-Race verballern?? Im Übrigen ist ein realistisches Szenario bei der AI-Entwicklung ein Take-Off einer Superintelligenz. Dies wird ein extrem vorsichtiges Agieren erfordern, um eine globale Katastrophe auszuschließen. Unter den Bedingungen eines AI-Races bei autonomen Waffen, werden AI-Safety-Aspekte immer eine zweitrangige Rolle spielen – was zu einer weiteren Bedrohung führen kann. Auch wenn die noch weit entfernt scheint.

    Suma Sumarum: Es gibt nicht einen vernünftigen Grund, autonome Waffensysteme nicht zu fürchten und ihre Entwicklung, Produktion und Ausbreitung möglichst umfassen einzuschränken.

    1. Wenn dieses AI-Race so sinnlos und gefährlich ist, müsste ihm eine allmächtige Super-KI nicht umgehend ein Ende bereiten?

      Aber nehmen wir versuchsweise mal an, ein Verbot autonomer Waffensysteme sei wichtig und ohne autonome Waffensysteme durchsetzbar. Was genau würden Sie dann verbieten? Schon heute kann jeder mit Hausmitteln eine autonome Waffe improvisieren, indem er zum Beispiel ein selbstfahrendes Auto mit Sprengstoff belädt und einen Auslöser bastelt. Oder indem er einen selbstfahrenden Lkw auf einen Weihnachtsmarkt lockt. Oder indem er handelsübliche modifiziert. Soll das alles mit weg oder wollen Sie nur den letzten Herstellungsschritt verbieten?

  3. Wir wissen nicht, ob es jemals eine AGI und in Folge eine Super-KI geben wird. Wir können nur nicht ausschließen – nicht mit Sicherheit ausschließen – dass es nicht dazu kommt.
    Die Voraussagen, in welchen Zeithorizonen das geschehen könnte, schwanken zwischen 12 Jahren – Ray Kurzweil – und bis Ende des Jahrhunderts. Die Mehrheit der AI Forscher in einer repräsentativen Umfrage schätzen einen Zeitraum von 2035 bis 2050 als möglichen Zeitpunkt eines s. g. Take-Offs.
    Allein schon eine nur 10%ige Wahrscheinlichkeit des Eintritts eines solchen Ereignisses sollte uns extrem beunruhigen. Würden Sie in ein Flugzeug steigen, dass mit 10%iger Wahrscheinlichkeit abstürzen wird?
    Oder anderes Beispiel: Würden heute Astronomen einen Mega-Asteroid in großer Entfernung entdecken, der sich mit einer Fehlertoleranz von 1 Mio Km auf Kollisionskurs mit der Erde befindet und voraussichtlich in 30 Jahren die Mondumlaufbahn kreuzen wird, würde die Welt nicht alles in Bewegung versetzen, um die Fehelertoleranz bei der genauen Flugbahnermittlung so schnell und so genau woe möglich einzugrenzen und zugleich an der Entwicklung von Maßnahmen arbeiten, um gegebenenfalls den Asteroiden vom Kurs abzubringen?
    Im Fall einer eventuell möglichen Super-KI, die eventuell auch in 30 Jahren Realität werden könnte, tuen wir so, als wäre das kein Problem und noch wahnsinnnig viel Zeit, um gegebenenfalls gegenzusteuern…
    M. E. keine adäquate Strategie.
    Ich habe hier ein wenig ausgeholt, weil das zum Teil Ihre Frage beantwortet.
    Auf eine eventuelle Super-KI zu warten, die uns das Problem eine Wettrüstens um AI und autonome Waffen löst, haben wir keine Zeit, denn das Problem autonomer Waffen steht auf der heutigen Tagesordnung und das Zeitfenster liegt höchsten noch bei ein, zwei Jahren – wenn nicht sogar nur bei Monaten. Jede Woche, die vergeht, ohne dass die Verhandlungen in Genf im Rahmen der CCW vorankommen, macht eine Eindämmung schwieriger.
    Abgesehen davon haben wir keinen blassen Schimmer davon, ob wir eine Super-KI auf menschliche Ziele verpflichten können – d. h. ob es technisch überhaupt eine Möglichkeit gibt, feste Ziele so zu implementieren, dass die SKI immer und garantiert zum Wohle der Menschheit agiert.

    Zum zweiten Teil Ihrer Frage:
    Ein zwischenstaatlich vereinbartes Verboot – vielleicht sogar zunächst nur auf der Ebene der UN-Sicherheitsratsmitglieder – würde sich zunächst auf LAWS beschränken – LAWS = leathal autonomous weapon systems, und zwar auf solche, die ohne „humman in the loop“ selbstständig – allein, oder in einem von einer zentral AI gesteuerten Verbund/Schwarm – Ziele auswählen, erkennen, dorthin navigieren und eleminieren können.
    Ein solches Verbot muss die Entwicklung und die Produktion, sowie den Vertrieb/die Vermarktung solcher Systeme kriminalisieren. Systeme und nicht allein ihre Komponenten.
    Es ist technisch möglich, bestimmte Komponenten für Autonomie in Waffensystemen mit Signaturen zu versehen und die Hersteller z. B. von neuronalen Chips darauf zu verpflichten, Vorrichtungen zu schaffen, die erlaubte, zivil nutzbare Komponenten dann erkennen, wenn sie in einer militärischen Nutzung zusammengebaut werden. Im Zeitalter von BigData und AI stellt es kein prinzipiell unlösbares Problem mehr da, die Migration von Chips und anderen nötigen Komponenten ab Hersteller zu überwachen und erst dann Alarm zu schlagen, wenn irgend jemand in der Welt solche Komponenten zu einem Waffensyetem zusammenbaut.
    Bestimmte Komponenten – wie z. B. Mikro-Sprengstoffe stehen unter besonders strengen Regulierungen und Kontrollen, wie heute Sprengstoffe oder chemische Komponenten für die Chemiewaffenherstellung auch.

    Ein solches Verbot stigmatisiert und kriminalisiert Individuen und Unternehmen, die sich nicht einem Verbot unterwerfen.
    M. E. sollte es dazu ein von den Mitgliedern des UN-Sicherheitsrats garantiertes und aus dem UN Etat ingesamt finanziertes Ausstiegsprogramm geben, mit dem Unternehmen und Individuen, die sich bislang im Bereich autonomer Waffenentwicklungen enagagiert hatten und dort investiert waren, finanziell entschädigt werden, wenn sie auf eine Fortsetzung der Entwicklungen verzichten.
    Ebenfalls gehört dazu ein Whistleblower-Schutzprogramm, das fördert und schützt, wer Verstöße gegen das Verbot anzeigt.

    Basis eines Verbots ist die Erkenntnis aller rivalisierenden Mächte, dass ein erhoffter Vorteil durch den Einsatz von AWS geringer ist, als der drohende Verlust strategischer Stabilität.

    Natürlich kann durch ein Verbot eine kriminell und terroristisch motvierte Verbotsübetretung im Einzelfall nicht verhindert werden. Und um selbstfahrende Autos oder LKW als Terrorwaffe oder von Terroristen mißbrauchte Quadroocopter geht es hiebei auch nicht.
    Analog zum Beispiel mit dem berühmten Messer: Kein Mensch will Küchenmesser, mit dem man einen Braten tranchieren kann, verbieten – obwohl man selbst ein solches Messer natürlich auch zum Morden verwenden kann.
    Aber bestimmte Messerformen, bestimmte Klingenlängen, bestimmte Materialien lassen Messer unter das Waffenkontrollgesetz fallen und dann dürfen solche Messer als Waffen gelten und z. B. bei öffentlichen Veranstaltungen nicht mehr mitgeführt werden.
    Was spricht dagegen, solche Einstufungen auch bei Devices vorzunehmen, die grundsätzlich zwar zivil genutzt werden können und auch sollen, aber in bestimmten Zusammenhängen als autonome Waffen gelten, die dann unter das Verbot autonomer Waffen fallen?

    1. Würden heute Astronomen einen Mega-Asteroid in großer Entfernung entdecken, der sich mit einer Fehlertoleranz von 1 Mio Km auf Kollisionskurs mit der Erde befindet und voraussichtlich in 30 Jahren die Mondumlaufbahn kreuzen wird, würde die Welt nicht alles in Bewegung versetzen, um die Fehelertoleranz bei der genauen Flugbahnermittlung so schnell und so genau woe möglich einzugrenzen und zugleich an der Entwicklung von Maßnahmen arbeiten, um gegebenenfalls den Asteroiden vom Kurs abzubringen?

      Und erschiene eine übermenschliche KI nebst einem von dieser KI kommandierten Schwarm von Anti-Asteroiden-Weltraumwaffen in dieser Situation nicht auf einmal als eine sehr attraktive Option, der wir uns im eigenen Interesse besser nicht in den Weg stellen?

      Wir können gerne weiter Szenarien für spannende Science-Fiction-Filme ausspinnen. Mehr als das wird es jedoch nicht, solange wir seriöse Risikobetrachtungen durch ein vages „nicht auszuschließen“ ersetzen. Es ist auch nicht auszuschließen, dass wir alle nur von einer übermächtigen KI simuliert werden, aber die inhärenten Schwierigkeiten beim Beweis des Gegenteils bringen uns kein Stück weiter.

      Abgesehen davon haben wir keinen blassen Schimmer davon, ob wir eine Super-KI auf menschliche Ziele verpflichten können – d. h. ob es technisch überhaupt eine Möglichkeit gibt, feste Ziele so zu implementieren, dass die SKI immer und garantiert zum Wohle der Menschheit agiert.

      Wir haben auch keinen blassen Schimmer, wie wir jene Herren auf menschliche Ziele verpflichten können, denen stets jemand einen Koffer mit Armageddon-Codes hinterherträgt. Oh, und nebenbei: vom Luftgewehrgeschoss bis zur ballistischen Rakete sind viele Waffen ab einem gewissen Punkt autonom und nicht mehr rückholbar.

      Ein zwischenstaatlich vereinbartes Verboot – vielleicht sogar zunächst nur auf der Ebene der UN-Sicherheitsratsmitglieder – würde sich zunächst auf LAWS beschränken – LAWS = leathal autonomous weapon systems, und zwar auf solche, die ohne “humman in the loop” selbstständig – allein, oder in einem von einer zentral AI gesteuerten Verbund/Schwarm – Ziele auswählen, erkennen, dorthin navigieren und eleminieren können.

      Dann konkretisieren wir das doch mal am Beispiel der Luftabwehr. Stand der Technik sind Raketen, welche, einmal abgeschossen, autonom, wenn auch nicht allzu intelligent, zu ihrem Ziel navigieren, um es zu eliminieren. Nur die Zielauswahl erfolgt noch durch Menschen am Boden oder in einem Kampfflugzeug. Pro forma zumindest, denn diese Menschen schauen häufig nicht durch Ferngläser auf Flugzeuge, sondern durch Radargeräte und Bildschirme, wo sie manchmal ein Zivilflugzeug nicht von einem angreifenden Militärflugzeug unterscheiden können. Um die Orientierung auf dem Schlachtfeld zu erleichtern, baut man in militärische Fluggeräte Unterstützungsmechanismen (Transponder zur Freund-/Feind-Erkennung) ein.

      Was ändert sich grundsätzlich, wenn wir die letzten Entscheidungen auch noch Maschinen überlassen? Was sich nicht ändert, können wir leicht sehen: Eine Rakete unterliegt den Gesetzen der Physik und verfügt über begrenzte Ressourcen. Unabhängig davon, wie sie gesteuert wird, kann sie nur eine begrenzte Zeit in der Luft bleiben, nur mit begrenzter Geschwindigkeit fliegen und aufsteigen und so weiter. Daran jedenfalls wird eine KI wenig ändern. Begrenzt ist außerdem die Zahl verfügbarer Raketen insgesamt sowie pro Zeiteinheit, wobei verschiedene Akteure über unterschiedliche Mengen verfügen.

      Was ändert sich unter diesen Randbedingungen durch KI und volle* Autonomie?

      *) Tatsächlich wird die Autonomie einer Waffe immer eingeschränkt sein – sie soll nämlich nur dem Gegner schaden.

      1. Wissen Sie, Herr Türpe, ich bin ja auf meine Art auch ein Prediger und schreibe meine Kommentare in solche Foren, weil ich eventuelle Leser zum Nachdenken – und am besten zum gemeinsamen Denken, zum Analysieren und Schlußfolgern – anregen möchte. Bestenfalls erfahre ich dadurch selbst Anregung und wertvolle kritische Hinweise, die meine Wissensbasis erweitern und mein Denken optimieren.
        Im Idealfall wird daraus an anregender Dialog, aus dem alle Teilnehmer – und seien es auch nur anonyme Mitleser – klüger hervorgehen, als sie hinein gegangen waren.
        Bei Ihnen fühle ich mich so, als würde ich mit Ihnen Schach spielen, aber bei jedem Zug müßte ich Ihnen auf’s Neue erklären, wie die Figuren heißen, wie sie ziehen dürfen, wie sie schlagen und welche Regeln auf dem Brett sonst noch gelten. Mit anderen Worten – es ist eine Übung in Geduld und Nachsicht, aber das kostet auch sehr viel Zeit, von der ich relativ wenig hab.
        Lassen wir’s dabei bewenden. Sie gehen nicht auf Argumente ein und widerlegen sie, wenn Sie sie nicht für stichhaltig ansehen. Sie agieren nur mit flotten Formulierungen und in den Raum gestellten Behauptungen. Sie sprechen z. B. von „seriösen Risikobetrachtungen“ und negieren im gleichen Satz die Tatsache, dass das „Nicht-Auschließen-Können“ eines Risikos eine durch und durch seriöse Risikobetrachtung ist. Was soll das? Wenn ich duch meine Aktivitäten ein katastophales Ereignis nicht 100% ausschießen kann, dann muss ich entweder mit Maßnahmen sicherstellen, dass ich das Risiko des Eintritts des Ereignisses auf ein Maß reduziere, dass stark gegen Null geht. Oder ich muss die Aktivität lassen. Alles andere wäre verantwortungslos.
        Wo ist das bitte eine „nicht-seriöse“ Risikobetrachtung?

        Ich kann mich mit Ihnen nicht auf der Basis eines anerkannten Wissenstands über die eigentlich wichtigen Fragen unterhalten oder gern auch streiten, wenn Sie dann argumentieren, dass eine abgeschossene Rakete „autonom“ sei. Was für ein Unfug…
        Das ist einfach nur unqualifiziertes Gesülze. Ihnen fehlen elementare Kenntnisse über die Gegenstände, die hier besprochen werden.
        Dann hat es keinen Zweck…

        1. Eine nichtseriöse Risikobetrachtung vermeidet zum Beispiel die Diskussion von Wahrscheinlichkeiten, verlangt als Strohmann eine Risikoreduktion auf Null oder betrachtet einseitig nur die aus einer betrachteten Handlung resultierenden Gefahren, ohne einen möglichen Nutzen sowie die Gefahren der Unterlassung zu diskutieren.

          Was ist an einer Rakete nicht autonom, die nach dem Abschuss selbständig ihr Ziel sucht und sich dabei zum Beispiel zwischen dem beabsichtigten Ziel auf der einen und Täuschkörpern sowie anderen Flugobjekten auf der anderen Seite entscheiden kann? Gewiss, besonders intelligent sind solche Raketen in ihrer herkömmlichen Form nicht, aber nimmt ihnen das die Autonomie?

          Gleichwohl können wir gerne nach einem anderen Beispiel umschauen. Wie wäre es mit einem abgerichteten und von der Leine gelassenen Diensthund, oder vielleicht mit einem Jagdfalken?

          Oder wollen wir lieber Einsatzszenarien diskutieren? Was hätten autonome Waffen etwa im Zweiten Weltkrieg oder später am Eisernen Vorhang verändert?

Die Kommentarfunktion ist geschlossen.