Die beispiellose Entwicklung der künstlichen Intelligenz könnte bestehende Sicherheitsbedrohungen erweitern und innerhalb der nächsten fünf Jahre ganz neue Gefahren für Cyberkriminalität, physische Angriffe und politische Störungen mit sich bringen. Das geht aus einem umfassenden Bericht einer Sammlung von 26 Experten aus der ganzen Welt hervor, die davor warnen, dass das ungebremste Wachstum von KI die Sicherheitslandschaft verändern könnte.
Der Malicious AI-Bericht, der von Autoren aus Wissenschaft, Industrie und Wohltätigkeitssektor verfasst wurde, fordert eine Kultur der Verantwortung und Transparenz von KI-Forschern und sogar den Spielraum für verstärkte politische Eingriffe, um sicherzustellen, dass KI und maschinelles Lernen zum Wohle der Allgemeinheit entwickelt werden. Sie warnt davor, dass KI ohne diese Maßnahmen wahrscheinlich zu einem veränderten Gleichgewicht zwischen böswilligen Akteuren und Sicherheitskräften führen wird.
„Da KI-Fähigkeiten immer leistungsfähiger und verbreiteter werden, erwarten wir, dass der zunehmende Einsatz von KI-Systemen zur Ausweitung bestehender Bedrohungen, zur Einführung neuer Bedrohungen und zu einer Veränderung des typischen Charakters von Bedrohungen führen wird“, umreißt der Bericht.
In Bezug auf die digitale Sicherheit wird erwartet, dass die Möglichkeit, KI zur Automatisierung von Aufgaben einzusetzen, die Bedrohung durch arbeitsintensive Cyberangriffe wie Spear-Phishing erhöhen wird. Die Experten prognostizieren auch die Zunahme von Angriffen, die „menschliche Schwachstellen“ ausnutzen, wie z. B. die Verwendung von KI-Imitationswerkzeugen, um die Sprache einer Person zu synthetisieren.
Eines der im Bericht untersuchten Szenarien in Bezug auf physische Bedrohungen ist die Fähigkeit von Terroristen, kommerzielle KI-Systeme wie Drohnen und autonome Fahrzeuge umzufunktionieren, um entweder Sprengstoff zu liefern oder Unfälle zu verursachen. Allgemeiner gesagt bedeutet KI-Automatisierung, dass zuvor hochqualifizierte Aufgaben viel einfacher ausgeführt werden könnten. Die Experten nennen das Beispiel eines selbstzielenden Scharfschützengewehrs mit großer Reichweite, das die KI-Bilderkennung nutzen könnte, um das für seine Handhabung erforderliche Fachwissen zu reduzieren.
Der politische Bereich ist auch anfällig für sich ändernde Bedrohungen durch KI, wobei der Bericht die Fähigkeit von KI und maschinellem Lernen behandelt, Überwachung, gezielte Propaganda und die Verbreitung von Fehlinformationen zu beeinflussen. Soziale Manipulation wird als Hauptgrund für diese Bedrohungen angeführt, mit einer verbesserten Fähigkeit, menschliche Verhaltensweisen, Stimmungen und Überzeugungen aus gesammelten Daten zu analysieren. „Diese Bedenken sind im Zusammenhang mit autoritären Staaten von größter Bedeutung, können aber auch die Fähigkeit von Demokratien untergraben, wahrheitsgemäße öffentliche Debatten zu führen“, heißt es in dem Bericht.
Siehe verwandt Laufen mit den Piratenjägern:Wie KI ein Online-Piraterie-Wettrüsten schafftWill Killer-Roboter uns sicherer machen?Dieser russische Roboterpanzer ist ein unbemannter Granatwerfer
Das Papier erscheint einige Monate, nachdem in Großbritannien eine Reihe von Initiativen zur digitalen Ethik angekündigt wurden, nämlich das Zentrum für Datenethik und Innovation der Regierung und die Konvention zur Datenethik der Nuffield Foundation. Diese Gremien werden eingerichtet, um einen ethischen Rahmen für sich schnell entwickelnde Technologien wie KI zu erkämpfen, aber es gab Bedenken, ob sie in der Lage sein werden, mit dem Entwicklungstempo Schritt zu halten.
„Sie versuchen, etwas einzuholen, das immer schneller ist als Sie“, sagte Luciano Floridi, Professor für Philosophie und Informationsethik an der Universität Oxford, als ich letztes Jahr mit ihm sprach. „Wie kommst du darauf? Du gehst dorthin, wo es hingehen soll. Du versuchst nicht, ihm zu folgen. Es wäre dumm, einen Zug zu erwischen, indem man ihm hinterherjagt, wenn er abfährt. Es ist besser, an dem Bahnhof zu sein, wo der Zug kommt.
„Wenn du strategisch vorausdenkst, dann bist du dort, wo es hingeht, und dann nimmst du den richtigen Zug. Aber das will niemand hören. Nicht die Geschäftsleute, weil es bedeutet, über einen Quartalsbericht hinauszuschauen; nicht der Politiker, denn das kann über die nächsten Wahlen hinausgehen.“
Der Bericht fordert mehr Offenheit zwischen politischen Entscheidungsträgern und KI-Forschern. Es erkennt auch an, dass KI-Sicherheitssysteme zu unseren größten Hoffnungen im Kampf gegen böswillige KI gehören, fügt aber hinzu, dass „KI-basierte Verteidigung kein Allheilmittel ist, insbesondere wenn wir über den digitalen Bereich hinausblicken“.
„Es sollte mehr Arbeit geleistet werden, um das richtige Gleichgewicht der Offenheit in der KI zu verstehen, verbesserte technische Maßnahmen zur formalen Überprüfung der Robustheit von Systemen zu entwickeln und sicherzustellen, dass sich die politischen Rahmenbedingungen, die in einer weniger von KI durchdrungenen Welt entwickelt wurden, an die neue Welt anpassen, die wir schaffen. ”
Bild:Russlands Nerehta-Panzer, ein unbemanntes Bodenfahrzeug, das einen Granatwerfer oder ein Maschinengewehr tragen kann