Lässt sich die KI-Apokalypse mit einem Notschalter stoppen?

Georg Steiner
| 2 min read

Seit dem Aufstieg von ChatGPT beschäftigen sich Wissenschaftler verstärkt mit dem Szenario einer außer Kontrolle geratenen Künstlichen Intelligenz (KI). Im Mittelpunkt steht dabei die Frage, wie sich diese stoppen lassen könnte.

Apokalypse Künstliche Intelligenz

Das hat auch Forscher der Universität von Cambridge interessiert. In einem gerade erst veröffentlichten Papier schlagen sie einen Notausschalter vor. Dieser soll eine KI-Apokalypse verhindern.

Kontrolle der Produktion


Wie jede andere Technologie auch, besteht bei der KI die Gefahr, dass sie missbraucht wird. Doch in diesem Fall geht die Gefahr noch weit über das Übliche hinaus, denn die KI könnte sich selbstständig machen. Kein Wunder also, dass sich Forscher Gedanken darüber machen, wie sich die Gefahr im schlimmsten Fall stoppen lässt.

Ihr Vorschlag geht in Richtung einer Hardwarelösung. Dazu wäre es nötig, die Hardware, auf der die KI läuft, von der Produktion beginnend zu überwachen und dort einen Notausschalter zu installieren. Inspiriert wurde diese Idee von der Kontrolle von Nuklearwaffen.

Hardware, die für den Betrieb einer KI notwendig wäre, ist leicht zu identifizieren. Sie ist enorm groß und verbraucht enorme Mengen an Energie. Gleichzeitig kommt nur ein begrenzter Kreis von Chipherstellern infrage. An diesem Punkte könnte eine gesetzliche Regulierung ansetzen.

Globales Register für den Verkauf von KI-Chips?

Schon jetzt versucht die US-Regierung, die Transparenz der Entwicklung neuer KIs zu erhöhen, um einen Missbrauch einzudämmen. Die Wissenschaftler schlagen zudem ein globales Register für den Verkauf von KI-Chips vor, um deren Weg nachvollziehen zu können.

Doch das wichtigste Element in dieser Kette wäre der sogenannte Killswitch. Ist er in den KI-Chips eingebaut, könnten die Behörden die Hardware einer KI deaktivieren. Grundsätzlich unterscheidet man zwei Varianten.

Befehlskette analog zu Atomwaffen


Die Software-Version eines Killswitch ermöglicht die ferngesteuerte Abschaltung; die Hardware-Variante benötigt den manuellen Eingriff vor Ort. Um Missbrauch zu verhindern, schlagen die Forscher vor, einen Mechanismus zu installieren, der jener Befehlskette ähnelt, die man für die Freischaltung von Atomwaffen kennt. Solche Systeme erfordern mehrere Genehmigungen, bevor die Atomwaffen aktiviert werden können.

Die Wissenschaftler geben jedoch auch zu bedenken, dass mit ihrem Vorschlag lediglich die Hardware gebremst werden könnte. Alle anderen Komponenten einer KI, wie die Daten, der Algorithmus oder das Modell selbst, sind damit nicht zu stoppen, sobald sie frei verfügbar werden.

OpenAI hat die Gefahr erkannt


An dem Papier haben auch Mitarbeiter von OpenAI mitgearbeitet, das zeigt, dass die Notwendigkeit einer Diskussion auch in den betroffenen Unternehmen angekommen ist. Schon im Vorjahr warnten zahlreiche Wissenschaftler rund um Elon Musk vor den Gefahren einer Künstlichen Superintelligenz und forderten mehr Regulierung.

Unterdessen dringt KI in immer mehr Bereiche des täglichen Lebens vor. Das gilt auch für Kryptowährungen. Dort kommen neue Coins wie yPredict auf den Markt, die das Thema aktiv aufgreifen, um so attraktive Investitionsmöglichkeiten zu generieren.