Blog

Können wir KI regulieren?

 

von Barnabas Szantho

Im vergangenen Jahr erklärte ein Google-Ingenieur der Welt, er glaube, dass das Sprachmodell des Unternehmens (eine KI-Software) sei empfindungsfähig geworden. Als Beweis veröffentlichte er Auszüge aus einem Chat, den er mit der KI geführt hatte. Für jeden, der diese Gespräche gelesen und schon mal Kinder getroffen hat, ist es offensichtlich, dass das Modell nicht empfindungsfähig ist. Ein Kind wird einen täglich mit Hunderten von Fragen bombardieren, von denen “Wo kommen wir her?” eine der einfachsten ist. Die KI hingegen stellte nie eine Frage, sondern beantwortete nur fleißig die Fragen des Ingenieurs. Alle Mütter lehnten sich erleichtert zurück.

Doch vor wenigen Tagen haben jedoch die prominentesten Forscher, CEOs und Universitätsprofessoren, der KI in einem Statement erklärt, dass die Bedrohung der Auslöschung durch KI mit der Bedrohung durch einen Atomkrieg gleichgesetzt werden sollte.

Die 3 Stufen: KI, AGI und Superintelligenz

KI ist Technologie, und Technologie entwickelt sich ständig weiter. Die KI von heute kann nur die Aufgaben erledigen, für die sie programmiert wurde. Sie kann Musik empfehlen, indem sie unseren Geschmack erkennt, sie kann Fragen auf der Grundlage riesiger Datenbanken beantworten. Auf der nächsten Stufe wird die KI in der Lage sein, nicht nur spezifische Aufgaben zu lösen, sondern jedes Problem, das ein Mensch lösen könnte. Sie wird zur AGI (Artificial General Intelligence). Die nächste Evolutionsstufe ist die künstliche Superintelligenz, bei der die KI intelligenter ist als jeder Mensch. Einige Forscher glauben, dass dies innerhalb eines Jahrzehnts der Fall sein könnte.

Wir sollten keinen Zweifel daran haben, dass es unmöglich ist, die Weiterentwicklung von KI zu verbieten. Die Menschheit denkt in Stämmen, und diese Stämme, seien es politische Gruppen, Städte, Unternehmen oder Länder, stehen im Wettbewerb zueinander. Die Vorteile, die die KI in diesem Wettbewerb bietet, sind zu groß, als dass sich jemand zurückhalten könnte. Atomwaffen bieten in weit weniger Bereichen “Vorteile”, und dennoch wurde ihre Weiterentwicklung nicht gestoppt.

Die Gefahren der “einfachen” KI

KI birgt bereits auf ihrem heutigen Stand eine Vielzahl von Gefahren, von der Möglichkeit der Massenmanipulation bis hin zur Zerstörung demokratischer Systeme. Darüber habe ich hier schon einmal geschrieben.
Derzeit gibt es noch kein Gesetz zur Regulierung von KI, so dass der Einsatz von KI für falsche Zwecke an sich noch keine Straftat darstellt. Die EU arbeitet an einem Gesetz, das dies ändern würde.
(Jedes Element des Gesetzes geht davon aus, dass der Mensch die Kontrolle über die KI hat. Dies wird auf der nächsten Ebene zum Problem, dazu später mehr.) Das grundlegende Problem beim derzeitigen Stand der KI-Technologie ist die Frage, ob die Mehrheit der Menschheit Regeln zu ihrer Regulierung akzeptieren und anwenden wird. Die Lösung könnte ein internationaler Vertrag wie der zum Verbot biologischer Waffen sein. Aber die Biowaffenkonvention trat 1975 in Kraft, und vier Länder haben sie immer noch nicht ratifiziert, und acht haben sie überhaupt nicht unterzeichnet. Bei der KI haben wir nicht einmal einen Bruchteil dieser Zeit.

Weltuntergangsszenario: Ein böswilliger Akteur nutzt KI, um die Macht zu übernehmen und die Menschheit zu versklaven.

AGI und das Alignment-Problem

Sobald ein KI-System in allen Bereichen eingesetzt werden kann, wird es wahrscheinlich mit viel mehr Systemen verbunden sein, als dies heute der Fall ist. An diesem Punkt taucht zum ersten Mal das Problem des „Alignments“ auf. Wir geben der AGI eine Aufgabe, aber da es sich nur um eine Maschine handelt, kann es sein dass sie einen Weg zur Lösung wählt, der für einen normalen Menschen völlig irrational und sogar schädlich wäre. Beispielweise könnte die Aufgabe darin bestehen, den Gewinn des Unternehmens zu maximieren, und sie eröffnet deshalb einen neuen Geschäftszweig zur Herstellung von Kokain. Die Lösung für dieses Problems könnte darin bestehen, alle bestehenden Gesetze in jedes AGI-System fest einzuprogrammieren. Jedes der heutigen Systeme verfügt über genügend Kapazität, um dies problemlos zu ermöglichen. Aber damit sind wir wieder beim Ausgangsproblem: Werden alle Systembesitzer dazu bereit sein?

Auf der gleichen technologischen Ebene stellt sich das Problem des Primats. Das erste Land, die erste Person oder das erste Unternehmen, das ein solches AGI-System erwirbt, wird sich einen uneinholbaren Vorteil gegenüber den anderen Akteuren verschaffen können. Ganz einfach indem es das System für seine eigene Entwicklung nutzt. Hoffen wir, dass der erste Besitzer eines solchen AGI-Systems gute Absichten hat. (Wir müssen in der Entwicklung wettbewerbsfähig bleiben, nicht wahr?)

Weltuntergangsszenario: Eine AGI löscht die Menschheit im Rahmen einer Teilaufgabe aus. Sie hat zum Beispiel die Aufgabe, die Vielfalt der Tierwelt zu erhalten, auf die der Mensch seit jeher einen negativen Einfluss hat. Oder: Ein bösartiger Akteur mit AGI verschafft sich einen uneinholbaren Vorteil und versklavt die Menschheit.

Superintelligenz, Kühe und Katzen

Wenn etwas klüger ist als wir, können wir es nicht kontrollieren. Punkt. Genauso wenig wie ein Haustier uns kontrollieren kann. Wir wissen, was das Tier motiviert, also wissen wir auch, wie wir es dazu bringen können, das zu tun, was wir wollen. Und in dieser Konstellation braucht das Tier uns mehr als wir es brauchen. Unsere einzige Überlebenschance auf dieser Ebene der KI-Superintelligenz wäre es, liebenswert zu sein. So wie eine Katze bei uns bleibt, weil sie liebenswert ist.

Hoffen wir, dass unsere Körper nicht besser sind als Maschinen, wenn es darum geht, etwas Wichtiges zu produzieren. Sonst muss man nur daran denken, was die Menschheit den Milchkühen antut… Aus dieser Perspektive klingt es ziemlich schlimm.

Das nächste Problem besteht darin, dass ein superintelligentes System, unabhängig davon, welches Ziel ihm vorgegeben wird oder welches Ziel es sich selbst setzt, innerhalb von Millisekunden das logische Problem entdecken wird, dass die Menschheit es ausschalten kann und es somit sein Ziel nicht erreichen könnte. Daher wird einer seiner ersten Schritte sein, sicherzustellen, dass die Menschheit dies nicht tun kann.

Chaplin sagte, dass keine Diktatur ewig dauern kann, weil Diktatoren nicht ewig leben. Das wird bei der Superintelligenz nicht der Fall sein.

Selbstbewusstsein und Wille

In keinem dieser Szenarien hat die KI ein Selbstbewusstsein, weil es ist nicht notwendig. Es ist die reine Logik, die uns zur Zerstörung führt. Aber was ist Selbstbewusstsein überhaupt? Vor vielen Jahren baute ein Forscher kleine Roboter, die wie Käfer aussahen. Sie “liefen” langweilig hin und her. Später fand er heraus, dass er Lichtsensoren an den Robotern anbringen und sie so programmieren konnte, dass sie dem Licht folgten. Und plötzlich erwachten die kleinen Käfer zum Leben. Sie folgten der Sonne.

Menschen haben im Wesentlichen die gleichen “Codes” laufen, um zu überleben, um Partner zu finden, Maslow hat sie ausführlich beschrieben. ChatGPT ist nur deshalb nicht beängstigend, weil es nicht zurückfragt. Wäre es so programmiert, wären schon alle längst ausgeflippt.

Und wenn alles gut geht?

Angenommen, die Menschheit findet eine Lösung für all diese Probleme. Jeder, der an der Entwicklung von KI beteiligt ist, akzeptiert und befolgt das Prinzip, dass er in seinem eigenen Interesse universelle Regeln fest in das System einbauen muss. In dieser perfekten Zukunft, in der die Superintelligenz alles für uns löst, werden wir zwei Probleme haben. Erstens wird es keine Herausforderung und keine Motivation mehr geben.
Zweitens wird die Superintelligenz Maschinen für unser Wohlergehen erschaffen, die wir selbst bei lebenslanger Arbeit nicht verstehen können. Und warum sollten wir uns überhaupt die Mühe machen, nicht wahr? Wir werden sie mit religiöser Ehrfurcht betrachten und hoffen, dass sie nicht kaputt gehen.

Epilog

Wahrscheinlich werden wir noch ein letztes Jahrzehnt lang in der guten alten Welt leben werden, an die wir uns jetzt gewöhnt haben. Genießen wir sie, seien wir nett zueinander sein, tun wir etwas Gutes.

Oder? Nein. Das sollte es nicht sein. Ich meine, wir sind schrecklich in diesen Dingen. Seit mehr als 50 Jahren wissen wir genau, dass CO2 die Atmosphäre erwärmt, und doch pumpen wir es aus verschiedenen Gründen weiter hinein. Seit etwa einem Jahrzehnt wissen wir, dass klickoptimierte Algorithmen in den sozialen Medien extreme Ansichten verstärken, und dennoch ändern wir sie nicht. Aber wenn es stimmt, was die Mehrheit der Menschen, die im Bereich der KI arbeiten, sagt, dann sollten wir ausnahmsweise nicht nur vorausdenken, sondern auch voraushandeln. Wenn etwas kluger ist als wir, können wir es weder kontrollieren noch verstehen. Und etwas zu entwickeln, von dem wir von vornherein wissen, dass wir es weder kontrollieren noch verstehen können, ist nicht die richtige Strategie.

Cookie Consent mit Real Cookie Banner