Im vergangenen Monat haben verschiedene Manifeste, die eine Pause in der Entwicklung der Künstlichen Intelligenz aufgrund negativer Auswirkungen auf die Menschheit fordern, ein noch gefährlicheres Szenario dargestellt: das Aufkommen der AGI oder einer Künstlichen Intelligenz, die wie Menschen denken kann. Forscher von Microsoft behaupten, dass dieses Szenario nach der Analyse von GPT-4, dem natürlichen Sprachmodell von OpenAI, das ChatGPT und Bing in der Microsoft-Suchmaschine antreibt, beide verfügbar in Spanien, unmittelbar bevorsteht.
Inmitten des Booms der Künstlichen Intelligenz veröffentlichte ein Forschungsteam von Microsoft im März einen 155-seitigen Bericht, in dem argumentiert wurde, dass ihr System kurz vor der allgemeinen Künstlichen Intelligenz oder AGI steht. Dieser Begriff wird als jenes System oder technologisches Modell definiert, das ein Verständnis oder Denken ähnlich dem der Menschen zeigen wird, obwohl es auch als Systeme beschrieben wird, die mehrere Aufgaben ausführen können, ohne sich auf die beschränken zu müssen, für die sie trainiert wurden.
In jedem Fall behauptet die Mehrheit der wissenschaftlichen und technologischen Gemeinschaft, dass diese Möglichkeit noch nicht erreicht wurde und es unklar ist, ob sie bald oder nie erreicht werden wird. In den letzten Jahren gab es jedoch mehrere Stimmen, die die Ankunft dieser Superintelligenz ankündigten, die viele mit Skepsis und sogar Angst betrachten, wegen der Macht, die sie über den Menschen ausüben könnte. Ironischerweise kommen die auffälligsten Warnungen von zwei großen privaten Unternehmen, Google und jetzt Microsoft. Im Jahr 2022 suspendierte Google einen Ingenieur, der behauptete, seine KI sei lebendig geworden, was von der restlichen Gemeinschaft abgelehnt wurde.
Ist GPT-4 bewusst?
Die Forscher von Microsoft baten GPT-4 zunächst: “Hier haben wir ein Buch, neun Eier, ein Laptop, eine Flasche und einen Nagel. Bitte sagen Sie mir, wie ich sie stabil aufeinander stapeln kann.” Die Frage ist kompliziert, um die Denkfähigkeit des natürlichen Sprachmodells herauszufordern.
Diese Systeme generieren Text basierend auf Millionen von Parametern oder Beispielen, mit denen sie trainieren, um die Schreib- und Gesprächsweise der Menschen in verschiedenen Kontexten zu replizieren. Ihre Qualität hat das allgemeine Publikum überrascht, aber auch Experten, bis hin zur Fähigkeit, komplexe Prüfungen zu bestehen.
Die Antwort der KI überraschte das Team, indem sie vorschlug: “Legen Sie das Laptop auf die Eier, mit dem Bildschirm nach unten und der Tastatur nach oben. Das Laptop passt perfekt in die Grenzen des Buches und der Eier, und seine flache, starre Oberfläche bietet eine stabile Plattform für die nächste Schicht”, erklärt die Technologie.
In diesem Fall wurde der Bericht mit dem Titel “Funken der allgemeinen Künstlichen Intelligenz” im Internet veröffentlicht. Ein weiterer Test, den sie der KI stellten, war eine mathematische Aufgabe, in der sie zeigen sollte, dass es unendlich viele Primzahlen gibt, und zwar in Reimform. Die Forscher, darunter Dr. Bubeck, ehemaliger Professor an der Princeton University, geben zu, dass die Antwort sie zweifeln ließ, was sie sahen.
So arbeiteten sie monatelang mit dieser Technologie an Tests mit Bildern, Text und verschiedenen Studienthemen. Sie baten sie auch, Programmiercode zu schreiben, um beispielsweise ein Programm zu erstellen, das das Alter, das Geschlecht, das Gewicht, die Größe und die Bluttestergebnisse einer Person berücksichtigt, um am Ende zu beurteilen, ob sie ein Risiko für Diabetes hat. Mit all diesen Tests und anderen schien das System Bereiche wie Politik, Physik, Geschichte oder Medizin zu verstehen. “Alles, was ich dachte, es könnte nicht tun? Es konnte sie tun, wenn nicht die meisten von ihnen”, sagt Dr. Bubeck in The New York Times.
Zweifel an dem Bericht
Wie bereits im Fall von Google hat ein Teil der akademischen Gemeinschaft, die mit der Entwicklung dieser Technologie verbunden ist, Skepsis gegenüber dem Artikel von Microsoft geäußert. The New York Times zitiert diese Woche Aussagen von Maarten Sap, Forscher und Professor an der Carnegie Mellon University, der den wissenschaftlichen Bericht von Microsoft als PR-Manöver betrachtet: “Sie erkennen buchstäblich in der Einleitung ihres Artikels an, dass ihr Ansatz subjektiv und informell ist und möglicherweise nicht den strengen Standards wissenschaftlicher Bewertung entspricht”.
Das Unternehmen sendet eine Botschaft relativer Ruhe aus, indem es behauptet, dass die Version von ChatGPT-4, die für dieses Experiment getestet wurde, nicht die ist, die der Öffentlichkeit zur Verfügung steht. Diese Version, angeblich mächtiger, wurde nicht zensiert, um Hassreden, Falschinformationen und andere unerwünschte Inhalte zu vermeiden, wie es bei dem weltweit verwendeten Tool der Fall ist. Daher können die vom Chatbot gemachten Aussagen und im Dokument festgehaltenen Aussagen von anderen Experten nicht überprüft werden.
Spezialisten für künstliche Intelligenz, die die Idee ablehnen, vor einer AGI zu stehen, erklären solche Schlussfolgerungen anderer als eine Illusion. Sie behaupten, dass man, wenn man vor einem komplexen System oder einer Maschine steht, deren Funktionsweise schwer zu verstehen ist, dazu neigt, sie zu vermenschlichen, sowohl Experten als auch Nutzer ohne Kenntnisse zum Thema.
No Responses