Dieses kleine Häschen wird es schwer haben, Erfolg zu haben. Nicht weil es eine schlechte Idee ist, sondern genau das Gegenteil. Als Jesse Lyu seinen Rabbit R1 vorstellte, offenbarte er uns das potenzielle Zukunftsbild der Chatbots künstlicher Intelligenz: Sie würden sich nicht mehr damit zufriedengeben, auf unsere Fragen zu antworten, sondern könnten entsprechend handeln. Dieses Gerät ist ein perfektes Beispiel für das, was als KI-Agenten bezeichnet wird, und hier ist es wahrscheinlich, dass wir bald (viel) Bewegung sehen werden.
Eine brillante Idee. Bei dieser Präsentation Anfang 2024 zeigte der kleine und originelle Rabbit R1, wie er in der Lage war, ein Uber zu buchen oder einen Tisch in einem Restaurant zu bestellen. Er ging also über ChatGPT und seine Konkurrenten hinaus, weil diese dir zwar sagen können, wie du von einem Ort zum anderen kommst oder dir ein Restaurant empfehlen, aber dabei hört es auf. Sie handeln nicht.
KI-Agenten. Aber der Rabbit R1 tut es, und das Geheimnis liegt in seinem KI-Modell, genannt LAM (Large Action Model), das eine Art “Butler” ist, der sich mit bestimmten Plattformen verbindet, um Aktionen auszuführen, die der andere Teil (der Chatbot) vorschlägt. Es ist wie ein mit Vitaminen angereicherter ChatGPT, denn er beantwortet zuerst unsere Fragen (“Wo kann man Sushi essen?”) und handelt dann entsprechend (“Ich werde dir einen Tisch im Restaurant X reservieren, wenn du möchtest”). Das ist es, was die sogenannten KI-Agenten tun, und sie alle stellen eine interessante Revolution in diesem Bereich dar.
Eine Idee, die vor Monaten kam. Obwohl Rabbit R1 die klarste Demonstration dessen ist, was KI-Agenten leisten können, kam die Idee etwas früher. Wir begannen vor fast einem Jahr darüber zu sprechen, ohne diesen Begriff zu verwenden, als wir AutoGPT entdeckten. Dieses KI-Modell, dessen Code auf GitHub verfügbar ist, ist ein “Agentenersteller”, der Dinge für uns tut. Zu dieser Zeit konzentrierte es sich hauptsächlich auf das Programmieren, aber seine Möglichkeiten gehen darüber hinaus und ein mit AutoGPT erstellter Agent ist zum Beispiel in der Lage, einen Computer mit den gleichen Eingaben und Ausgaben zu steuern, die ein menschlicher Benutzer nutzen würde.
Und es geht noch weiter. In den letzten Tagen haben wir die Geburt eines anderen vielversprechenden KI-Agenten erlebt. Er heißt Devin und wurde von seinen Schöpfern als “der erste KI-Softwareingenieur” bezeichnet, fähig, Codefehler selbstständig zu erkennen und zu korrigieren. Kürzlich ist ein Konkurrent für Devin namens MAGIS aufgetaucht, entwickelt von chinesischen Forschern und ebenfalls in der Lage, Fehler in GitHub-Projekten autonom zu beheben.
Auch in Videospielen. Diese Art von KI-Modellen sind auch in der Welt der Videospiele interessant. Das bewies Google DeepMind vor zwei Wochen, als es SIMA enthüllte, einen KI-Agenten, der trainiert wurde, um Videospiele zu spielen – sogar solche in offenen Welten – ganz allein. Laut den Verantwortlichen könnte diese Interaktion mit virtuellen Welten wichtig werden, um dieses Lernen später in der realen Welt anzuwenden.
Bei OpenAI (und anderen) sind sie schon dabei. Wie gesagt, das Schlechte an einer guten Idee wie der von Rabbit ist, dass wahrscheinlich jemand sie kopieren wird. Das wird offenbar OpenAI tun, das laut Quellen nahe dem Unternehmen “eine Art Software-Agent vorbereitet, der komplexe Aufgaben automatisiert, indem er effektiv die Kontrolle über das Gerät des Kunden übernimmt”. Währenddessen bereiten der ehemalige CEO von Salesforce, Bret Taylor, und sein Partner, Clay Bavor, ehemaliger Google-Manager, ebenfalls ein Projekt namens Sierra vor, um KI-Agenten in Unternehmen einzuführen.
Aber sie müssen es richtig machen. Die größte Herausforderung in diesem Stadium ist nicht so sehr, dass die Chatbots aktiv statt passiv sind, sondern dass sie bei ihrem Handeln keine Fehler machen. Sowohl ChatGPT als auch seine Rivalen machen oft Fehler und erfinden Dinge, so dass, wenn dies in Aktionen in der realen Welt übersetzt wird, die Konsequenzen katastrophal sein könnten. Vorläufig hat Rabbit R1 es auf die logischste Weise gelöst: Sein KI-Agent fragt dich, bevor er etwas tut. Wenn du die Reservierung des Ubers oder des Restaurants nicht bestätigst, bleibt alles beim Alten.
No Responses