ChatGPT ist Teil des Lebens von Millionen von Menschen geworden, die es täglich für verschiedene Aufgaben nutzen, von der Vorbereitung auf Vorstellungsgespräche bis zum Zusammenfassen von Meetings. Aber wie sehr sind ihre Gespräche exponiert? Seit einiger Zeit wissen wir, dass OpenAI den Inhalt der Chats nutzen kann, um seine Künstliche-Intelligenz-Modelle zu verbessern, es sei denn, der Chatverlauf wird deaktiviert oder die Bezahlversion ChatGPT Enterprise wird genutzt.
Das bedeutet, dass einige Mitarbeiter des von Sam Altman geleiteten Unternehmens in der Lage sind, aus technischen oder Sicherheitsgründen auf Ihre Gespräche zuzugreifen. Deshalb ist es so wichtig, keine vertraulichen Informationen zu teilen, und das musste auch Samsung einsehen, das die Nutzung von ChatGPT unter seinen Mitarbeitern verboten hat. Abgesehen davon gibt es andere Wege, auf denen die Gespräche in die Hände Dritter geraten können, beispielsweise eines Cyberkriminellen.
Der Cyberangriff, der die Sicherheit von ChatGPT gefährdet
Stellen Sie sich vor, Sie befinden sich in einem Café und nutzen ChatGPT von Ihrem Laptop aus, der mit dem öffentlichen WLAN verbunden ist. Dieses Szenario könnte günstig für einen Angreifer sein, bestimmte ihm zur Verfügung stehende Mittel zu nutzen, um die Antworten des Chatbots abzuleiten. Und das alles, ohne dass Sie es merken. Die Informationen über den Angriff, die wir im Folgenden erklären, stammen aus einer interessanten Studie des Laboratoriums für offensive KI-Forschung der Ben-Gurion-Universität in Israel, die im Wesentlichen in vier Schritten erfolgt:
- Den Datenverkehr des Opfers abfangen
- Die Pakete filtern, um die Antworten von ChatGPT zu finden
- Die Länge der Tokens aufdecken
- Die Antwort von ChatGPT unter Verwendung eines LLM ableiten
Als ChatGPT-Nutzer haben Sie sicherlich bemerkt, dass der Chatbot Ihnen die Antwort nach und nach sendet. Diesen Prozess können wir auch folgendermaßen erklären: Das Modell, GPT-3.5 oder GPT-4, überträgt die Tokens an Ihren Computer, während es sie generiert. Obwohl diese sequenzielle Übertragung verschlüsselt ist, öffnet sie die Tür für eine Art von Angriff, bekannt als Side-channel attack, der die Länge der Tokens offenlegen kann, um Informationen abzuleiten.
Die Herausforderung für den Angreifer besteht darin, die Daten abzufangen, die zwischen den OpenAI-Servern und Ihrem Computer gesendet werden, was mit einem Man-in-the-Middle-Angriff erreicht werden kann. Sobald der böswillige Akteur die Sicherheit des Netzwerks kompromittiert hat, wird er sich darum kümmern, den Datenverkehr nach IP-Adresse zu filtern und die Pakete zu analysieren, um ein inkrementelles Muster zu erkennen, mit dem Ziel, die mit den Antworten von ChatGPT verbundenen Pakete zu entdecken.
Dann kann er die Länge der Tokens identifizieren, indem er die Größen der zuvor beobachteten Pakete verwendet. Hier liegt genau die größte Herausforderung: Da ein Token eine Texteinheit darstellen kann, die so kurz wie ein Zeichen oder so lang wie eine Wortgruppe ist, ist es notwendig, eine zusätzliche Lösung zu finden, um sie zu interpretieren und die Antworten abzuleiten. Die Lösung der Forscher war die Verwendung eines LLM für diese Aufgabe.
Wir sprechen von einem speziell trainierten Long Language Model, das in der Lage ist, die Länge der Tokens zu analysieren und die von ChatGPT generierten Antworten mit ziemlicher Genauigkeit vorherzusagen. Die Ergebnisse können variieren, aber in Tests war das Modell in der Lage, 55% aller Antworten mit hoher Genauigkeit abzuleiten (die Wörter können sich leicht ändern, aber der Sinn des Satzes bleibt weitgehend gleich). Darüber hinaus hatten 29% der Antworten eine perfekte Genauigkeit.
Obwohl es sich um einen Angriff handelt, der bestimmte ausgefeilte Elemente für seine Durchführung erfordert, schadet es nie, sich bewusst zu sein, wie sehr unsere Daten exponiert werden können. Es ist erwähnenswert, dass diese Technik laut den Forschern nicht nur bei ChatGPT funktioniert, sondern auch bei anderen KI-Bots wie Copilot, die die Tokens sequenziell senden. Gemini von Google ist davon nicht betroffen, gerade weil es eine andere Architektur hat.
No Responses