Die privaten Gespräche der Nutzer mit ChatGPT sind verschlüsselt

ChatGPT ist Teil des Lebens von Millionen von Menschen geworden, die es täglich für verschiedene Aufgaben nutzen, von der Vorbereitung auf Vorstellungsgespräche bis zum Zusammenfassen von Meetings. Aber wie sehr sind ihre Gespräche exponiert? Seit einiger Zeit wissen wir, dass OpenAI den Inhalt der Chats nutzen kann, um seine Künstliche-Intelligenz-Modelle zu verbessern, es sei denn, der Chatverlauf wird deaktiviert oder die Bezahlversion ChatGPT Enterprise wird genutzt.

Das bedeutet, dass einige Mitarbeiter des von Sam Altman geleiteten Unternehmens in der Lage sind, aus technischen oder Sicherheitsgründen auf Ihre Gespräche zuzugreifen. Deshalb ist es so wichtig, keine vertraulichen Informationen zu teilen, und das musste auch Samsung einsehen, das die Nutzung von ChatGPT unter seinen Mitarbeitern verboten hat. Abgesehen davon gibt es andere Wege, auf denen die Gespräche in die Hände Dritter geraten können, beispielsweise eines Cyberkriminellen.

Der Cyberangriff, der die Sicherheit von ChatGPT gefährdet

Stellen Sie sich vor, Sie befinden sich in einem Café und nutzen ChatGPT von Ihrem Laptop aus, der mit dem öffentlichen WLAN verbunden ist. Dieses Szenario könnte günstig für einen Angreifer sein, bestimmte ihm zur Verfügung stehende Mittel zu nutzen, um die Antworten des Chatbots abzuleiten. Und das alles, ohne dass Sie es merken. Die Informationen über den Angriff, die wir im Folgenden erklären, stammen aus einer interessanten Studie des Laboratoriums für offensive KI-Forschung der Ben-Gurion-Universität in Israel, die im Wesentlichen in vier Schritten erfolgt:

  1. Den Datenverkehr des Opfers abfangen
  2. Die Pakete filtern, um die Antworten von ChatGPT zu finden
  3. Die Länge der Tokens aufdecken
  4. Die Antwort von ChatGPT unter Verwendung eines LLM ableiten

Als ChatGPT-Nutzer haben Sie sicherlich bemerkt, dass der Chatbot Ihnen die Antwort nach und nach sendet. Diesen Prozess können wir auch folgendermaßen erklären: Das Modell, GPT-3.5 oder GPT-4, überträgt die Tokens an Ihren Computer, während es sie generiert. Obwohl diese sequenzielle Übertragung verschlüsselt ist, öffnet sie die Tür für eine Art von Angriff, bekannt als Side-channel attack, der die Länge der Tokens offenlegen kann, um Informationen abzuleiten.

Die Herausforderung für den Angreifer besteht darin, die Daten abzufangen, die zwischen den OpenAI-Servern und Ihrem Computer gesendet werden, was mit einem Man-in-the-Middle-Angriff erreicht werden kann. Sobald der böswillige Akteur die Sicherheit des Netzwerks kompromittiert hat, wird er sich darum kümmern, den Datenverkehr nach IP-Adresse zu filtern und die Pakete zu analysieren, um ein inkrementelles Muster zu erkennen, mit dem Ziel, die mit den Antworten von ChatGPT verbundenen Pakete zu entdecken.

Der Cyberangriff, der die Sicherheit von ChatGPT gefährdet

Dann kann er die Länge der Tokens identifizieren, indem er die Größen der zuvor beobachteten Pakete verwendet. Hier liegt genau die größte Herausforderung: Da ein Token eine Texteinheit darstellen kann, die so kurz wie ein Zeichen oder so lang wie eine Wortgruppe ist, ist es notwendig, eine zusätzliche Lösung zu finden, um sie zu interpretieren und die Antworten abzuleiten. Die Lösung der Forscher war die Verwendung eines LLM für diese Aufgabe.

Wir sprechen von einem speziell trainierten Long Language Model, das in der Lage ist, die Länge der Tokens zu analysieren und die von ChatGPT generierten Antworten mit ziemlicher Genauigkeit vorherzusagen. Die Ergebnisse können variieren, aber in Tests war das Modell in der Lage, 55% aller Antworten mit hoher Genauigkeit abzuleiten (die Wörter können sich leicht ändern, aber der Sinn des Satzes bleibt weitgehend gleich). Darüber hinaus hatten 29% der Antworten eine perfekte Genauigkeit.

Obwohl es sich um einen Angriff handelt, der bestimmte ausgefeilte Elemente für seine Durchführung erfordert, schadet es nie, sich bewusst zu sein, wie sehr unsere Daten exponiert werden können. Es ist erwähnenswert, dass diese Technik laut den Forschern nicht nur bei ChatGPT funktioniert, sondern auch bei anderen KI-Bots wie Copilot, die die Tokens sequenziell senden. Gemini von Google ist davon nicht betroffen, gerade weil es eine andere Architektur hat.

Bewerte Diese Seite

Tags:

No Responses

Leave a Reply

Your email address will not be published. Required fields are marked *

BLOG

Prompt-Techniken Wie man das Beste aus künstlicher Intelligenz herausholt

Prompt-Techniken: Wie man das Beste aus künstlicher Intelligenz herausholt

Generative Künstliche Intelligenz, wie ChatGPT, Gemini, DALL-E, Midjourney oder Stable Diffusion, sind fortschrittliche Technologien, die in der Lage sind, Texte, Dokumente, Mindmaps, Tabellen, Kalkulationstabellen, Präsentationen, Bilder oder Videos zu erstellen. Sie benötigen jedoch präzise Anleitungen, klare, direkte Vorgaben und ausreichende Informationen, um das bestmögliche Ergebnis zu erzielen. Diese Anweisungen oder Leitfäden werden als Prompts bezeichnet, […]

Krankenschwestern in den USA protestieren gegen den Einsatz von KI in Krankenhäusern

Krankenschwestern in den USA protestieren gegen den Einsatz von KI in Krankenhäusern

Die Gewerkschaft “National Nurses United” erklärt in einer Mitteilung, dass künstliche Intelligenz (KI) keine “Lebens- oder Todesentscheidungen” ohne menschliche Bewertung und kritisches Denken treffen kann. Künstliche Intelligenz hat seit der Einführung von ChatGPT Ende 2022 unser Leben verändert, und seitdem haben die KI-Modelle verschiedener Technologieunternehmen – wie OpenAI, Meta, Microsoft, Google oder Apple – ihre […]

Funcas befürchtet dass ChatGPT Kundendaten der Banken stehlen könnte

Funcas befürchtet dass ChatGPT Kundendaten der Banken stehlen könnte

Die Stiftung der Sparkassen (Funcas) hat die Banken vor dem Einsatz von generativer Künstlicher Intelligenz (GenAI) wie ChatGPT gewarnt, wegen der Gefahr, die diese beim Schutz vertraulicher Kundendaten darstellen könnte. Insbesondere empfiehlt die Organisation dem Finanzsektor, eigene Programme mit dieser Technologie zu entwickeln, um Lecks zu verhindern und die Vertraulichkeit sicherer zu bewahren. Laut Funcas […]

Empfiehlt den Einsatz von ChatGPT in Tausenden wissenschaftlichen Studien

Empfiehlt den Einsatz von ChatGPT in Tausenden wissenschaftlichen Studien

Der Bibliothekar Andrew Gray machte eine “sehr überraschende” Entdeckung. Er analysierte fünf Millionen wissenschaftliche Studien, die im letzten Jahr veröffentlicht wurden, und stellte einen plötzlichen Anstieg in der Verwendung bestimmter Wörter fest, wie “meticulously” (um 137% mehr), “intricate” (117%), “commendable” (83%) und “meticulous” (59%), in ihren englischen Versionen. Gray, vom University College London, sieht nur […]

Googles KI holt gegenüber ChatGPT auf Gemini Pro 1.5 steigt auf ein neues Niveau

Googles KI holt gegenüber ChatGPT auf: Gemini Pro 1.5 steigt auf ein neues Niveau

Google kann auf seinem Weg, den Thron der künstlichen Intelligenz zurückzugewinnen, nicht aufgehalten werden, denn sein Prestige steht dabei auf dem Spiel. Obwohl wir die riesige Menge an Überraschungen, die uns beim nächsten Google I/O erwarten, noch nicht kennen, hat das Unternehmen bereits einen großen Teil seiner aktuellen Modelle weiterentwickelt. Es plant sogar, Gmail durch […]

Skoda beginnt mit der Herstellung des überarbeiteten Octavia mit integrierter ChatGPT

Skoda beginnt mit der Herstellung des überarbeiteten Octavia mit integrierter ChatGPT

Skoda hat die Serienproduktion des überarbeiteten Octavia in seinem Hauptwerk in Mladá Boleslav gestartet. Die aktualisierte vierte Generation des Bestsellers der Marke bietet einen neu gestalteten Skoda-Kühlergrill, neue Matrix-LED-Scheinwerfer der zweiten Generation und die Integration von ChatGPT in die Sprachassistenten des Fahrzeugs, unter anderem Verbesserungen. Mit der Verlagerung der Octavia-Produktion Ende dieses Jahres nach Kvasiny […]