Microsoft und OpenAI haben anerkannt, dass verschiedene Cyberkriminelle Werkzeuge wie den ChatGPT-Konversationsroboter genutzt haben, um ihre Cyberangriffe zu perfektionieren. Insbesondere durch Kriminelle, die scheinbar mit den Regierungen von China, Russland, Nordkorea und dem Iran in Verbindung stehen. Diese hätten sich der Technologie bedient, um ihre Ziele zu erforschen, die Qualität ihrer Angriffe zu verbessern und neue Techniken basierend auf Social Engineering zu entwickeln, um die Opfer zu täuschen.
„Cyberkriminalitätsgruppen, von Staaten unterstützte Bedrohungsakteure und andere Gegner erkunden und testen verschiedene Künstliche Intelligenz (KI)-Technologien, sobald sie verfügbar werden, in einem Versuch, den potenziellen Wert für ihre Operationen zu verstehen und die Sicherheitskontrollen zu identifizieren, die sie möglicherweise umgehen müssen. Seitens der Verteidiger ist es entscheidend, diese Sicherheitskontrollen gegen Angriffe zu verstärken und ein ebenso ausgefeiltes Monitoring zu implementieren, das die bösartige Aktivität antizipiert und blockiert“, erklärte Microsoft in einem Beitrag auf seinem offiziellen Blog.
Unter den bösartigen Nutzern der von Microsoft und OpenAI erstellten KI-Technologie befindet sich die russische Gruppe Strontium, auch bekannt unter anderen Namen wie Fancy Bear, die Verbindungen zum Militärgeheimdienst dieses Landes hat. Laut den Unternehmen hätte sie Werkzeuge wie ChatGPT genutzt, um „verschiedene Technologien von Satelliten und Radaren, die zu konventionellen militärischen Operationen in der Ukraine gehören könnten, sowie für die Durchführung allgemeiner Forschung zur Unterstützung ihrer Cyberoperationen“ zu untersuchen.
Die nordkoreanische Gruppe Thallium soll sich ebenfalls der KI-Technologie bedient haben, um die Qualität ihrer Betrügereien zu verbessern, mit dem Ziel, das Opfer zu täuschen und dazu zu bringen, seine Daten preiszugeben, ohne zu bemerken, dass es getäuscht wird. Diese kriminelle Bande hat auch die generative KI genutzt, um ein besseres Verständnis für die Funktionsweise von Sicherheitslücken in verschiedenen Internetplattformen zu erlangen.
Curium, eine Gruppe aus dem Iran, die mit den Islamischen Revolutionsgarden in Verbindung steht, hat ebenfalls die Technologie genutzt, um die Entwicklung ihrer Betrügereien zu verbessern sowie um Schadcode zu entwerfen, der für die Antivirensoftware ihrer Opfer nicht erkennbar ist. Die mit China in Verbindung stehenden Gruppen – Chromium und Sodium – haben ebenfalls die KI genutzt, um ihre Operationen zu verbessern und gute Übersetzungen ihrer Betrugsversuche durchzuführen.
Es ist zu beachten, dass das Potenzial generativer KI-Plattformen in bösartigen Kampagnen die Cybersecurity-Experten seit Jahren beunruhigt. Und die Besorgnis hat nur zugenommen seit der Ankunft von ChatGPT und der fortschreitenden Demokratisierung der Technologie, die heute jedem mit einer einfachen Internetsuche zugänglich ist.
Dennoch weisen Microsoft darauf hin, dass bislang keine „signifikanten Angriffe“ im Zusammenhang mit der Nutzung von Plattformen wie ChatGPT festgestellt wurden. Sie merken auch an, dass die vorherigen Beispiele nicht einzigartig sind: Es gibt mehr organisierte kriminelle Gruppen, die versucht haben, die Technologie auszunutzen.
Und die Situation könnte sich in der Zukunft verschlimmern, aber das bedeutet nicht, dass man Angst haben muss: „Obwohl Angreifer weiterhin an KI interessiert sein werden und die aktuellen Fähigkeiten und Sicherheitskontrollen der Technologien erforschen, ist es wichtig, diese Risiken im Kontext zu halten.“ Konkret empfehlen sowohl die Muttergesellschaft von Windows als auch OpenAI Nutzern und Unternehmen, Werkzeuge wie die Multi-Faktor-Authentifizierung immer dann zu verwenden, wenn es möglich ist, und jeder Kommunikation, die auch nur minimal verdächtig erscheinen könnte, zu misstrauen.
No Responses