Ein weiterer Sektor, der dank der generativen Künstlichen Intelligenz ebenfalls eine Evolution erfährt, ist der der Cyberkriminellen. Laut Microsoft und OpenAI nutzen Hacker ChatGPT, um Angriffe aus verschiedenen Richtungen ausgefeilter zu gestalten.
In einer Untersuchung, die diese Unternehmen durchgeführt haben, wurden Gruppen identifiziert, die von Russland, Nordkorea, dem Iran und China unterstützt werden und diese Art von Werkzeugen nutzen, um ihre Ziele tiefergehend zu erforschen, die Nachrichten, die sie senden wollen, zu verbessern und Techniken der sozialen Ingenieurwissenschaft zu entwickeln.
Laut dem Dokument haben die bösartigen Gruppen zunehmend den Einsatz von KI-Technologien vertieft mit dem Ziel, “den potenziellen Wert für ihre Operationen zu verstehen und die Sicherheitskontrollen, die sie möglicherweise umgehen müssen”.
Bis jetzt haben die Unternehmen keinen “bedeutenden Angriff” festgestellt, der aus großen Sprachmodellen hervorgegangen wäre, aber sie haben Gruppen identifiziert, die sie zu böswilligen Zwecken nutzen, und deshalb die mit ihnen verbundenen Konten geschlossen.
“Wir glauben, dass es wichtig ist, diese Forschung zu veröffentlichen, um die schrittweisen Bewegungen in den frühen Stadien aufzuzeigen, die wir beobachten, dass bekannte Bedrohungsakteure zu unternehmen versuchen, und Informationen darüber zu teilen, wie wir sie blockieren und der Gemeinschaft der Schützer entgegentreten”, betont Microsoft.
Die Raffinesse der Angriffe ist nicht das einzige Problem, sagen die Unternehmen, sondern auch die Geschwindigkeit ihrer Entwicklung. Die Stimmklonierung ist beispielsweise ein Thema, das seit dem letzten Jahr aufgrund seiner Implikationen für die Sicherheit von Personen oder sogar in anderen Bereichen wie der Musik Besorgnis erregt.
Jetzt ist jedoch die Tatsache, die diesen Unternehmen am meisten Sorgen bereitet, dass die aktuellen Technologien bereits in der Lage sind, die Stimme einer Person in nur drei Sekunden zu klonen und sie in einem Fall von Phishing und Telefonbetrug glaubwürdiger zu machen.
Microsoft hat diese Cyberkriminellen, die KI nutzen, im Visier
Das Dokument hebt auch bestimmte Personengruppen hervor, die diese Technologie nutzen, wie Strontium, verbunden mit dem russischen Militärgeheimdienst, das große Sprachmodelle verwendet, um “die Protokolle der Satellitenkommunikation, Radarbildgebungstechnologien und spezifische technische Parameter zu verstehen”.
Laut Microsoft waren diese Cyberkriminellen in Zeiten wie dem Krieg zwischen Russland und der Ukraine aktiv und sogar an einem Versuch eines Angriffs auf die Präsidentschaftskampagne von Hillary Clinton im Jahr 2016 beteiligt.
Andererseits ist eine nordkoreanische Gruppe, bekannt als Thallium, ein weiterer Fall, der nach Schwachstellen gesucht hat, um Organisationen anzugreifen und KI genutzt hat, um Inhalte in Phishing-Kampagnen zu programmieren und zu verfassen, ähnlich wie die iranische Gruppe Curium.
Der Direktor für Erkennungsanalyse bei Microsoft, Homa Hayatyfar, hob in der Untersuchung hervor, dass “KI nun dazu beitragen kann, den Angriffen mehr Raffinesse zu verleihen und mehr Ressourcen zur Verfügung zu stellen”, jedoch hat das Unternehmen auch seine eigenen KI-Systeme zum Schutz, zur Erkennung und Reaktion.
Er betonte auch die Schaffung von Security Copilot, einem Assistenten für diejenigen, die im Bereich der Cybersicherheit arbeiten, dessen Zweck es ist, ihnen zu helfen, mögliche Sicherheitslücken zu identifizieren und die Signale und Daten, die täglich durch KI-Werkzeuge generiert werden, besser zu verstehen.
No Responses