Home Krypto Verwendet ChatGPT-Malware Python und Powershell, um Dateien zu stehlen?

Verwendet ChatGPT-Malware Python und Powershell, um Dateien zu stehlen?

0

ChatGPT

Verwendet ChatGPT-Malware Python und Powershell, um Dateien zu stehlen?

ChatGPT und die damit verbundenen Projekte wie AI haben viele Bedenken geäußert, die von Betrug mit Anmeldeinformationen bis hin zum Verlust von Arbeitsplätzen reichen. Eine solche unterschätzte ist die Verwendung von ChatGPT-Malware mit Python und Powershell. Obwohl es sich noch viel in der Anfangsphase befindet, gibt es mehrere Proofs of Concepts, die darauf hindeuten, dass Bedrohungsakteure mit geringen oder sogar unerfahrenen Bedrohungen herausgefunden haben, wie ChatGPT manipuliert werden kann, um einfache, aber brauchbare Malware zu produzieren.

ChatGPT-Malware, die Python und Powershell verwendet, um Dateien zu stehlen

Der Check Point-Bericht beschreibt einen Dark-Web-Thread, der am 29. Dezember von einem erfahreneren kriminellen Akteur gepostet wurde, der diejenigen mit weniger Fähigkeiten anleitet, sowie einen Thread von einer Woche zuvor von einem Benutzer, der behauptete, sein ChatGPT-Malware-Skript sei der erste Code, den er je hatte geschrieben. Ein weiterer Silvester-Thread beschreibt, wie man mit ChatGPT Dark-Web-Marktplätze erstellt.

Der fortgeschrittenere Forumsbenutzer gab an, dass er versuchte, ChatGPT dazu zu bringen, eine Vielzahl bekannter Malware-Stämme und -Techniken nachzubilden. Außerdem sei es ihm gelungen, die KI dazu zu bringen, Malware-Samples zwischen Programmiersprachen zu übersetzen. Die Methode erfordert einige grundlegende Programmierkenntnisse, aber der Hacker stellte detaillierte Anweisungen für diejenigen bereit, die die Technik replizieren möchten. In einem zweiten Beispiel dieses Posters generiert ChatGPT einen kurzen Java-Code, der einen SSH- und Telnet-Client herunterlädt und Powershell verwendet, um ihn auf einem Zielsystem auszuführen und dabei eine Erkennung zu vermeiden. Dieses Skript hat ein offenes Ende, sodass Malware stattdessen heruntergeladen und auf Zielsystemen installiert werden kann.

Mit Hilfe von ChatGPT hat der vorherige Forumsbenutzer, der mit seiner ersten Python-Malware experimentierte, im Wesentlichen ein einfaches Ransomware-Tool erstellt. Sachkundigere Forumsmitglieder bestätigten, dass dieses Skript eine bestimmte Liste von Dateien oder Verzeichnissen erfolgreich verschlüsseln würde. Das Skript enthielt Informationen, die zum Entschlüsseln der Zieldateien wie dargestellt erforderlich waren, aber Check Point weist darauf hin, dass es geändert werden könnte, um diese zu entfernen. Trotz der Tatsache, dass die vorherige Forenaktivität dieses Benutzers darauf hindeutet, dass er kein Programmierer ist, ist er im kriminellen Untergrund als Vermittler für gestohlene Datenbanken und den Zugriff auf kompromittierte Unternehmen aktiv und bekannt.

Der dritte Fall betrifft keine Malware, aber ChatGPT ist in den Prozess des Verkaufs und der Übertragung gestohlener Daten involviert. Dieses Beispiel erstellt einen temporären Forum-Marktplatz, der Krypto-Zahlungsmethoden verwenden kann, um Überweisungen zu erleichtern.

Die unmittelbarste Bedrohung durch KI-Malware besteht darin, dass sie die Fähigkeiten ungelernter Bedrohungsakteure verbessert.

Im Moment stellen die von ChatGPT entwickelten Tools keine neuen oder ernsthaften Bedrohungen dar. Denken Sie jedoch daran, dass ChatGPT eine frühe Version eines Projekts ist, das sich noch in der Entwicklung befindet, und es nur eine Frage der Zeit ist, bis komplexere Malware automatisch mit wenig bis gar keinem Hackerwissen generiert werden kann.

Mit Hilfe von KI werden erfahrene Cyberkriminelle letztendlich in der Lage sein, hochgradig maßgeschneiderte Tools in viel kürzeren Zeiträumen zu erstellen oder zu verfeinern, während Unerfahrene stark davon profitieren werden. Die Fähigkeit von ChatGPT, einigermaßen überzeugende Phishing-E-Mails in einer anderen Sprache zu generieren, ist ein Beispiel dafür.

Der „Kampf der KIs“ bleibt jedoch eine ferne Möglichkeit, die durch mehrere Faktoren behindert wird. Einer ist, dass ChatGPT häufig etwas falsch macht, aber immer Antworten ausgibt, als ob es sicher ist, dass sie richtig sind; Es erfordert immer noch ein geschultes Auge, um zu wissen, ob der generierte Code funktionsfähig und für den beabsichtigten Zweck geeignet ist. Ein weiterer Grund ist, dass diese fortschrittlichen, teuren Modelle in den Händen einer kleinen Anzahl von Personen verbleiben, die eine beträchtliche Kontrolle darüber haben, wie sie verwendet werden.

Die unmittelbarste Bedrohung ist der Schub, den dies „Skript-Kiddies“ geben wird, die wenig Programmierkenntnisse haben, aber Websites wie GitHub und StackExchange durchkämmen, um vorgefertigten Code zusammenzufügen. Dies kann böswillig verwendet werden.

source – www.analyticsinsight.net

Exit mobile version