Home TÄGLICHES UPDATE Die am meisten gelobte ChatGPT-Fähigkeit birgt auch ein großes Risiko für Unternehmen

Die am meisten gelobte ChatGPT-Fähigkeit birgt auch ein großes Risiko für Unternehmen

0

Während die Fähigkeit von ChatGPT, menschenähnliche Antworten zu generieren, weithin gefeiert wurde, stellt es auch das größte Risiko für Unternehmen dar.

So wie es aussieht, wird das Tool der künstlichen Intelligenz (KI) bereits verwendet, um Phishing-Angriffe zu verbessern, sagte Jonathan Jackson, Entwicklungsleiter für den asiatisch-pazifischen Raum von BlackBerry.

Er wies auf Aktivitäten hin, die in Untergrundforen entdeckt wurden, und sagte, es gebe Hinweise darauf, dass Hacker ChatGPT von OpenAI und andere KI-gestützte Chatbots verwenden, um Imitationsangriffe zu verbessern. Sie würden auch verwendet, um Deepfakes zu betreiben und Fehlinformationen zu verbreiten, sagte Jackson in einem Videointerview mit ZDNET, der hinzufügte, dass Hackerforen Dienste anbieten, um ChatGPT für schändliche Zwecke zu nutzen.

In einer im vergangenen Monat veröffentlichten Notiz stellte Sergey Shykevich, Threat Intelligence Group Manager von Check Point Technologies, auch fest, dass Anzeichen auf die Verwendung von ChatGPT durch Cyberkriminelle hindeuten, um das Schreiben von Codes zu beschleunigen. In einem Fall stellte der Sicherheitsanbieter fest, dass das Tool verwendet wurde, um einen Infektionsfluss erfolgreich abzuschließen, der das Erstellen einer überzeugenden Spear-Phishing-E-Mail und einer Reserve-Shell beinhaltete, die Befehle in englischer Sprache akzeptieren konnte.

Während die bisher entwickelten Angriffscodes ziemlich einfach blieben, sagte Shykevich, es sei nur eine Frage der Zeit, bis raffiniertere Bedrohungsakteure die Art und Weise verbessern, wie sie solche KI-basierten Tools verwenden.

Einige „Nebenwirkungen“ werden aus Technologien hervorgehen, die Deepfakes und ChatGPT antreiben, schrieb Sammy Migues, leitender Wissenschaftler der Synopsys Software Integrity Group, in seinen Vorhersagen für 2023. Personen, die „fachmännischen“ Rat oder technischen Support zur Konfiguration eines neuen Sicherheitsgeräts benötigen, können sich an ChatGPT wenden. Sie können auch das KI-Tool verwenden, um Kryptomodule zu schreiben oder jahrelange Protokolldaten zu durchlaufen, um Budgetüberprüfungen zu erstellen.

“Die Möglichkeiten sind endlos”, sagte Migues. „Sicher, die KI ist nur ein hirnloser Automat, der Dinge ausspuckt, die er zusammengebaut hat, aber auf den ersten Blick kann sie ziemlich überzeugen.“

KI antippen, um KI zu bekämpfen

Jackson merkte an, dass das Aufkommen von generativen KI-Anwendungen wie ChatGPT eine bedeutende Veränderung in der Cyber-Landschaft bewirken würde. Sicherheits- und Cyberabwehr-Tools müssen dann in der Lage sein, neue Bedrohungen zu identifizieren, die als Ergebnis großer Sprachmodelle entstehen, auf denen diese Anwendungen aufbauen, sagte er.

Dies ist relevant, da Unternehmen solche Risiken bald erwarten.

In Australien äußerten 84 % der IT-Entscheidungsträger Bedenken hinsichtlich der potenziellen Bedrohungen, die generative KI und große Sprachmodelle mit sich bringen könnten, so eine aktuelle BlackBerry-Studie, für die 500 Befragte im Land befragt wurden.

Die größte Sorge der Hälfte der Befragten war, dass die Technologie weniger erfahrenen Hackern helfen könnte, ihr Wissen zu verbessern und spezialisiertere Fähigkeiten zu entwickeln.

Weitere 48 % waren besorgt über die Fähigkeit von ChatGPT, glaubwürdigere und legitim aussehende Phishing-E-Mail-Nachrichten zu erstellen, aber weniger als 36 % sahen das Potenzial, Social-Engineering-Angriffe zu beschleunigen.

Etwa 46 % waren besorgt über die Verwendung zur Verbreitung von Fehl- oder Desinformationen, wobei 67 % glaubten, dass ChatGPT wahrscheinlich bereits von anderen Nationen für böswillige Zwecke verwendet wurde.

Etwas mehr als die Hälfte, nämlich 53 %, erwarteten, dass die Branche weniger als ein Jahr vom ersten erfolgreichen Cyberangriff auf Basis der KI-Technologie entfernt sein würde, während 26 % sagten, dass dies in ein bis zwei Jahren geschehen würde, und 12 % sagten, dass es dauern würde drei bis fünf Jahre.

Und während 32 % der Meinung waren, dass die Technologie die Cybersicherheit weder verbessern noch verschlechtern würde, glaubten 24 %, dass sie die Bedrohungslandschaft verschlimmern würde. Auf der anderen Seite sagten 40 %, dass es zur Verbesserung der Cybersicherheit beitragen könnte.

Etwa 90 % der australischen Befragten waren der Ansicht, dass Regierungen dafür verantwortlich sind, fortschrittliche Technologien wie ChatGPT zu regulieren. Weitere 40 % waren der Meinung, dass Cybersicherheitstools derzeit hinter der Innovation in der Cyberkriminalität zurückbleiben, wobei 30 % angaben, dass Cyberkriminelle am meisten von ChatGPT profitieren würden.

Etwa 60 % gaben jedoch an, dass Forscher am meisten von der Technologie profitieren würden, während 56 % glaubten, dass Sicherheitsberufe am meisten davon profitieren könnten.

Etwa 85 % planten, in den nächsten zwei Jahren in KI-gestützte Cybersicherheitstools zu investieren.

Der Einsatz von KI und Automatisierung auf beiden Seiten zum Starten und Abwehren von Cyberangriffen ist jedoch alles andere als neu. Warum also jetzt die Aufregung?

Jackson räumte ein, dass KI seit Jahren in der Cyberabwehr eingesetzt wird, merkte jedoch an, dass das einzigartige Merkmal von ChatGPT und anderen ähnlichen Tools ihre Fähigkeit sei, von Natur aus komplexe Konzepte wie Codierungssprachen in etwas umzuwandeln, das jeder verstehen könne.

Solche Tools liefen auf großen Sprachmodellen, die auf riesigen Mengen kuratierter, kontextbezogener Handelsdatensätze basierten. “Es ist bei bestimmten Dingen sehr mächtig”, bemerkte er. “ChatGPT ist eine unglaublich leistungsstarke Ressource für jedermann [who wants] um gute Codes oder in diesem Fall bösartige Codes zu erstellen, wie zum Beispiel Skripte, um die Verteidigung eines Netzwerks zu umgehen.”

Es kann auch verwendet werden, um das Social-Media-Profil bestimmter Personen zu webscrapen, um sie zu erstellen und sich für Spear-Phishing-Angriffe auszugeben

„Die größten Auswirkungen haben Social Engineering und Identitätswechsel“, sagte er und fügte hinzu, dass Tools wie ChatGPT zur Verbesserung von Phishing-Kampagnen eingesetzt werden.

Mit dem Aufkommen großer Sprachmodelle betonte er die Notwendigkeit, traditionelle Ansätze der Cyber- und Datenverteidigung zu überdenken. Er wies darauf hin, wie wichtig es ist, KI und maschinelles Lernen zu nutzen, um KI-gestützte Angriffe zu bekämpfen.

Investitionen in KI- und maschinelle Lernfähigkeiten werden Unternehmen helfen, potenzielle Bedrohungen schneller zu erkennen, was wichtig ist, sagte er. “Der Einsatz von Menschen ist nicht mehr realistisch und war es in den letzten Jahren nicht mehr.”

Jackson wies darauf hin, dass BlackBerry an einem Algorithmus gearbeitet hat, der zum Trainieren von Modellen zum Erkennen von Änderungen in Angriffstechniken und zum Blockieren bösartiger Inhalte erforderlich ist, die anscheinend von großen Sprachmodellen generiert werden. Volumen und Geschwindigkeit werden entscheidend sein, fügte er hinzu, damit es mit potenziellen Angriffen Schritt halten kann, selbst wenn sich ChatGPT und ähnliche Tools weiterentwickeln.

Er betonte weiter, dass diese Anwendungen auch positive Auswirkungen auf die Branche hätten. BlackBerry zum Beispiel verwendet ChatGPT für die erweiterte Bedrohungssuche und nutzt seine Codierungsfunktion, um komplexe Skripte zu verdauen und zu analysieren, damit es untersuchen kann, wie diese funktionieren, und seine Verteidigungstaktiken verbessern kann.

ZUGEHÖRIGE ABDECKUNG

source – www.zdnet.com

Exit mobile version