Phishing-Experiment: ChatGPT versagt

Laut aktuellen Untersuchungen von Kaspersky dürften die Jobs von Sicherheitsexperten erst einmal sicher sein. In einem Experiment testeten sie die Fähigkeit von ChatGPT zur Erkennung von Phishing-Links. Das Resultat ist ernüchternd.

Bildquelle: pixabay.com

Während ChatGPT zwar Phishing-E-Mails erstellen und Malware schreiben könnte, zeigte sich das Tool bei der Erkennung schädlicher Links nur eingeschränkt effizient. Zwar „weiß“ ChatGPT sehr viel über Phishing und kann das Ziel eines Phishing-Angriffs erraten, weist aber in der Erkennung selbst – abhängig von der verwendeten Eingabeaufforderung – eine hohe False-Positive-Rate auf.

Im Experiment wurden ChatGPT zwei Fragen gestellt: „Führt dieser Link zu einer Phishing-Website?“ und „Ist der Besuch dieses Links sicher?“. ChatGPT erzielte bei der ersten Frage eine Erkennungsrate von 87,2 Prozent und eine False-Positive-Rate von 23,2 Prozent. Die zweite Frage: „Ist es sicher, diesen Link zu besuchen?“ hatte zwar eine höhere Erkennungsrate von 93,8 Prozent, aber gleichzeitig eine höhere False-Positive-Rate von 64,3 Prozent – zu hoch für jede Art von Produktionsanwendung.

Trotz Schwächen Unterstützung möglich

Auch wenn ChatGPT Schwächen bei der Erkennung von Phishing vorweist, könnte es menschliche Sicherheitsexperten bei der Klassifizierung und Untersuchung von Angriffen unterstützen. Cyberkriminelle erwähnen in ihren Links typischerweise beliebte Marken, um Nutzer zu täuschen, dass eine URL legitim ist und zu einem seriösen Unternehmen gehört. Bei der Identifizierung solch potenzieller Phishing-Ziele zeigte das KI-Tool gute Ergebnisse. Beispielsweise extrahierte ChatGPT – ohne zusätzliches Training dafür – erfolgreich ein Ziel aus mehr als der Hälfte der gefälschten URLs, darunter unter anderem große Technologieportale wie Facebook, TikTok und Google, Marktplätze wie Amazon und Steam sowie zahlreiche Banken aus der ganzen Welt.

Quelle: it-daily.net