In der Welt der KI entsteht eine gefährliche Unterwelt: Hacker entwickeln Tools zur Umgehung von Ethikregeln bei KI-Modellen wie ChatGPT. Zudem tauchen bösartige KI-Modelle wie WormGPT auf. Diese Bedrohungen erfordern KI-basierte Verteidigung, da herkömmliche Schulungen nicht ausreichen. Cyberkriminelle gewinnen an Macht, und unsere Verteidigungsstrategien müssen sich anpassen.**
Die Dunkle Seite der KI: Malware, Jailbreaking und die Bedrohung für unsere digitale Welt
Die ersehnte Waffe, die die Nutzung generativer KI-Tools wie ChatGPT für illegale Zwecke ermöglicht, nimmt allmählich Gestalt an. In den Tiefen des Internets arbeiten neugierige Köpfe an neuen Wegen, um ChatGPTs Ethikregeln zu umgehen, ein Vorgang, der als „Jailbreaking“ bekannt ist. Gleichzeitig entwickeln Hacker ein Netzwerk neuer Tools, um große Sprachmodelle (LLMs) für böswillige Zwecke zu nutzen oder zu erstellen.
Wie überirdisch, so scheint es, hat ChatGPT auch in Untergrundforen einen regelrechten Sturm ausgelöst. Seit Dezember sind Hacker auf der Suche nach innovativen Anfragen, um ChatGPT zu manipulieren, und nach Open-Source-LLMs, die sie für böswillige Zwecke nutzen können. Das Ergebnis, laut einem neuen Blog von SlashNext, ist eine noch junge, aber blühende Gemeinschaft von LLM-Hackern, die viele clevere Anfragen, aber nur wenige KI-fähige Malwares besitzen, die eine zweite Überlegung wert sind.
Was Hacker mit KI-LLMs anstellen
Die Kunst des gezielten Fragestellens an Chatbots wie ChatGPT, um sie zu manipulieren und ihre programmierten Regeln zu brechen, ist ein Akt der rohen Gewalt, wie Patrick Harr, CEO von SlashNext, erklärt: „Hacker versuchen lediglich, die Begrenzungen auszuloten. Was sind die Grenzen? Ich ändere kontinuierlich die Anfragen und frage auf verschiedene Arten, um zu erreichen, was ich möchte.“
Da dies eine mühsame Aufgabe ist und jeder denselben Zielobjekt angreift, haben sich zwangsläufig gesunde Online-Communities gebildet, um Tipps und Tricks auszutauschen. Mitglieder dieser Jailbreak-Communities helfen sich gegenseitig, ChatGPT zu knacken und Dinge zu tun, die die Entwickler verhindern wollten.
Prompt-Ingenieure können jedoch nur begrenzt erreichen, wenn der betreffende Chatbot so widerstandsfähig wie ChatGPT gebaut ist. Noch besorgniserregender ist der Trend, dass Malware-Entwickler LLMs für ihre eigenen bösartigen Zwecke programmieren.
Die drohende Bedrohung von WormGPT und bösartigen LLMs
Im Juli tauchte WormGPT auf und läutete das Zeitalter der bösartigen LLMs ein. Es handelt sich um eine schwarze Alternative zu GPT-Modellen, die speziell für böswillige Aktivitäten wie BEC, Malware und Phishing-Angriffe entwickelt wurden und in Untergrundforen beworben werden, „wie ChatGPT, aber ohne ethische Grenzen oder Beschränkungen.“ Der Schöpfer von WormGPT behauptete, es auf einem benutzerdefinierten Sprachmodell aufgebaut zu haben, das auf verschiedenen Datenquellen basiert, wobei der Schwerpunkt auf Daten zu Cyberangriffen lag.
„Was das für Hacker bedeutet“, erklärt Harr, „ist, dass ich jetzt zum Beispiel ein Business-Email-Kompromiss (BEC), einen Phishing-Angriff oder einen Malware-Angriff in großem Maßstab und mit sehr geringen Kosten durchführen kann. Und ich könnte viel gezielter vorgehen als zuvor.“
Seit WormGPT wurden in zwielichtigen Online-Communities eine Reihe ähnlicher Produkte angeboten, darunter FraudGPT, der von einem Bedrohungsakteur beworben wird, der behauptet, ein verifizierter Verkäufer auf verschiedenen Untergrund-Dark-Web-Marktplätzen zu sein. Im August tauchten die DarkBART- und DarkBERT-Cyberkriminellen-Chatbots auf, die auf Google Bard basieren und nach Ansicht von Forschern einen großen Fortschritt für die adversative KI darstellen, einschließlich der Integration von Google Lens für Bilder und des sofortigen Zugriffs auf die gesamte Wissensbasis des Cyber-Untergrunds.
Laut SlashNext verbreiten sich diese Produkte nun zunehmend, wobei die meisten von ihnen auf Open-Source-Modellen wie OpenAI's OpenGPT basieren. Eine Vielzahl weniger erfahrener Hacker passen sie einfach an, verbergen sie in einer Hülle und verpassen ihnen einen vage unheilvollen Namen wie „BadGPT“ oder „DarkGPT“. Selbst diese Imitate haben jedoch ihren Platz in der Gemeinschaft und bieten wenige Einschränkungen sowie absolute Anonymität für die Benutzer.
Verteidigung gegen KI-Cyberwaffen der nächsten Generation
Weder WormGPT noch seine Nachfolger noch Prompt-Ingenieure stellen nach Angaben von SlashNext derzeit eine erhebliche Gefahr für Unternehmen dar. Dennoch bedeutet der Aufstieg von Untergrund-Jailbreaking-Märkten, dass mehr Werkzeuge für Cyberkriminelle verfügbar werden, was wiederum auf eine umfassende Veränderung in der sozialen Ingenieurskunst und in unseren Verteidigungsstrategien hinweist.
Harr rät: „Verlassen Sie sich nicht auf Schulungen, denn diese Angriffe sind sehr spezifisch und gezielt, viel mehr als in der Vergangenheit.“ Stattdessen stimmt er der allgemein akzeptierten Ansicht zu, dass KI-Bedrohungen KI-Schutz erfordern. „Wenn Sie keine KI-Tools haben, die diese Bedrohungen erkennen, vorhersagen und blockieren, werden Sie draußen bleiben und zuschauen müssen“, sagt er .
Discussion about this post