3 min Security

GhostGPT: malafide chatbot helpt cybercrime

GhostGPT: malafide chatbot helpt cybercrime

Een recent geïntroduceerde AI-chatbot, genaamd GhostGPT, biedt cybercriminelen een handig hulpmiddel voor het ontwikkelen van malware. 

Net als eerdere soortgelijke chatbots zoals WormGPT, is GhostGPT een ongecensureerd AI-model. Dit betekent dat het is afgestemd om de gebruikelijke beveiligingsmaatregelen en ethische beperkingen van gangbare AI-systemen zoals ChatGPT, Claude, Google Gemini en Microsoft Copilot te omzeilen.  

Kwaadwillenden kunnen GhostGPT gebruiken om schadelijke code te genereren. En om ongefilterde antwoorden te ontvangen op gevoelige of schadelijke vragen die traditionele AI-systemen doorgaans zouden blokkeren. Dit schrijven onderzoekers van Abnormal Security in een blogpost.

GhostGPT wordt gepromoot voor een reeks kwaadaardige activiteiten. Denk daarbij aan coderen, malwarecreatie en exploitontwikkeling. Men kan het ook gebruiken om overtuigende e-mails te schrijven voor zakelijke e-mailfraude.

Vijftig dollar voor een week

Abnormal Security ontdekte GhostGPT in november op een Telegram-kanaal. Sindsdien lijkt de malafide chatbot veel tractie te hebben gekregen onder cybercriminelen. Dit vertelde een onderzoeker van Abnormal aan Dark Reading. De makers bieden drie prijzen aan voor het grote taalmodel. Dat komt neer op $50 voor een week gebruik. $150 voor een maand en $300 voor drie maanden. 

Voor die prijs krijgen gebruikers een ongecensureerd AI-model dat snelle antwoorden op vragen belooft. En dat kan worden gebruikt zonder jailbreak-opdrachten. De auteur(s) van de malware claimen ook dat GhostGPT geen gebruikerslogs bijhoudt of enige gebruikersactiviteit registreert. Dat maakt het een gewild hulpmiddel voor degenen die hun illegale activiteiten willen verbergen.

Malafide chatbots groeiend probleem

Malafide AI-chatbots zoals GhostGPT vormen een nieuw en groeiend probleem voor beveiligingsorganisaties omdat ze de drempel voor cybercriminelen verlagen. De tools stellen iedereen in staat om snel schadelijke code te genereren door slechts een paar opdrachten in te voeren. 

Bovendien stellen ze individuen met enige programmeervaardigheden in staat om hun mogelijkheden te vergroten. En om hun malware- en exploitcode te verbeteren. Ze elimineren grotendeels de noodzaak voor iemand om tijd en moeite te besteden aan jailbreaken van generatieve AI-modellen voor schadelijk en kwaadaardig gebruik.  

WormGPT, bijvoorbeeld, verscheen in juli 2023 als een van de eerste kwaadaardige AI-modellen. Het is expliciet voor kwaadaardig gebruik ontwikkeld. Sindsdien is er een handvol andere modellen geweest, waaronder WolfGPT, EscapeGPT en FraudGPT.

De meeste modellen kregen weinig tractie. Dit komt onder meer omdat ze niet aan hun beloften voldeden. Of gewoon jailbreak-versies waren van ChatGPT met toegevoegde wrappers om ze eruit te laten zien als nieuwe, op zichzelf staande AI-tools. 

Volgens een onderzoeker van Abnormal is GhostGPT niet heel anders dan andere ongecensureerde varianten zoals WormGPT en EscapeGPT. De specifieke verschillen hangen echter af van welke variant je ermee vergelijkt.

EscapeGPT, bijvoorbeeld, vertrouwt op jailbreak-opdrachten om beperkingen te omzeilen, terwijl WormGPT een volledig aangepast groot taalmodel (LLM) was dat specifiek voor kwaadaardige doeleinden was ontworpen. Bij GhostGPT is het onduidelijk of het een aangepast LLM is of een jailbreak-versie van een bestaand model, omdat de auteur deze informatie niet heeft vrijgegeven. Dit gebrek aan transparantie maakt het moeilijk om GhostGPT definitief te vergelijken met andere varianten.

Ontwikkelaar van GhostGPT onbekend

De groeiende populariteit van GhostGPT in ondergrondse kringen lijkt ook de maker(s) voorzichtiger te hebben gemaakt. De auteur of verkoper van de chatbot heeft veel accounts die waren aangemaakt om de tool te promoten, gedeactiveerd en lijkt te zijn overgestapt op privéverkopen, aldus de onderzoeker. Verkoopthreads op verschillende cybercrimeforums zijn ook gesloten, wat de identiteit van de makers verder verhult. Op dit moment is er geen definitieve informatie over wie achter GhostGPT zit.