OpenAI heeft zijn strijd tegen misbruik van kunstmatige intelligentie verder opgevoerd. In een nieuw rapport onthult het bedrijf dat het de afgelopen maanden meerdere internationale netwerken heeft ontmanteld die zijn modellen gebruikten voor cyberaanvallen, scams en politieke beïnvloeding.
De analyse toont hoe kwaadwillenden steeds geavanceerder worden in het inzetten van AI, terwijl OpenAI tegelijkertijd zijn verdedigingsmechanismen uitbreidt. Volgens het rapport proberen dreigingsactoren kunstmatige intelligentie niet te gebruiken om volledig nieuwe aanvalsmethoden te ontwikkelen, maar om bestaande tactieken te versnellen. De modellen van OpenAI worden gekoppeld aan traditionele aanvalsketens, waardoor phishing, malwareontwikkeling en propaganda efficiënter worden uitgevoerd.
Russische groepen werden betrapt bij het verfijnen van malwarecomponenten zoals remote-access trojans en credential stealers. Koreaanssprekende hackers werkten aan command-and-control-systemen, terwijl vermoedelijk Chinees-gelieerde actoren AI gebruikten om phishingcampagnes te verbeteren die gericht waren op Taiwan, Amerikaanse universiteiten en politieke organisaties. In al deze gevallen blokkeerden OpenAI’s ingebouwde veiligheidsmechanismen de directe kwaadaardige verzoeken.
Grote scam-industrie in Azië en Afrika
Een opvallende sectie van het rapport behandelt de groei van georganiseerde oplichtingsnetwerken in Cambodja, Myanmar en Nigeria. Deze groepen gebruiken ChatGPT niet alleen om berichten te vertalen. Ze creëren er ook overtuigende profielen mee en zetten frauduleuze investeringscampagnes op.
Sommige operators vroegen de AI zelfs om tekstkenmerken te verwijderen die hun gebruik van generatieve modellen zouden kunnen verraden. Volgens onderzoekers is de omvang van deze scam-industrie zodanig dat ze een aanzienlijk deel van Cambodja’s economie beïnvloedt.
Ondanks die pogingen tot misbruik blijkt dat AI vaker wordt ingezet voor verdediging dan voor aanval. Uit de data van OpenAI blijkt dat men de modellen drie keer zo vaak gebruikt om fraude te detecteren als om die te faciliteren. Miljoenen gebruikers schakelen ChatGPT in om verdachte berichten, investeringsvoorstellen en websites te analyseren. Dat bewijst dat AI inmiddels een belangrijk instrument is in de strijd tegen digitale criminaliteit.
OpenAI rapporteert daarnaast meerdere pogingen van gebruikers met vermoedelijke banden met autoritaire regimes. Zij zetten AI in voor binnenlandse surveillance en propaganda. Accounts die ondersteuning vroegen bij het monitoren van sociale media, het profileren van dissidenten of het genereren van propaganda werden onmiddellijk geblokkeerd.
Beveiligingsexpert Cory Kennedy van SecurityScorecard stelt dat het rapport laat zien hoe bedreigingsactoren meerdere AI-modellen combineren om hun operaties op te schalen. Volgens hem onderstreept dit de noodzaak van samenwerking tussen technologiebedrijven, overheden en maatschappelijke organisaties. OpenAI benadrukt dat het misbruik van AI geen tijdelijk risico is, maar een voortdurend evoluerende dreiging waarvoor blijvende waakzaamheid nodig is.