2 min Security

Prompt Security weert gevaren van AI-programmeurs

Prompt Security weert gevaren van AI-programmeurs

AI-assisten maken net als mensen fouten. Prompt Security wil organisaties een vangnet geven om AI-gegenereerde code automatisch te controleren op kwetsbaarheden.

GitHub stelde onlangs een gratis versie van Copilot beschikbaar, waardoor elke programmeur met internettoegang een AI-codeerhulpje kan raadplegen. Naast meer gemak levert de tool nu ook meer risico’s op.

Externe LLM’s hebben nu vrij spel binnen organisaties als ontwikkelaars niet op hun hoede zijn. Prompt Security wil een veilige productieomgeving niet laten afhangen van toeval.

Prompt Security’s verbeterde oplossing

Om deze uitdagingen aan te pakken, heeft Prompt Security een upgrade aangekondigd voor het eigen platform voor GitHub Copilot en andere AI-codeassistenten. De verbeterde oplossing zou sterker in de schoenen staan tegen datalekken, kwetsbare code sneller vinden en meer visibility geven in de invloed van AI op codebases.

Enkele belangrijke nieuwe functies:
– Inventarisatie van alle gebruikte AI-tools, inclusief ontwikkelaars die ofwel GitHub Copilot Enterprise of de gratis versie gebruiken
– Verbeterde mogelijkheden voor realtime codereiniging en -redactie
– Analyse van GitHub Copilot-responses, met blokkering van potentieel gevaarlijke of kwetsbare gegenereerde code
– Ondersteuning voor onder andere GitHub Copilot Free License, Amazon Q en GitLab Duo

Balanceren van security en productiviteit

De oplossing is ontworpen om organisaties te helpen bij het handhaven van compliance en security-vereisten, maar om alsnog profiteren van de voordelen van AI-codeassistenten. Volgens eerder onderzoek kunnen deze tools de productiviteit van ontwikkelaars met wel 55 procent verhogen. Dit is echter niet een eenduidig beeld, want AI-programmeerhulp levert ook kopzorgen op.

Itamar Golan, CEO en medeoprichter van Prompt Security, benadrukt het belang van het prioriteren van security zonder de productiviteit in gevaar te brengen. Dat is uiteindelijk de balans waar organisaties naar zullen moeten zoeken, zeker als het drukken van kosten nodig is om competitief te blijven.

Een eenduidig raamwerk voor AI-security is er dan ook niet. Hierdoor moeten partijen als Prompt de mazen dichten, zodat er niet op termijn een explosie aan kwetsbare code ontstaat. Mochten techbedrijven nog verder gaan snijden in hun programmeerteams, zoals de voorspelling is van onder meer Meta, dan is dit risico alleen maar aan het toenemen.