3 min Security

Consortium CoSAI wil security AI-applicaties flink verstevigen

Consortium CoSAI wil security AI-applicaties flink verstevigen

Techgiganten en AI-ontwikkelaars willen met het samenwerkingsverband Coalition for Secure AI (CoSAI) een betere security voor AI-applicaties bewerkstelligen. Dit door het ontwikkelen van specifieke tooling en het opzetten van een ecosysteem voor het delen van onder andere best practices.

De security van AI-applicaties wordt steeds belangrijker en de techindustrie wil hiervoor zijn verantwoordelijkheid nemen. Verschillende techgiganten en AI-ontwikkelaars willen deze security gezamenlijk aanpakken en hebben hiervoor het samenwerkingsverband CoSAI opgericht. De uitvoering van het CoSAI-samenwerkinsgverband vindt plaats onder de vlag van de non-profitorgansiatie OASIS Open. Deze organisatie houdt zich bezig met verschillende open-sourceprojecten vooral op het gebied van cybersecurity.

Onder de deelnemers bevinden zich zowel de grote drie hyperscalers AWS, Microsoft en Google, maar ook AI-ontwikkelaars als OpenAI, Anthropic, Cohere en GenLab. Andere deelnemers zijn bekende techbedrijven als Nvidia, Intel, IBM, Cisco, PayPal, Wiz en Chainguard.

De samenwerking onder CoSAI vormt een aanvulling op de reeds opgestarte initiatieven voor het ontwikkelen van AI. Het werk binnen dit nieuwe initiatief moet aanvullend zijn. Daarom wordt aangegeven dat er rekening wordt gehouden met het werk van ‘OpenSSF, AI Alliance, Cloud Security Alliance, Partnerships on AI en the Frontier Model Forum’.

Twee doelen

Het nieuwe samenwerkingsverband kent twee doelen. Het wil ten eerste bedrijven en organisaties de noodzakelijke tooling en de technische expertise leveren voor het beveiligen van hun AI-applicaties. Daarnaast wil het samenwerkingsverband een ecosysteem opzetten waarbinnen bedrijven hun best practices en technologie voor AI-gerelateerde cybersecurity kunnen delen.

Voor deze doelen worden een drietal open-source ‘workstreams’ of projecten opgestart. Het eerste project moet softwareontwikkelaars helpen met het scannen van hun ML-workloads op securityrisico’s. Hiervoor wordt een taxonomie ontwikkeld van bekende kwetsbaarheden en oplossingen om deze tegen te gaan. Daarnaast willen de CoSAI-deelnemers ook een ‘cybersecurity scorecard’ ontwikkelen voor het in de gaten houden van AI-systemen op kwetsbaarheden en deze aan belanghebbenden rapporteren.

Het tweede project waarmee het samenwerkingsverband start, richt zich op het tegengaan van AI-securityrisico’s. Het doel hierbij is het proces om die investeringen en migitatietechnieken te identificeren die een security-impact kunnen hebben op het gebruik van AI.

Het derde gestarte initiatief van CoSAI is aandacht geven aan de risico’s van supply chainaanvallen. Bijvoorbeeld door het gebruik van software-onderdelen uit publieke repositories en libraries als GitHub. Het checken van deze software-onderdelen op kwetsbaarheden is vaak een lang en ingewikkeld proces. CoSAI wil hiervoor nu workflows ontwikkelen die deze processen vereenvoudigen.

Angst voor open-source inboezemen

Parallel hieraan gaat het samenwerkingsverband ook veel aandacht geven aan de risico’s van het gebruik van third-party AI-modellen voor het ontwikkelen van oplossingen en toepassingen. Denk daarbij aan open-source neurale netwerken ter vervanging van het bouwen van eigen algoritmes die kostenintsenief zijn. De kans bestaat echter dat deze open-source modellen juist kwetsbaarheden meebrengen en hackers de kans geven hiervan misbruik te maken.

In de toekomst willen de partijen binnen CoSAI nog meer projecten starten. Alle initiatieven staan onder toezicht van een technisch comité van AI-experts uit de academische wereld en de private sector.

Lees ook: ‘Hacker bemachtigde details AI-technologie OpenAI’