Meta heeft voor zichzelf nieuwe regels opgesteld waarbij het intern ontwikkelde, mogelijk (zeer) hoogrisicovolle AI-modellen nooit openbaar zal maken. Het gaat hierbij om twee categorieën AI-modellen die mogelijk veel schade kunnen toebrengen en eventueel niet te beheersen zijn.
Hoewel Meta vanaf het begin van zijn AI-ontwikkelwerk altijd min of meer ‘open’ is geweest en zijn AI-technologie aan iedereen beschikbaar stelde, wil de techgigant nu toch richtlijnen opstellen. Vooral als het gaat om intern ontwikkelde AI-modellen die mogelijk veel risico’s met zich meebrengen.
In zijn recent gepubliceerde Frontier AI Framework-document, waarin deze richtlijnen worden vastgelegd, stelt Meta dat deze intern ontwikkelde AI-modellen met een hoge capaciteit en een hoog tot extreem hoog risico nooit openbaar zullen worden gemaakt.
Twee categorieën
Voor deze modellen of systemen met een hoog tot zeer hoog risico heeft de Meta twee categorieën gedefinieerd. De eerste categorie, high-risk, betreft hoogwaardige AI-modellen of -systemen die kunnen helpen bij het ontwikkelen en uitvoeren van cyberaanvallen en chemische of biologische aanvallen.
De tweede categorie, critical-risk, omvat de high-risk-modellen en -systemen die kunnen leiden tot aanvallen met ‘catastrofale uitkomsten’, die niet kunnen worden tegengegaan wanneer ze binnen een bepaalde context worden uitgerold.
Het verschil met de eerste categorie is dat high-risk-modellen of -systemen een aanval makkelijker maken om uit te voeren, maar niet zo betrouwbaar of afhankelijk zijn als een critical-risk-model of -systeem.
Voorbeelden van deze aanvallen zijn grootschalige, geautomatiseerde end-to-end cyberaanvallen op bedrijven die over de beste beschermingsmaatregelen beschikken, of de proliferatie van biologische wapens.
Menselijke beoordeling
In het document legt Meta ook uit hoe het zijn AI-systemen in deze categorieën plaatst. De systemen worden daarbij niet onderworpen aan empirische tests, maar beoordeeld door een team van interne en externe onderzoekers. Deze onderzoekers worden door het management van de socialmedia- en techgigant aangesteld.
Dat experts bepalen welke AI-modellen en -systemen hoge risico’s bevatten, komt volgens Meta doordat het bedrijf vindt dat het evalueren van AI-modellen voor risicobepaling nog niet robuust genoeg is om betrouwbare meetgegevens op te leveren.
Wanneer Meta bepaalt dat een AI-model een high-risk vormt, beperkt het intern de toegang tot dit model en wordt het niet openbaar uitgebracht totdat beperkingen zijn toegevoegd die het risico naar een meer ‘gematigd niveau’ verlagen.
Wanneer een systeem echter als critical-risk wordt beschouwd, worden er niet-gespecificeerde maatregelen genomen om ervoor te zorgen dat het model of systeem niet openbaar wordt, en zal het onderzoek worden stopgezet totdat het minder gevaarlijk is gemaakt.
Het Meta Frontier AI Framework zal met de vooruitgang van de AI-technologie steeds verder worden uitgebreid en aangepast.
Lees meer: Meta wil sociale media overspoelen met AI
Antwoord op DeepSeek
Volgens experts is het Frontier AI Framework van de socialmedia- en techgigant een reactie op de kritiek die het krijgt op zijn ‘open-source’-strategie voor AI-modellen, schrijft TechCrunch.
Meta maakt onder meer zijn Llama-modellen enigszins open source. Dit geeft veel ontwikkelaars de kans deze modellen voor eigen toepassingen te gebruiken, maar niet altijd op de juiste manier. Zo zou een geopolitieke tegenstander van de VS met de Llama-modellen een militaire chatbot hebben ontwikkeld.
Bovendien zou het opstellen van een document met richtlijnen voor AI-modellen en -systemen een antwoord kunnen zijn op de recente ontwikkelingen rondom het Chinese DeepSeek. Deze AI-ontwikkelaar maakt al zijn modellen echt open source, maar heeft weinig veiligheidsrichtlijnen, en het gebruik van dit model kan leiden tot schadelijke uitkomsten.
Lees ook: DeepSeek is onveilig, en dat heeft niets met China te maken