3min Devops

OpenAI komt met tools voor ontwikkelen veiligere apps

OpenAI komt met tools voor ontwikkelen veiligere apps

OpenAI heeft een nieuwe stap gezet in het verbeteren van online veiligheid voor jongeren. Het bedrijf publiceerde het Teen Safety Policy Pack op GitHub. Dit pakket bestaat uit beleidsregels en voorbeeldprompts die ontwikkelaars kunnen gebruiken om AI-systemen beter af te stemmen op een jonger publiek.

Het initiatief speelt in op de groeiende rol van generatieve AI in het dagelijks leven van tieners en de zorgen over de impact daarvan. De set aan veiligheidsrichtlijnen is bedoeld om ontwikkelaars een concreet vertrekpunt te geven, zodat zij niet vanaf nul hoeven te bepalen hoe hun toepassingen veilig gemaakt kunnen worden voor minderjarigen, schrijft TechCrunch. De policies zijn opgebouwd als prompts en kunnen worden toegepast met OpenAI’s open-weight veiligheidsmodel gpt-oss-safeguard, maar ook met andere modellen.

Het policy pack is een praktische toolkit. In plaats van abstracte richtlijnen biedt OpenAI concrete instructies die direct geïntegreerd kunnen worden in AI-toepassingen. Deze helpen systemen om risicovolle of ongepaste content te herkennen en consistent te reageren, bijvoorbeeld bij geweld, seksuele inhoud, schadelijke schoonheidsidealen en gevaarlijke uitdagingen.

Opvallend is dat het pakket open source beschikbaar is. Ontwikkelaars krijgen inzicht in OpenAI’s aanpak en kunnen de regels aanpassen aan hun eigen toepassingen. Volgens het bedrijf helpt dit om een basisniveau van veiligheid binnen het AI-ecosysteem te realiseren, met ruimte voor verdere verbetering.

De ontwikkeling gebeurde samen met organisaties als Common Sense Media en everyone.ai, die zich richten op digitale veiligheid. Vanuit die samenwerking wordt het policy pack gepositioneerd als een minimale veiligheidsstandaard die door de industrie kan worden uitgebreid.

Kant-en-klare prompts als oplossing voor ontwikkelaar

OpenAI stelt dat ontwikkelaars vaak moeite hebben om algemene veiligheidsdoelen te vertalen naar concrete regels. Dat leidt tot inconsistent beleid of te brede filtering. Met kant-en-klare prompts wil het bedrijf die drempel verlagen en implementatie versnellen.

Het Teen Safety Policy Pack past binnen een bredere strategie om AI-gebruik door jongeren veiliger te maken, met eerdere stappen zoals parental controls, leeftijdsinschatting en updates van de Model Spec voor gebruikers onder de achttien.

Tegelijk erkent OpenAI dat deze aanpak geen volledige oplossing biedt. Het bedrijf staat onder druk door maatschappelijke en juridische discussies over de impact van AI, waaronder rechtszaken rond zelfdoding waarbij chatbotgebruik een rol zou hebben gespeeld. In dat licht is het policy pack een volgende stap om risico’s te beperken en ontwikkelaars beter te ondersteunen.

Met de publicatie positioneert OpenAI zich als partij die inzet op het standaardiseren van veiligheidspraktijken. Of het initiatief breed wordt opgepakt, hangt af van de bereidheid van ontwikkelaars om deze richtlijnen te integreren.