6 min Analytics

AI ondergaat via goede prompts ware metamorfose

Insight: Generatieve AI

AI ondergaat via goede prompts ware metamorfose

Het gebruiken van taalmodellen verandert de manier waarop bedrijven automatisering benaderen. Toch ligt de sleutel tot succes niet enkel in het inzetten van de modellen, maar juist in hoe ze worden aangestuurd via prompts. Daar gaat het nogal eens mis, ziet Head of Research Center AI Joop Snijder van Info Support. Hij stelt dat organisaties veel meer kunnen bereiken op automatiseringsvlak wanneer ze goed geformuleerde prompts sturen naar het model, zodat de output naar een gewenste richting gaat.

Taalmodellen werden bij de opkomst eind 2022 vooral gebruikt voor het beantwoorden van losse vragen of het genereren van eenvoudige tekst. Momenteel beperken organisaties zich nog steeds tot dit gebruik. Ze sturen een prompt richting een large language model (LLM), die simpelweg het antwoord tonen. De echte kracht van taalmodellen schuilt echter in het vermogen om complexere workflows te ondersteunen. Denk aan het koppelen van meerdere prompts en antwoorden in een keten, zodat uiteindelijk bedrijfsprocessen automatisch kunnen worden uitgevoerd.

Om dit te realiseren, is het cruciaal prompts zorgvuldig uit te werken. Een duidelijke en specifieke prompt biedt een mate van voorspelbaarheid in de output, wat essentieel is voor automatisering. Alleen dan kunnen bedrijven taalmodellen integreren in applicaties. Op die manier voeren ze pas echt intelligentie toe aan bepaalde delen van hun bedrijfsprocessen.

Belang van balans en iteratie

Toch blijkt het lastig een goede prompt op te stellen, ziet Snijder. Alleen al hele normale menselijke eigenschappen zijn daar debet aan. De ene persoon zit zo in elkaar dat die te weinig informatie voedt aan een LLM, waardoor de prompt te algemeen is. Het model geeft dan vage of irrelevante antwoorden. Aan de andere kant heb je weer een groep personen die neigt te veel informatie te delen. Dan is een prompt overbelast met instructies en kan het de essentie niet meer volgen. Het merendeel van de mensen zit in een van deze twee groepen. Vergelijk het met hoe collega’s en klanten momenteel digitaal communiceren; ze schrijven hele korte of lange mailtjes, maar zijn ze daarmee juist gebalanceerd voor jou? Precies het vinden van de juiste balans in een prompt is essentieel op weg naar de juiste prompt, iets wat oefening vereist.

Een strategie die hierin helpt, is het opdelen van complexe taken in kleinere, specifieke prompts. Door subtaken apart te formuleren en de antwoorden stapsgewijs samen te voegen, blijft het model gefocust. Daarnaast kunnen taalmodellen zelf worden ingezet om prompts te verbeteren. Door het model feedback te geven op de output (“dit is niet wat ik verwachtte”) en te vragen wat ontbreekt in de prompt, ontstaat een iteratief proces. Dit leidt uiteindelijk tot herhaalbare en nauwkeurige prompts, legt Snijder uit.

Het evalueren en verfijnen van prompts is wat dat betreft essentieel. Een systematische aanpak, waarbij de output steeds opnieuw wordt geanalyseerd en aangepast, kan helpen om fouten te corrigeren. Dit proces zorgt voor consistente verbeteringen in resultaten en helpt bedrijven op een juiste manier gebruik te maken van AI.

Handen die op een toetsenbord typen, met daarboven een illustratie van een gloeiende hersenen, die creativiteit en ideeën symboliseren.

Prompts testen

Snijder legt uit dat prompt testing hierin een uitkomst kan zijn, maar dat daar ook uitdagingen bij komen kijken. Het vereist namelijk een nieuwe werkwijze ten opzichte van hoe IT’ers nu handelen. Traditionele softwaretesten zijn deterministisch: dezelfde input levert altijd dezelfde output op. Bij taalmodellen werkt dit anders. Door willekeur kunnen twee identieke prompts verschillende antwoorden genereren. Dit vraagt om een nieuwe benadering van testen, namelijk semantisch testen. Daarbij kijk je niet alleen naar exacte overeenkomsten in output, maar naar de betekenis en context ervan.

Een voorbeeld dat Snijder met ons deelt is het automatisch genereren van een social media-bericht. Stel dat een AI een eerste zin schrijft voor een post. Daarin moeten minimaal de naam van een gast en het bijbehorende bedrijf voorkomen. Dit is een eenvoudige test, maar vergelijkbare methoden kunnen ook schrijfstijl, woordgebruik en zelfs de intentie van een tekst evalueren. Semantische testen zorgen er dan voor dat prompts consistent zijn en betrouwbare resultaten opleveren, zelfs binnen de willekeur van AI.

Context is cruciaal

LLM’s hebben daarnaast een beperkte context window, het aantal tokens aan input en eerdere interacties dat de modellen kunnen verwerken. Het effectief benutten van deze context vraagt om slim promptgebruik. Zo is het handig irrelevante informatie te vermijden en de input te structureren op een manier die het model helpt prioriteiten te stellen. Eventueel kan je aanvullend ervoor kiezen van meerdere modellen te gebruiken. Zo is Claude geschikter voor schrijftaken, terwijl ChatGPT beter presteert bij brainstormsessies. Door de juiste tool voor de juiste taak te kiezen, wordt de kracht van elk model benut.

Een andere techniek is het toepassen van chain-of-thought prompting, waarbij prompts worden ontworpen om complexe taken op te splitsen in logisch gestructureerde stappen. Dit helpt niet alleen de nauwkeurigheid van de resultaten te verbeteren, ook maakt het de gedachtegang van het model inzichtelijker. Hierdoor kunnen bedrijven processen beter automatiseren en stroomlijnen.

Tools voor prompt engineering

Gelukkig komen er ook steeds meer tools op om het proces van prompt engineering te ondersteunen. Een voorbeeld is de prompt playground van Anthropic, de maker van Claude. Daarmee kunnen gebruikers prompts genereren, testen en evalueren in een interactieve omgeving. Dergelijke tools helpen naast het beter formuleren van prompts ook tot het stroomlijnen van prompt engineering-processen.

Daarnaast is het nuttig de beperkingen van taalmodellen te begrijpen en ermee om te gaan. Denk aan het beheersen van hallucinaties, het effectief inzetten van tokens en het waarborgen van consistente output. Door deze uitdagingen aan te pakken, kunnen prompts betrouwbaarder worden ingezet in complexe toepassingen.

Naar een metamorfose

De kunst van goede prompts verandert niet alleen hoe AI wordt ingezet, maar ook hoe bedrijven automatisering benaderen. Door prompts te verfijnen, processen op te splitsen en output semantisch te testen, wordt AI een betrouwbare partner in bedrijfsprocessen. Deze aanpak leidt tot meer efficiëntie. Ook vind je mogelijk nieuwe toepassingen die eerder ondenkbaar waren.

Met de juiste strategie biedt prompt engineering een weg naar een toekomst waarin AI uitgroeit van leuk hulpmiddel naar een integraal onderdeel van intelligente en adaptieve workflows. Door de basisprincipes van goede prompts te omarmen, kunnen organisaties de potentie van AI benutten en een metamorfose in hun processen teweegbrengen.

Tip: Twee jaar generatieve AI: waar staan we nu?