IBM claimt met watsonx bouwblokken te bieden voor het succesvol uitrollen van Generatieve AI-initiatieven in enterprise-omgevingen. Wat zijn deze bouwblokken en waarom heeft IBM er zoveel vertrouwen in dat ze dit beter kunnen dan andere partijen in de markt? Wij waren recent op de eerste editie van IBM TechXchange EMEA om hier meer over te weten te komen.
IBM kondigde watsonx vorig jaar aan tijdens de eigen Think-conferentie en heeft het binnen een jaar uitgebouwd naar een enterprise AI stack. Hiermee is het mogelijk om GenAI in zakelijke omgevingen uit te rollen en in te zetten. Dat wil zeggen, het platform bevat alle componenten die belangrijk zijn om dit te realiseren: watsonx.ai, watsonx.data en watsonx.governance. De eerste twee waren bij lancering meteen onderdeel van de stack, de derde werd in november 2023 toegevoegd.
Onderdelen van een succesvolle AI-strategie
Organisaties kunnen deze componenten allemaal afnemen bij IBM, maar ook alleen voor de onderdelen kiezen die ze nodig hebben. Wel is het belangrijk om het geheel in te richten aan de hand van een “recept voor succes voor AI in enterprise-omgevingen”, zoals Dinesh Nirmal, SVP Products, IBM Software het noemt in zijn keynote tijdens TechXchange.
Geïntegreerd platform
Het recept waar Nirmal het over heeft bestaat uit drie ingrediënten. Het eerste is een goed geïntegreerd platform, oftewel een AI-stack die geschikt is voor enterprise-omgevingen. Bij IBM is dat watsonx. Nirmal maakt er een punt van dat dit geen gesloten stack is. Er is een SDK beschikbaar en je kunt (REST) API’s gebruiken. Hij ziet generatieve AI niet als een wereld waarin er maar één winnaar is, maar waarin iedereen een winnaar kan zijn.
Dat iedereen een winnaar kan zijn, klinkt een beetje te positief wat ons betreft, al snappen we wel wat Nirmal bedoelt. Er zal niet een enkel model, leverancier of benadering zijn die het gaat winnen. Als we hem na zijn keynote ook nog even kort 1-op-1 spreken, heeft hij het ook liever over een set sterk geïntegreerde technologieën en niet meer over platformen. Dat laatste heeft toch altijd wat single-vendor associaties. IBM kan uiteraard wel de nodige expertise inbrengen op alle vlakken. We komen hier verderop nog even op terug.
AI-modellen voor enterprise-doeleinden
Het tweede ingrediënt bestaat uit de AI-modellen die gebruikt worden. Deze moeten geschikt zijn voor gebruik in enterprise-omgevingen. IBM heeft een eigen foundation model, Granite, maar bijvoorbeeld ook een partnership met Hugging Face, waarmee je ook opensource modellen kunt gebruiken. Deze open benadering met betrekking tot modellen is nodig, want er is niet één model dat geschikt is voor alle gebruiksdoelen.
Nirmal geeft ook aan dat het niet per se nodig is om een model te gebruiken met 70 miljard parameters. Met minder parameters kun je ook uitstekend aan de slag. Minder parameters zal onderaan te streep een iets minder accuraat resultaat opleveren, maar dat hoeft niet altijd erg te zijn. Dat heeft met het gebruiksdoel te maken. Voor sommige gebruiksdoelen zal een extreem hoge accuraatheid belangrijker zijn dan voor andere. Kleinere modellen zullen daarnaast ook lagere kosten met zich meebrengen. Dat is niet onbelangrijk, constateert Nirmal: “Kosten zorgen vaak voor een rem op de adoptie.” Hij ziet vanuit dat perspectief een duidelijke trend: “Modellen worden kleiner, met meer focus en gericht op specifieke domeinen.”
Transparantie
Het derde ingrediënt waar Nirmal het over heeft in gesprek met ons is openheid en transparantie. Dat zagen we eigenlijk ook al terugkomen in de eerste twee. Hier heeft Nirmal het echter vooral over de openheid rondom het trainen van modellen. IBM is volgens hem de enige leverancier die de data publiceert die het gebruikt om modellen te trainen. Bij andere modellen is het vaak niet eens duidelijk waar de trainingsdata vandaan komt, stelt hij. Dus die kunnen die openheid niet eens bieden. Zeker nu er steeds kritischer gekeken wordt naar zaken zoals copyright-schendingen, is het van belang dat de modellen ‘uitlegbaar’ zijn. Een onderdeel daarvan is dat het duidelijk moet zijn waar generatieve AI-modellen hun wijsheid vandaan halen.
GenAI is niet optioneel, ROI is duidelijk
Nirmal geeft in gesprek met ons enkele keren aan dat de ontwikkelingen op het gebied van generatieve AI nog in de kinderschoenen staan. Toch is dit geen reden voor organisaties om er niet mee aan de slag te gaan, geeft hij aan: “Als je het niet doet, raak je achterop.” Hij ziet dan ook dat de meeste bedrijven kijken naar GenAI, om te bepalen waar het waarde toe kan voegen.
Dit betekent niet dat die bedrijven er ook al daadwerkelijk mee aan de slag gaan overigens, onder andere vanwege de nog altijd vrij hoge kosten die het met zich meebrengt. De ROI is echter duidelijk, geeft Nirmal aan. Met name RAG, oftewel Retrieval-Augmented Generation, heeft een grote vlucht genomen in 2023. RAG houdt in dat LLM’s toegang hebben tot een kennisbank waarmee het ervoor kan zorgen dat de antwoorden zo accuraat mogelijk zijn. Het haalt deze extra kennis dus niet uit trainingsdata, maar zoekt deze op buitenom de trainingsdata. Je kunt het zien als het verschil tussen extra kennis uit een boek halen door daar doorheen te bladeren en iets rechtstreeks uit het eigen geheugen oplepelen.
RAG is zonder twijfel de belangrijkste toepassing van GenAI voor organisaties op dit moment. Daarnaast zijn er nog andere. Denk hierbij aan zaken zoals het genereren van content (onder andere door ontwikkelaars die sneller code willen schrijven) en het samenvatten van teksten, maar ook aan het genereren van inzichten uit grotere en diverse datasets.
Stap voor stap vooruit
Zoals al aangegeven staat GenAI voor zakelijke toepassingen feitelijk nog in de kinderschoenen. Nirmal durft echter wel de nodige voorspellingen te doen over de toekomst ervan. Hij geeft er in totaal vijf, die we hieronder op een rijtje zetten:
- Organisaties zullen voor een multi-modelstrategie blijven kiezen.
- GenAI zal in een hybride cloudmodel uitgerold worden.
- Governance zal een van de voornaamste vereisten worden.
- Organisaties moeten use-cases kiezen die schaalbaar zijn. Anders kan er op de langere termijn niet voldoende waarde uit GenAI gehaald worden.
- Het belang van de data die organisaties gebruiken zal alleen maar toenemen.
Van de vijf voorspellingen lichten we 2, 3 en 5 er nog even speciaal uit. De realiteit, ook richting de toekomst, van de hybride cloud zorgt ervoor dat de uitrol van GenAI behoorlijk complex kan zijn. “Het trainen van de modellen maakt het al complex”, geeft Nirmal aan. Bij organisaties in bepaalde sectoren mag data niet buiten de firewall komen. “En hoe train je een model voor een klant met vestigingen in dertig verschillende geografische regio’s”, vraagt hij zich af. Let wel, het gaat hier nog niet eens over hybride omgevingen, maar alleen nog maar om het trainen van modellen. Dan komen er nog allerlei zaken bij kijken, waaronder governance.
IBM heeft veel ervaring met governance
IBM legt veel nadruk op watsonx.governance. Dat is niet zo vreemd, want dat is de laatste toevoeging aan de AI-stack die het bedrijf heeft ontwikkeld. Governance is daarnaast ook iets waar IBM sowieso veel mee bezig is. Het bedrijf is al decennia lang actief op het gebied van data governance. De stap naar AI governance is dan relatief snel gezet. Nirmal is hier duidelijk over: “Geen enkele leverancier doet governance beter dan IBM.”
Governance is zonder meer belangrijk bij het optuigen van een GenAI-strategie. De voornaamste reden dat GenAI-pilots niet in productie gaan heeft echter te maken met problemen rondom data. Data governance speelt hierbij ook een rol uiteraard, maar er zijn ook vaak problemen met de kwaliteit van de data, of de toegang tot de data. Dat moeten organisaties eerst op orde zien te krijgen. “Als je geen datastrategie hebt, heb je ook geen AI-strategie”, stelt Nirmal duidelijk.
GDPR heeft op het gebied van datastrategie overigens wel gezorgd voor een positieve ontwikkeling. Om te kunnen voldoen aan deze richtlijn moesten organisaties hun zaakjes op orde krijgen rondom data. Betekent dit dan dat Europese bedrijven een voordeel hebben bij de uitrol van GenAI? Zover wil Nirmal niet gaan. Europese bedrijven moeten door de GDPR echter wel veel methodischer te werk gaan. Hij voegt hier wel meteen aan toe dat Amerikaanse enterprise-organisaties hun data ook erg goed beheren.
Conclusie: helder en transparant framework moet complexiteit behapbaar maken
Al met al stelt GenAI behoorlijk wat lastige vragen aan organisaties, mits deze het op een goede en doordachte manier uit willen rollen. Het is belangrijk dat organisaties hier goed over nadenken voor ze eraan beginnen. De stappen die IBM voorstelt zijn wat ons betreft een goed framework en een goede start, zeker ook omdat het in de basis een open benadering is. IBM zal ongetwijfeld het liefst zoveel mogelijk eigen bouwblokken verkopen aan klanten, maar het is ook niet blind voor de realiteit. Dat is altijd prettig, want deze realiteit is behoorlijk complex en GenAI maakt hem alleen maar complexer.
Luister ook: we hebben recent een aflevering van Techzine Talks opgenomen over hoe AI in enterprise-omgevingen ingezet en uitgerold moet worden. Die kun je hieronder beluisteren: