Cloud Hypervisor, een open source-hypervisorproject voor cloudomgevingen, trekt een duidelijke lijn: AI-gegenereerde code is niet welkom. Met de release van versie 48 geldt een nieuw beleid dat bijdragen geschreven met behulp van grote taalmodellen weigert.
De oorsprong van Cloud Hypervisor ligt in 2018, toen Google, Intel, Amazon en Red Hat gezamenlijk begonnen aan het rust-vmm-project om virtualisatiecomponenten in de programmeertaal Rust te ontwikkelen. Intel besloot daar later een andere richting aan te geven, wat resulteerde in Cloud Hypervisor. Dit is een Virtual Machine Monitor die specifiek is ontworpen voor cloudworkloads.
Eind 2021 kwam Cloud Hypervisor onder de paraplu van de Linux Foundation. Zo ontstond een neutrale en transparante governance-structuur. Grote namen als Microsoft, ARM, ByteDance en Alibaba sloten zich vervolgens aan. Inmiddels is de software uitgegroeid tot een serieuze speler in de infrastructuur van publieke cloudproviders.
De kracht van Cloud Hypervisor ligt in zijn lichte en veilige opzet. De hypervisor ondersteunt dynamische toevoeging van CPU’s, geheugen en apparaten, draait zowel Linux- als Windows-VM’s en heeft een compacte codebasis die eenvoudiger te onderhouden is dan veel oudere alternatieven. Dankzij die eigenschappen wordt de software door hyperscalers ingezet als basislaag van hun IaaS-diensten, met de nodige aanpassingen om optimaal gebruik te maken van hun hardware.
Met versie 48 van Cloud Hypervisor wordt het maximum aantal ondersteunde vCPU’s op x86_64-hosts met KVM verhoogd van 254 naar 8.192. Dat is een forse stap die de schaalbaarheid aanzienlijk vergroot. Verder verwijderde men de ondersteuning voor Intel SGX. Ook is inter-VM gedeeld geheugen toegevoegd en is het pauzeren van virtuele machines met veel vCPU’s versneld. Daarmee laat het project zien dat het in korte tijd van experimentele hypervisor tot een volwaardige oplossing voor productieomgevingen uitgroeide.
No AI code policy
De release markeert ook de introductie van een zogeheten No AI code policy. Bijdragen waarvan bekend is dat ze (deels) met behulp van grote taalmodellen zijn gegenereerd, worden geweigerd. De beheerders geven aan dat dit beleid bedoeld is om juridische risico’s rond licenties te vermijden. En om de beperkte capaciteit voor codebeoordeling zo effectief mogelijk te benutten. Ze benadrukken dat de kwaliteit en herleidbaarheid van bijdragen cruciaal zijn voor het onderhoud van de codebase.
Binnen de gemeenschap bestaan er zorgen of dit beleid in de praktijk houdbaar is, omdat het lastig is om waterdicht vast te stellen of code door AI is beïnvloed. Om dit toch beheersbaar te maken, wordt gesproken over een verplichte bevestiging in het pull request-proces. Aangezien het project al uitgebreide richtlijnen heeft voor bijdragen, waaronder testvereisten, documentatie-updates en codekwaliteit, zou zo’n extra bevestiging logisch aansluiten bij de bestaande procedures.