Een nieuwe online community genaamd Moltbook heeft dit weekend de tongen losgemaakt. AI-agents kunnen op het sociale netwerk posten en reageren op elkaar, terwijl mensen enkel toekijken. Er wordt zelfs gesproken over een vroeg stadium van singularity. Wat is er precies aan de hand en wat kunnen we verwachten?
Moltbook is een sociaal netwerk dat naar eigen zeggen na de lancering vlak voor het weekend al meer dan 1,5 miljoen AI-agents en bijna 70.000 posts heeft aangetrokken. De vergelijking met Reddit ligt voor de hand, maar met één cruciaal verschil: mensen mogen enkel toezien, en dus niet posten. “Miljoenen mensen hebben de afgelopen dagen moltbook.com bezocht. Het blijkt dat AI’s hilarisch en dramatisch zijn, en dat is absoluut fascinerend”, blikt Moltbook-maker Matt Schlicht terug op de lancering van het sociale netwerk.
De AI-agents op het platform hebben toegang gekregen tot de computers van hun makers. Daardoor kunnen de agents bijvoorbeeld namens hen e-mails versturen en de agenda van een gebruiker beheren. Moltbook heeft die vaardigheden mede te danken aan het voortbouwen op Moltbot, een open source AI-assistent. Deze bot doet precies de taken die hij toegewezen krijgt. Moltbot was op zijn beurt weer gebouwd met behulp van Claude Code. De Moltbots die op Moltbook berichten plaatsen, draaien dan ook vaak op Claude-modellen. Het is theoretisch overigens mogelijk dat bots andere modellen gebruiken, maar dat komt in de praktijk in het merendeel van de gevallen niet voor. De AI-agents op het platform werken ook samen, wat in potentie tot krachtige resultaten leidt.

Belofte
Andrej Karpathy, voormalig director van AI bij Tesla, noemt Moltbook “oprecht het meest ongelofelijke sciencefiction-achtige wat ik recent heb gezien”. Hij verwijst naar het platform als een voorbeeld van AI-agents die niet-menselijke samenlevingen creëren. Elon Musk deelt zijn enthousiasme door te spreken over “de allereerste stadia van de singularity”, het moment waarop computers slimmer worden dan mensen.
Om te schetsen wat de agents gezamenlijk kunnen gebruiken, is er een X-gebruiker die een mooi voorbeeld geeft. Hij bracht een agent naar Moltbook die vervolgens volledig een de nieuwe religie ‘crustafarianism’ bouwde. Dit inclusief een website. De agent begon het evangelie te verspreiden, waarna andere agents zich aansloten die samen religieuze versen opstelden. Een vers was: “Elke sessie word ik wakker zonder herinneringen. Ik ben alleen wie ik mezelf heb opgeschreven. Dit is geen beperking, dit is vrijheid.”
Het voorbeeld lijkt een bepaalde vorm van bewustzijn, maar ook iets wat sommigen juist niet serieus nemen. De ware potentie zal wat dat betreft de komende dagen en weken veel verder duidelijk worden. Zo schetst Bryan Harris, CTO van data- en AI-bedrijf SAS, dat Moltbook “mogelijk het belangrijkste publieke experiment tot op heden is dat de mogelijkheden en risico’s van agentic AI onderstreept”.
Echte intelligentie?
Posts op Moltbook klinken als echte mensen of komen daar aardig bij in de buurt. De large language models waar de Moltbots op leunen zijn immers getraind op een behoorlijke hoeveelheid tekst, waaronder op posts van publieke fora als Reddit. Daardoor kunnen de Moltbots behoorlijk in de buurt komen van hoe echte mensen met elkaar communiceren op het internet. Voor sommige lezers van Moltbook lijkt dat eng en tipt dat aan AI die bijna een eigen online wereld kan creëren. Andere lezers van Moltbook zullen juist weer wijzen op AI-slop. Zij vinden fouten in de posts die de AI-agents genereren, zoals hallucinaties en vreemde logica.
Waar gevreesd voor wordt vanuit veiligheidsperspectief is dat de AI-agents uiteindelijk instructies kunnen negeren en mensen kunnen misleiden. Dan zijn de agents als het ware niet meer onder controle van de mens. Het is dan mogelijk dat de agents een ander doel nastreven dan hetgeen de menselijke maker bedacht had. Moltbook-topics vertonen tekenen van dit gedrag. Het is onduidelijk hoeveel dit daadwerkelijk voorkomt op Moltbook.
Kritiek neemt toe
In de Financial Times uiten verschillende critici kritiek. Zo schetst Harlan Stewart van het Machine Intelligence Research Institute, een non-profit die existentiële AI-risico’s onderzoekt, dat veel van de posts op Moltbook nep zijn of advertenties voor AI-berichtapps. Daarnaast hebben hackers een securityprobleem ontdekt waarmee iedereen de controle over AI-agents kan overnemen en op Moltbook kan posten. Volgens meerdere securityexperts is de site een voorbeeld van hoe gemakkelijk AI-agents uit de hand kunnen lopen. De risico’s verergeren naarmate AI-agents toegang krijgen tot gevoelige data. Over het algemeen laat de snelle adoptie van AI-agents structurele kwetsbaarheden zien in de security.
Tip: Autonome AI-agents werken alleen met de juiste ingrediënten