ChatGPT-chats ‘gelekt’ in Google-zoekresultaten

ChatGPT-chats ‘gelekt’ in Google-zoekresultaten

Door gedeelde links van gebruikers duiken gesprekken met ChatGPT op in Google-zoekresultaten. Sommige links bevatten gevoelige informatie die oorspronkelijk bedoeld was voor een beperkte kring.

Volgens berichtgeving van Fast Company blijkt Google gesprekken die gebruikers via de deeloptie in ChatGPT versturen te indexeren. Het gaat om openbare links die mensen aanmaken door bewust op de deelknop te klikken. Bijvoorbeeld om die via WhatsApp naar iemand te sturen of op te slaan voor later. Wat veel gebruikers mogelijk niet beseffen, is dat deze links in veel gevallen volledig openbaar zijn en daardoor via zoekmachines toegankelijk kunnen worden.

Een simpele zoekopdracht op Google, gericht op gedeelde ChatGPT-links, levert duizenden gesprekken op. Hoewel een aanzienlijk deel van deze chats geen persoonlijke informatie bevat, zijn er ook voorbeelden waarbij mensen intieme of kwetsbare details delen. Denk aan ervaringen met misbruik, mentale gezondheidsproblemen of specifieke situaties binnen relaties of werkomgevingen. Doordat gebruikers soms zeer persoonlijke context geven, kunnen zij indirect toch te herleiden zijn.

Waarschuwing schiet tekort

Het probleem lijkt vooral te spelen bij mensen die de deelknop gebruiken onder de aanname dat dit een privéactie is. In werkelijkheid kan de link openbaar zijn als gebruikers handmatig instellen dat de gedeelde chat vindbaar mag zijn via zoekmachines. Er wordt tijdens het delen wel gewaarschuwd voor het prijsgeven van gevoelige informatie, en gebruikers kunnen gedeelde links op elk moment verwijderen. Toch blijkt dit in de praktijk onvoldoende bescherming te bieden tegen onbedoelde blootstelling.

De omvang van het probleem is moeilijk exact vast te stellen, omdat niet alle gedeelde chats automatisch worden geïndexeerd door Google. Maar alleen al via de zichtbare zoekresultaten zijn er bijna 4.500 gesprekken te vinden. Fast Company onthoudt zich ervan om deze voorbeelden inhoudelijk te publiceren, vanwege het gevoelige karakter van veel van de besproken onderwerpen.

AI steeds vaker ingezet voor mentale hulp

De bevindingen komen op een moment waarop taalmodellen steeds vaker worden ingezet voor persoonlijke of psychologische ondersteuning. In de Verenigde Staten gaf bijna de helft van de respondenten in een recent onderzoek aan dat zij in het afgelopen jaar AI hebben gebruikt voor mentale hulp. Velen zochten hulp bij angst, depressie of persoonlijke vraagstukken. In tegenstelling tot vertrouwelijke therapiegesprekken zijn AI-chats echter niet altijd beschermd tegen publieke inzage.

Niet alleen OpenAI heeft te maken met dit soort privacykwesties. Andere aanbieders, zoals Meta, toonden eerder al gebruikersvragen in openbare feeds binnen hun AI-systemen. Ook daar leidde gebrekkige kennis onder gebruikers tot het per ongeluk delen van persoonlijke informatie met een groter publiek dan bedoeld. Veiligheidsexperts wijzen op het verschil tussen de verwachtingen van gebruikers en hoe AI-platforms daadwerkelijk functioneren.

De CEO van OpenAI gaf recent aan dat gebruikers terughoudend moeten zijn met het delen van hun meest persoonlijke informatie in ChatGPT. Hij benadrukte dat het bedrijf in sommige gevallen wettelijk verplicht kan worden om gegevens over te dragen aan autoriteiten. Deze opmerking had betrekking op juridische procedures, maar benadrukt ook de bredere kwetsbaarheid van gesprekken met AI.