OpenAI krijgt boete en moet ChatGPT beter uitleggen

OpenAI krijgt boete en moet ChatGPT beter uitleggen

De Italiaanse privacytoezichthouder legt een boete van 15 miljoen euro op aan OpenAI. De ChatGPT-maker is schuldig bevonden van het verwerken van gebruikersgegevens voor AI-training zonder een duidelijke juridische basis.

De boete volgt bijna een jaar nadat de Italiaanse privacytoezichthouder GPDP (ook wel: Garante) al deze conclusie trok. Echter vergde het daadwerkelijk uitdelen van een boete een langer onderzoek. Hoewel het uiteindelijke bedrag fors is, zal OpenAI er niet wakker van liggen. Het heeft wel grotere financiële kostenposten, die het eerder heeft kunnen compenseren met reusachtige investeringen, zoals 10 miljard dollar vanuit Microsoft in het begin van 2023.

Italië eist niet alleen geld van OpenAI. Ook moet de chatbotbouwer de komende zes maanden gedwongen reclame maken om het publieke bewustzijn over ChatGPT te verduidelijken. Daarbij moet men de nadruk leggen op de gevolgen voor databescherming en het delen van gegevens voor AI-training.

Buiten die eis is de boete ook aanzienlijk hoger dan de recente GDPR-boete die Netflix van de Nederlandse toezichthouder, de Autoriteit Persoonsgegevens, ontving. Dat bedrag bleek uiteindelijk 4,75 miljoen euro te zijn.

Lees verder: Extreem hoge Nederlandse GDPR-boete voor Netflix

Europese visie

De ophef over ChatGPT’s privacy-implicaties (en die van generatieve AI in algemene zin) volgde kort na de introductie van de chatbot van OpenAI eind 2022. Italië liep hierin voorop, onder andere door ChatGPT tijdelijk te verbieden. In mei 2023 werd dit verbod opgeheven. Maanden later wisten regelgevers op Europees niveau een AI-verordening te presenteren, hoewel die wet vermoedelijk continu zal moeten worden bijgespijkerd om aan de nieuwste ontwikkelingen te voldoen. Wel is duidelijk dat de EU duidelijke kaders wil aangeven rondom AI-oplossingen. Dit heeft al meermaals geleid tot uitstel of annulering van AI-producten, zoals Google Bard (nu Gemini), Apple Intelligence op iPhones en Meta’s Llama-modellen. Dit omdat er niet gegarandeerd kon worden door de makers hiervan dat men aan de Europese wetten zou voldoen. Regelmatig is het struikelblok overigens al langer bekende privacywetgeving, zoals de Data Act en de AVG.

Lees ook: Meer focus nodig op securityrisico’s AI: hoe houd je LLM’s in toom?