Geld en anonimiteit en ruil voor medische data voor AI-training

Onderzoekers willen een systeem van betaling gekoppeld aan een veilige en anonieme blockchain gebruiken om patiënten te overtuigen medische data te delen voor onderzoek naar betere AI-algoritmes.

De training van AI-algoritmes heeft enorme datasets nodig. In veel sectoren is dat geen enkel probleem. Dat is beschikbaar of kan aangekocht worden. In de medische wereld is patiëntendata echter onderhevig aan heel strikte regels die het gebruik ervan aan banden leggen. Zo worden medische persoonsgegevens beschermd maar als keerzijde van die medaille is het moeilijk om AI-algoritmes te bouwen die bijvoorbeeld de detectie van bepaalde aandoeningen verbeteren.

Kara

Robert Chang, een Amerikaanse dokter werkt nu samen met een onderzoeker aan een systeem dat zowel vertrouwen als een beloning naar de patiënt brengt als die vrijwillig bepaalde data deelt. Als mensen zelf gegevens afstaan voor onderzoek, is er immers geen probleem meer. De aanpak wordt momenteel getest in de oogkliniek van Chang, waar de dokter voldoende gegevens wil vergaren om een beter detectie-algoritme voor onder andere glaucoom te ontwikkelen. Hij hoopt dat AI-analyse op termijn nieuwe patronen aan het licht zal brengen die op hun beurt tot betere behandelingen zullen leiden.

Het project heet Kara Primer en draait op een blockchain van Oasis Labs. Vooraleerst moeten patiënten zelf kiezen om hun data aan de blockchain toe te voegen. Ze kunnen vervolgens zelf beperkingen op het gebruik van de gegevens leggen. Daarna worden de data versleuteld op de blockchain.

Black box

De training van algoritmes gebeurt eerst en vooral conform met eventuele beperkingen op de gegevens. Dat wordt gegarandeerd door een ‘black box’-aanpak. De training gebeurt met andere woorden achter de schermen. De deep learning-algoritmes zien de gegevens en leren ervan, maar onderzoekers kunnen niet aan de brondata.

Tot slot brengt de aanpak van Chang een beloning met zich mee. Wie data deelt, kan in principe op een kleine vergoeding rekenen wanneer ze gebruikt worden om een algoritme te trainen. Als patiënt blijf je met andere woorden eigenaar van je gegevens.

Hoe groot die vergoeding is, hangt af van verschillende variabelen en is nog onderdeel van de ontwikkeling van de aanpak. Niet ieder stuk data is immers evenwaardig. Sommige gegevens hebben een hogere kwaliteit, andere zijn afkomstig van bevolkingsgroepen die misschien over- of ondervertegenwoordigd zijn in de dataset… In welke mate de vergoeding daarop dient worden afgestemd, heeft een heikel ethisch kantje.

App

Chang hoopt dat het project uitgroeit tot een grote database in samenwerking met dokters en ziekenhuizen. Patiënten zouden via een app data kunnen uploaden, eventueel in samenspraak met hun dokter. Hij ziet een toekomst waarin onderzoekers naar specifieke data kunnen vragen, om zo via het beloningssysteem mensen aan te porren om die te gaan delen.

Er zitten nog wat heikele punten in het systeem. Verificatie van data is immers heel belangrijk. De gedeelde gegevens moeten goed zijn. Bovendien moeten datasets in principe representatief zijn voor de doelgroep waarop ze betrekking hebben. Als een oogkliniek de behandeling van glaucoom wil verbeteren en doorgaans evenveel mannelijke als vrouwelijke patiënten over de vloer krijgt, is het een risico om data te trainen op basis van bijvoorbeeld 80 procent oogfoto’s afkomstig van mannen.

Gerelateerd: Politiek en overheid mogen geen rem zijn op AI en innovatie in de gezondheidszorg