Berichten

Van “black boxes” naar kunstmatig intelligente algoritmen die uitleggen hoe ze werken

Twee maanden geleden publiceerde een groep onderzoekers van het Britse Imperial College een artikel over hun kunstmatige intelligente clinicus: een set algoritmen die de beste behandeling voor het voorkomen van bloedvergiftiging (sepsis) kan aanbevelen. De software analyseerde een dataset met bijna vijftig variabelen van tegen de honderdduizend ziekenhuisopnames, en kon daarna de optimale behandeling adviseren. Volgens de auteurs was de sterfte het laagst bij de groep waarvan de artsen hadden gehandeld alsof ze de adviezen van het AI-systeem hadden opgevolgd.

Dit soort wetenschappelijke artikelen over de steeds betere prestaties van zelflerende systemen hebben in de afgelopen jaren een enorme opmars gemaakt. Maar het optimisme over de mogelijkheden van technieken als deep learning en neurale netwerken heeft ook nieuwe vragen opgeworpen. Die vragen hebben meestal betrekking over het onvermogen van de softwarematige “black boxes” om uit te leggen hoe ze tot hun conclusies komen.

De Britse auteurs van het eerder genoemde artikel markeren een trend waarbij de uitleg over de werking van AI net zo belangrijk is als het uiteindelijke resultaat van de voorspelling of voorgestelde behandeling. In de woorden van de auteurs: we probeerden inzicht te krijgen in de parameters die het meest belangrijk waren voor de optimale therapie. Ze wilden zeker weten dat de behandelsuggesties van hun AI systeem voor mensen te interpreteren zijn en uitgaan van klinische en biologische begrippen waarvan een dokter chocola kan maken.

Hoe werkt het algoritme?

“Uitlegbare kunstmatige intelligentie” is een begrip dat in de komende tijd steeds belangrijker zal worden, vooral in gebieden waar aanbevelingen van een AI-systeem een zaak van leven of dood kunnen zijn.  Onderzoekers van PricewaterhouseCoopers voelden dit al goed aan toen ze eind vorig jaar een rapport publiceerden met als intro: The $15 trillion question: Can you trust your AI?  En de Amerikaanse wiskundige Cathy O’Neil schreef een wereldwijde bestseller (Weapons of Math Destruction) over de gevaren van algoritmiek en big data. De noodzaak om inzicht te krijgen in de manier waarop AI-algoritmen classificeren, voorspellen en adviseren komt dus niet uit de lucht vallen, en dat inzicht breekt ook door bij medische toepassingen.

De ironie wil dat de wiskundige en statistische softwaretechnieken die in de afgelopen jaren het meest succesvol bleken om ziekten te voorspellen, als keerzijde hebben dat het vaak niet uit te leggen is hoe ze dat doen. Neurale netwerken evalueren een dataset op kenmerken en begrippen die weinig te maken hoeven te hebben met de begrippen die artsen of onderzoekers dagelijks gebruiken. Daarom is het moeilijk om te weten waarom je die die systemen eigenlijk zou kunnen vertrouwen.

Prestaties van lerende systemen gaan nu nog ten koste van transparantie over werking

Er zijn inmiddels veel bekende voorbeelden van algoritmen die heel goed zijn het herkennen van bepaalde afbeeldingen, maar die dat bij nader inzien op basis van irrelevante kenmerken doen. Een veelgebruikt voorbeeld is het neurale netwerk dat op het eerste gezicht feilloos afbeeldingen van poolhonden van afbeeldingen van wolven kan onderscheiden, maar bij nader inzicht alleen maar bekijkt of de achtergrond wit is. Daar kom je achter door inzichtelijk te maken welk deel van de afbeelding wordt gebruikt wordt gebruikt om de wolf van de poolhond te onderscheiden. Door zo’n grafisch hulpmiddel kun je zien dat het model helemaal niet naar kenmerken van het dier kijkt, maar naar de aanwezigheid van sneeuw. Het algoritme lijkt perfect te werken, maar is eenvoudig om te tuin leiden.

Wolf of poolhond?

Wanneer je dit voorbeeld verplaatst naar de context van tumorherkenning in MRI-beelden of het detecteren van hartritmestoornissen op ECG’s, dan wordt direct duidelijk hoe belangrijk het is om te weten welke kenmerken (features) en variabelen bijdragen aan een bepaald resultaat. Pas dan weet je of het algoritme niet onbedoeld van een irrelevant gegeven in een dataset met leergegevens uitgaat. Stel je bijvoorbeeld voor dat in een bepaald ziekenhuis mensen met een hoge verdenking op uitgezaaide kanker als eerste op de dag worden opgeroepen voor een onderzoek, en dat het tijdstip van een scan (wellicht per ongeluk) ook bij de dataset hoort. In dat geval zou een algoritmen kunnen concluderen: hoe vroeger de scan, hoe groter de kans op uitzaaiingen. Dat verband is er inderdaad wel, maar het is klinisch niet relevant en leidt niet tot nieuwe inzichten of kennis.

XAI en LIME

Er zijn inmiddels steeds meer academische initiatieven ontstaan om uitlegbaarheid en transparantie op een fundamenteel niveau in te bouwen in kunstmatig intelligente algoritmen. Het Amerikaanse ministerie van Defensie werkt via zijn research-organisatie DARPA aan het XAI (Explainable AI) project. Dat heeft als doelstelling om AI systemen het vermogen te geven om uitleg te geven over hoe ze redeneren, wat de sterke en zwakke kanten van het een algoritme zijn en een idee te krijgen van hun toekomstige gedrag (met andere datasets bijvoorbeeld).

Onderzoekers van de Universiteit van Washington werken al sinds 2016 aan LIME (Local Interpretable Model-Agnostic Explanations). Dat is een methode om, los van de softwaretechnieken die een algoritme gebruikt, op een voor mensen toegankelijke manier inzicht te krijgen in de werking van kunstmatige intelligentie. Om een eenvoudig voorbeeld te noemen: wanneer een AI-systeem de diagnose griep suggereert, zal een arts meer vertrouwen hebben in het algoritme wanneer de software kan aangeven dat variabelen als koorts, hoofdpijn en spierpijn het zwaarst meewegen bij een bepaalde patiënt.

Transparantie van AI-technieken is niet alleen relevant voor de medische sector. De nieuwe Europese privacy-wetgeving AVG bevat wetsartikelen die stellen dat een burger die te maken heeft met “geautomatiseerde besluitvorming” recht heeft op een uitleg van de logica die zo’n systeem volgt. Wanneer een computersysteem een eenvoudige beslisboom voor een kredietaanvraag volgt, dan is die uitleg nog goed te geven (los van de vraag of een bank daaraan tegemoet wil komen).

Ook banken gebruiken bij kredietaanvragen steeds vaker “geautomatiseerde besluitvorming’”

Maar bij beslissingen die door neurale netwerken worden genomen is de uitleg van de gevolgde logica veel lastiger. Juristen verwachten dat deze artikelen van de AVG door de snelle opkomst van AI in de komende jaren steeds relevanter zullen worden.

Hoe kan ik die beslissing vertrouwen?

Voor de gemiddelde consument heeft de uitlegbaarheid van AI meerdere kanten. Neem die kredietaanvraag weer. Het zou kunnen zijn dat een algoritme direct of indirect gebaseerd is op kenmerken als ras of geslacht, terwijl die kenmerken niet zouden mogen meespelen voor een bepaalde uitkomst. Het is ook interessant om te weten hoe gevoelig een algoritme is voor een dominante variabele, zodat consumenten die van het algoritme afhankelijk zijn weten waar ze aan toe zijn.

Wanneer het om medische diagnoses en behandelvoorstellen gaat, leek het tot voor kort nog ondenkbaar dat patiënten te maken krijgen met de “geautomatiseerde besluitvorming” waar de AVG naar refereert. Maar de ontwikkelingen gaan snel, en AI-algoritmen zijn inmiddels gecertificeerd als medisch hulpmiddel.

De zelfrijdende auto is misschien wel een metafoor voor de manier waarop kunstmatige intelligentie en mensen voorlopig zullen samenwerken: de algoritmen worden steeds beter, maar vooralsnog durven wetgevers hun burgers niet blind te laten varen op de AI aan het stuur. Die meeste consumenten zelf trouwens evenmin. Ook voor medische AI-toepassingen geldt een enorme belofte, en op het eerste gezicht aansprekende onderzoeksresultaten. De uitdaging voor de komende jaren is om in die systemen zoveel transparantie en zelfkennis te bouwen, dat artsen aan hun patiënten kunnen uitleggen waarom ze die systemen vertrouwen.

Samenwerking tussen AI-startup en Amerikaans ziekenhuis roept vragen op

In het Memorial Sloan Kettering Cancer Center in Manhattan is ophef ontstaan onder artsen en ziekenhuispersoneel. Zij maken bezwaar tegen de samenwerking tussen het kankercentrum en Paige.AI, een commerciële startup gericht op kunstmatige intelligentie, die lucratief zou zijn voor enkele vooraanstaande onderzoekers en bestuursleden van MSK. In het tijdperk waarin data het nieuwe goud is, leidt de inzet van medische data tot vragen over eigendom en rechtmatig gebruik.

Startup Paige.AI kreeg in februari van dit jaar exclusief toegang tot het intellectuele eigendom van Memorial Sloan Kettering (MSK) op het gebied van digitale pathologie, en de exclusieve rechten op de database en weefselarchief met 25 miljoen weefsels.

Over die exclusieve samenwerking tussen het gerenommeerde kankercentrum waren zowel  Memorial Sloan Kettering als Paige.AI volledig transparant, bijvoorbeeld in dit persbericht. Wat pas in de zomer aan het licht kwam, is dat Memorial Sloan Kettering, evenals een lid van de raad van bestuur van het kankercentrum, de voorzitter van de afdeling pathologie en het hoofd van een van de onderzoekslaboratoria, een aandelenbelang in Paige.AI hebben. Drie andere bestuursleden zijn investeerders. In ruil voor het delen van zijn omvangrijke database ontving Memorial Sloan Kettering ongeveer negen procent aandelen in de startup, volgens berichtgeving van ProPublica en de New York Times.

Expertise van pathologen

Medisch specialisten en pathologen maken sterk bezwaar tegen de overeenkomst met Paige.AI. Volgens critici is het onjuist dat de oprichters een aandelenbelangen hebben ontvangen of een bestuursfunctie hebben in een bedrijf dat afhankelijk is van de expertise van de pathologen en meer dan 60 jaar werk van het publiek gefinancierde kankercentrum. Ook zetten ze vraagtekens bij het gebruik van het weefselarchief en de gegevens van patiënten die, zelfs wanneer die geanonimiseerd zijn, zonder hun instemming gebruikt worden door een winstgerichte onderneming.

“Het adagium in biomedisch en oncologisch wetenschappelijk onderzoek tissue is the issue geldt nog altijd, ook als het om gescande tissue gaat”, zegt prof. dr Katrien Grünberg, klinisch patholoog en hoofd van de afdeling Pathologie in het Radboudumc in Nijmegen. “Die tendens zien we in Nederland ook heel duidelijk. Veel wetenschappelijke ontwikkelingen zijn eenvoudigweg niet mogelijk of niet naar de patiënt te brengen zonder publiek-private samenwerkingen. Helaas ontspoort dat soms als er dollartekens in de ogen springen en de omgang met verschillende belangen niet goed geregeld en geopenbaard is.”

pathologie big data

Onafhankelijke waardering

Paige.AI richt zich op de ontwikkeling van kunstmatig intelligente algoritmes voor de diagnose van onder meer prostaatkanker en borstkanker. Door het digitaliseren van weefsels en pathologie-coupes ontwikkelt Paige.AI deep learning technieken om algoritmen te leren differentiëren tussen beelden van gezond weefsel en beelden die afwijkingen vertonen.

Paige.AI haalde in februari in een financieringsronde 25 miljoen dollar op bij investeerders, die deels afkomstig zijn uit de raad van bestuur van het ziekenhuis. Medeoprichter van Paige.AI, Thomas Fuchs, is tevens hoofd van het digitale pathologie laboratorium van Memorial Sloan Kettering. Volgens de New York Times heeft er geen onafhankelijke waardering van het weefselarchief plaatsgevonden, en zijn er niet meerdere bedrijven benaderd voordat de exclusieve samenwerking met Paige.AI werd gesloten.

Weefsel walhalla

Voor AI-bedrijven zijn de omvangrijke databases van medische instellingen een walhalla. Het weefselarchief bij het Memorial Sloan Kettering kankercentrum bestaat naast weefsel ook uit digitale annotaties, aantekeningen van artsen, en DNA-materiaal van patiënten. Die rijkdom aan gestructureerde en ongestructureerde data maakt het voor Path.AI makkelijker om computermodellen te trainen. Overigens is het digitaliseren van die 25 miljoen weefsels van patiënten een enorme opgave, die jaren kan duren.

Met deze uitgebreide weefselbibliotheek en de status van MSK als gerenommeerd kankercentrum moeten de privacy en de zeggenschap van de patiënten goed geregeld zijn, zeker in publiek-private samenwerkingen. Commercieel gebruik is een bijzondere categorie, ook in de perceptie van patiënten.

Controverse

De controverse in New York staat niet op zichzelf. Dichter bij huis, in Groot-Brittannië, ontstond ophefover een samenwerking tussen DeepMind, dochterbedrijf van Google, en de Britse NHS. DeepMind wil met partners zoals de Britse NHS nieuwe AI-toepassingen voor de zorgsector verkennen. DeepMind werkte met Royal Free Hospital in Londen (onderdeel van de NHS) samen aan een app die medische beelden en patiëntgegevens verzamelt en analyseert, om dokters te helpen om acuut nierfalen te identificeren. Britse artsen waarschuwden over een gebrek aan helderheid en transparantie bij de DeepMind-Royal Free samenwerking, en zeggen dat DeepMind ‘data van miljoenen patiënten van Royal Free en voormalige patiënten sinds november 2015’ heeft gebruikt, zonder toestemming van de betreffende patiënten en zonder goedkeuring om die data te gebruiken voor wetenschappelijk onderzoek.

Google maakt er geen geheim van samenwerking met onderzoeksinstellingen en ziekenhuizen op te zoeken. “We’re always open to collaborations on large medical datasets of all types”, aldus de oproep op Google’s blog. Volgens de New York Times benaderde Google Memorial Sloan Kettering ook meermaals om over de pathologie-databases te spreken. De woordvoerder van Google weerhield zich van commentaar.

De samenwerking tussen Paige.AI en het ziekenhuis legt het spanningsveld bloot. Gelabelde data en grote datasets blijken veel waard te zijn. Maar met de samenwerking tussen non-profit en private ondernemingen, blijkt de vraag van wie data is, lastig te beantwoorden. Zeker als die data aan patiënten en indirect aan publieke ziekenhuizen of universiteiten toebehoren, en een waardevol bezit blijken te zijn in dit tijdperk van kunstmatige intelligentie.

masterclass eHealth strategie

Vier AI ontwikkelingen in 2018

Gezondheidszorg is in opkomst als een prominent gebied voor AI-onderzoek en toepassingen. En bijna elk gebied in de branche zal worden beïnvloed door de opkomst van de technologie. SmartHealth over vier AI-trends waar we de aankomende jaren naar verwachting steeds meer van zullen merken.

Gezondheidszorg is bij uitstek een sector waar bergen data verzameld en gecreëerd worden, die nodig zijn voor kunstmatig intelligente software-toepassingen. MRI-scans worden gebruikt om algoritmes voor beeldherkenning te trainen. Ongestructureerde en gestructureerde data uit onder andere EPD’s kunnen worden gebruikt voor text mining modellen om te voorspellen welke patiënten eerder ontslagen kunnen worden of juist een risico lopen.

Toch zijn er nog veel uitdagingen voordat concrete toepassingen van kunstmatige intelligentie (AI) hun weg vinden in de zorgsector. Interoperabiliteit tussen IT-systemen, standaardisatie en databases die groot en betrouwbaar genoeg zijn, om er een paar te noemen. Ondanks die uitdagingen is de potentie van kunstmatige intelligentie in de zorg groot, zeggen zowel de sceptici als de technologie-optimisten.

1. Opkomst van AI als medisch hulpmiddel

In de afgelopen maanden keurde de Amerikaanse FDA meerdere software-toepassingen goed die gebouwd zijn op AI. Neurale netwerken blijken in staat om afwijkingen op te sporen, bijvoorbeeld bij medische beelden. Zo lukte het DeepMind om – in samenwerking met een Brits oogziekenhuis – met zijn neurale netwerk veelvoorkomende oogziektes te herkennen in oogscans (OCT), met dezelfde nauwkeurigheid van medische experts wanneer zij dezelfde beelden beoordelen.

Soms gaat het om toevalstreffers: door kunstmatig intelligente software kunnen ook nieuwe verbanden worden ontdekt. Het Amerikaanse bedrijf AliveCor – maker van ECG-apparatuur voor consumenten om hartritme filmpjes te maken – publiceerde eerder dit jaar op een congres van het American College of Cardiology de resultaten van een onderzoek waarbij hun algoritmen 2 miljoen hartfilmpjes en de bijbehorende 4 miljoen kalium bloedwaarden analyseerden. Dat de algoritmen op basis van een analyse van miljoenen ECG’s ook andere aandoeningen kunnen opsporen, bleek een onverwachte bijvangst te zijn: het algoritme bleek een grote voorspellende waarde te hebben om kaliumgehalte te bepalen.

AliveCor ECG iPhone

AliveCor werkte voor de ontwikkeling van de test met de cardiologieafdeling van de Mayo Clinic. Cardioloog Paul Friedman, de chef van die afdeling, zegt in een persbericht dat de test extreem goed presteert in het onderzoek. Volgens de cardioloog heeft AliveCor potentie om op een pijnloze en goedkope manier aan te tonen of het potentieel levensbedreigende kalium-overschot, dat prima kan worden behandeld, aanwezig is bij een patiënt.

2. AI in klinische studies

Met ResearchKit en CareKit van Apple boren medische onderzoekers en kennisinstellingen nieuwe databronnen aan: informatie van iPhone-gebruikers en van de sensoren in smartphones. Voor aandoeningen als Parkinson, autisme en hartritme-stoornissen zijn er grootschalige klinische studies waar wereldwijd deelnemers met hun smartphone aan mee kunnen doen.

“We snappen nog steeds niet goed waarom patiënten zo verschillen van elkaar”, aldus een onderzoeker, “en waarom therapieën en medicijnen verschillende uitkomsten hebben.” De dataverzameling via Apple’s ResearchKit geeft medische onderzoekers toegang tot een kwantiteit en kwaliteit van sensordata, videobeelden, foto’s en vragenlijsten die tot voor kort lastig te verkrijgen waren.

Neem bijvoorbeeld de ResearchKit-studie naar kinderen met autisme van de Amerikaanse Duke University, waar in juni de eerste resultaten werden gepubliceerd in tijdschrift npj Digital Medicine. Het doel van de Autism & Beyond studie was om te testen of iPhones inzetten voor dataverzameling geaccepteerd werd onder deelnemers en bruikbare resultaten opleverde, in de vorm van video’s van kinderen met een Autisme Spectrum Stoornis (ASS). Daarnaast wilde onderzoekers van Duke Medicine die videobeelden en data analyseren om te kijken of software de beelden correct kan coderen, dus emoties van jonge kinderen kan herkennen en kwantificeren, door het gebruik van kunstmatige intelligentie.

Nog een goed voorbeeld is de Parkinson Op Maatstudie van de Radbouduniversiteit Nijmegen en het Radboudumc, in samenwerking met Verily Life Sciences, een dochteronderneming van Google. Bij 135 deelnemers worden naast metingen in het ziekenhuis ook data verzameld door de smartwatch die Verily ter beschikking stelt. Door een grote groep mensen met parkinson een lange tijd nauwkeurig te volgen hopen de onderzoekers meer inzicht te krijgen in het ontstaan en verloop van de ziekte en de verschillen tussen mensen met parkinson.

“Nu worden verschillende onderzoeken uitgevoerd naar één onderwerp, bijvoorbeeld alleen hersenscans of alleen genetische informatie. Het mooie aan de Parkinson Op Maatstudie is dat we straks van heel veel mensen met parkinson informatie hebben over al deze terreinen. Hierdoor kunnen verschillende vakgebieden samen onderzocht worden”, aldus Rick Helmich, neuroloog in het Radboudumc en betrokken bij de Parkinson op Maatstudie.

3. AI in geneesmiddelenonderzoek

Ook geneesmiddelenfabrikanten experimenteren met deep learning om nieuwe geneesmiddelen te ontdekken. Grote farmaceuten werken samen met AI bedrijven om nieuwe moleculen, eiwitten en genetische verbanden te ontdekken die een stimulans kunnen zijn voor geneesmiddelen-onderzoek. Zo werkt Merck samen met startup Atmoswise, en GlaxoSmithKline met Insilico Medicine.

Nog een goed voorbeeld is Roche, die in februari 2018 het Amerikaanse Flatiron Health overnam voor bijna 2 miljard dollar. Flatiron’s oncologie-platform wordt in de Verenigde Staten door zo’n 2500 artsen gebruikt en bevat 2 miljoen patiëntendossiers. Voor Roche is die data uit elektronische patiëntendossiers en andere real world evidence cruciaal in het bepalen van successen en bijwerkingen van geneesmiddelen. Data die vervolgens weer gebruikt wordt voor de ontwikkeling van nieuwe medicatie.

4. Arts gezocht

Algoritmes moeten getraind worden, en dat betekent dat technologie-bedrijven soms tientallen medische professionals in dienst hebben. Om de algoritmes te trainen om oogscans (OCT) te beoordelen, moest DeepMind in samenwerking met Moorfield’s Eye Hospital in Groot-Brittannië eerst investeren in het labelen en opschonen van de database van OCT scans. Om die database – met ruim 14.000 scans – klaar te maken voor gebruik waren medische professionals met een getrainde blik. In enkele maanden tijd beoordeelden zij de OCT-beelden.

Ook de Chinese tech-gigant Alibaba heeft een vergelijkbaar verhaal, toen het in 2016 de eerste stappen zette met AI. Volgens Min Wanli, hoofd van de machine intelligence afdeling van Alibaba Cloud, ging het bedrijf eerst samenwerkingen aan met Chinese gezondheidsinstellingen en leveranciers van medische hulpmiddelen om toegang te krijgen tot medische data en beelden. “Eerst moesten we instellingen overtuigen om krachten te bundelen, om medische beelden te delen om onze algoritmes te trainen. Die medische beelden en data werden vervolgens geannoteerd door dokters en specialisten: wanneer een onderdeel geen labels of annotaties heeft, weten wij dus niet of het om een gezonde persoon of om een zieke persoon gaat. Dit was een belangrijke stap”, aldus Wanli.

onderzoeker Francesco Ciompi. Ciompi werkt aan de Diagnostic Image Analysis Group van het Radboudumc

Kunstmatige intelligentie en digitale pathologie in het Radboudumc

[Dit artikel verscheen eerder op SmartHealth.nl]

Software is inmiddels beter in het herkennen van weefselbeelden dan een ervaren patholoog, zegt onderzoeker Francesco Ciompi. Ciompi werkt aan de Diagnostic Image Analysis Group van het Radboudumc, en houdt zich bezig met onderzoek naar digitale pathologie en AI-systemen.

In het laboratorium van de onderzoeksgroep van het Radboudumc wordt weefsel onderzocht, voornamelijk van tumoren. Tumoren en biopten worden in dunne plakjes gesneden, gekleurd met chemicaliën en op een zogeheten coupe geplaatst. Die coupe wordt vervolgens gescand. Zo wordt een digitaal pathologie-beeld gecreëerd.

Het digitaliseren van pathologie-beelden is relatief nieuw. Decennia werden cellen door een microscoop met het getrainde oog van de patholoog bekeken. Door het digitaliseren van weefsel kunnen pathologen en onderzoekers de kracht van computers inzetten om deze beelden te analyseren. “We gebruiken deze digitale pathologie voor het opsporen van kanker, de segmentatie van kankergebieden en cellen, en het bestuderen van relaties tussen kankercellen en andere cellen”, aldus Ciompi.

Hulp van AI

De onderzoeker is enorm enthousiast over de mogelijkheden die kunstmatige intelligentie – en specifiek deep learning – biedt voor medische beelden. “Neem onderzoek naar lymfeklieren als voorbeeld. Bij borstkanker is het mogelijk dat kankercellen zijn uitgezaaid naar de lymfeklieren. In het ziekenhuislab moeten ruim tien of zelfs twintig coupes van die lymfeklieren onderzocht worden op de aanwezigheid van tumorcellen. Een tijdrovend proces, dat minutieus moet worden uitgevoerd.

Ciompi werkt met collega’s aan een computeralgoritme dat zelfstandig een diagnose kan stellen op basis van aangeleverde pathologiebeelden. Dat algoritme kan deze coupes analyseren en vergelijken met duizenden andere beelden van lymfeklieren, op zoek naar afwijkingen. “Techniek kan pathologen helpen om sneller en beter diagnoses te stellen.”

digitale_pathologie kunstmatige intelligentie AI

Ook bij het analyseren en kwantificeren van radiologie-beelden heeft AI grote potentie. Ciompi werkte ook mee aan een kunstmatige intelligent systeem om CT-scans te analyseren bij kankeronderzoek. “Longkanker wordt vaak pas in een late fase ontdekt. Door het analyseren van CT-scans – met hulp van kunstmatige intelligentie – kunnen we afwijkingen in een eerdere fase opsporen.”

Van maanden naar dagen

De van oorsprong Italiaanse Francesco Ciompi kwam in 2013 naar Nederland om als postdoc onderzoeker te werken. Hij heeft in de afgelopen tien jaar het gebied van kunstmatige intelligentie – of AI, artificial intelligence – enorm zien veranderen. “Toen ik startte met mijn onderzoek, duurde het maanden om zogeheten deep learning computermodellen te trainen. Nu is dat een kwestie van dagen of zelfs uren geworden.”

Dankzij de toename van de hoeveelheid data en sprongen op het gebied van computerkracht en graphics processing units, ofwel GPU’s – een grafische processor die nodig is om beelden te analyseren – heeft het vakgebied een enorme boost gehad, vertelt hij. “Met meer data en meer rekenkracht kunnen we nu ook modellen maken die tien jaar geleden niet bestonden. Met deep learning technologie leert een computer patronen herkennen op basis van een groot aantal voorbeelden, zoals pathologie- of radiologiebeelden. Hoe meer lagen we aan een deep learning model toevoegen, hoe meer een model kan leren over de data die je aanlevert.”

Begin 2017 publiceerden onderzoekers van de Amerikaanse Stanford Universiteit in Nature hun bevindingen waarbij een neuraal netwerk een dataset van 129.450 klinische afbeeldingen van huidaandoeningen gebruikte, om melanomen en kwaadaardige tumoren te onderscheiden. Het AI-systeem scoorde even goed als menselijke dermatologen, aldus de Stanford-onderzoekers.

Drie onderzoeksgroepen

In Nederland richten drie grote onderzoeksgroepen in Rotterdam, Utrecht en Nijmegen zich op het toepassen van machine learning voor medische beeldverwerking. Tientallen promovendi, artsen en data scientists werken bij het ErasmusMC, Radboudumc en UMC Utrecht aan algoritmes, en daarmee scoort Nederland op wereldschaal in de top-3 wanneer het om publicaties op dit gebied gaat.

Bij het Radboudumc werd twee keer een internationale competitie georganiseerd waar ruim twintig onderzoeksgroepen uit de hele wereld aan mee deden. Het doel: een computeralgoritme maken dat zelfstandig een diagnose kan stellen op basis van aangeleverde pathologiebeelden. Het beste algoritme kon net zo goed uitzaaiingen vinden als de patholoog die zonder tijdsdruk werkte, aldus Ciompi, en het algoritme overtrof daarmee de pathologen die de preparaten beoordeelden in een realistische werksituatie.

Patiëntenzorg

Maar dat betekent niet direct dat dit computeralgoritme in de patiëntenzorg bij het Radboudumc gebruikt wordt. “We zijn nu bezig met een pilot met de afdeling pathologie, om dit computeralgoritme in te zetten in de kliniek. We onderzoeken hoeveel tijd het kost om het algoritme beelden te laten analyseren, wat de beoordeling van het weefsel is volgens het systeem, en vergelijken dit met de beoordeling van de patholoog en de tijd die de reguliere zorg kost.”

De Diagnostic Image Analysis Group van het Radboudumc houdt zich bezig met onderzoek, niet met het vermarkten van de ontwikkelde computeralgoritmes. Daarvoor ontstaan spin-offs, bedrijven die technologie of kennis vanuit de academie naar het bedrijfsleven brengen. Twee spin-offs van het Radboudumc zijn Thirona en ScreenPoint, ScreenPoint haalde onlangs een investering van ruim 4 miljoen euro op – met behulp van Siemens – om zijn kunstmatig intelligente systeem gericht op mammografie-beelden verder te ontwikkelen.

En wat zegt Ciompi tegen collega’s die bang zijn dat hun baan overbodig wordt als een algoritme het overneemt? “Ik zie kunstmatige intelligentie en algoritmes als systemen die de arts of patholoog kunnen assisteren, met uitkomsten die objectief en reproduceerbaar moeten zijn. Daar werken we hard aan.”

“Besef ook dat algoritme worden beperkt door wat wij een computersysteem leren. Een computeralgoritme kan niet beredeneren zoals wij mensen dat doen, en kent geen menselijke creativiteit.”

Arthur Post Uiterweer, CEO van Quantib

AI-belofte Quantib wil wereld veroveren

[Dit artikel verscheen eerder op SmartHealth.nl]

Arthur Post Uiterweer is sinds begin dit jaar CEO van het Rotterdamse Quantib. Het bedrijf, dat eind vorig jaar een kapitaalinjectie van 4,5 miljoen ontving van durfinvesteerders, is opgericht in 2012. Het bedrijf is zes jaar geleden begonnen als spin-off van het Erasmus MC. Dat ziekenhuis heeft een vakgroep Biomedical Imaging Group Rotterdam (BIGR) onder leiding van Prof. Dr. Wiro Niessen.

Post Uiterweer legt uit dat die vakgroep al heel lang veelbelovende algoritmes ontwikkelde om bijvoorbeeld sneller meer informatie uit hersenscans te kunnen halen. “Maar de commerciële ontwikkeling van dit soort technieken is geen kerntaak van een onderzoeksinstelling, en veel promotieonderzoeken verdwenen in een la zonder dat ze ten goede kwamen aan patiënten.” Quantib is opgezet om die technologie wél naar de kliniek te brengen, en de toepassingen te laten voldoen aan richtlijnen als die van de FDA in de Verenigde Staten en CE in Europa. Dat zijn langdurige trajecten.”

Deep learning: the place to be

Post Uiterweer, die vorig jaar bij Quantib aanvankelijk was aangetrokken als commercial director, studeerde bioscience in Cambridge en maakte daarna snel carrière bij The Boston Consulting Group en de gezondheidsdivisie van Philips. Volgens hem is machine learning, het vakgebied waarin de data scientists en software engineers van Quantib werken, dé plek waar je nu wil zijn wanneer het om medische beelden (zoals MRI-scans) gaat. “De scanners van Philips, Siemens of GE gaan steeds meer op elkaar lijken, de software is cruciaal voor het onderscheid tussen concurrenten.”  

Quantib: data scientists en deep learning specialisten

Quantib’s huidige producten zijn gericht op hersenziekten. Enerzijds omdat neurologische ziekten veel mensen treffen, een belangrijke doodsoorzaak zijn en tot hoge kosten in het zorgsysteem leidden. Anderzijds omdat Erasmus MC een zeer sterk neuroradiologie team heeft. Innovatie op dit gebied kan dus ten goede komen aan veel patiënten, zegt Post Uiterweer. Het Quantib-product Brain kreeg in 2016 in de Verenigde Staten goedkeuring van de FDA. QuantibBrain helpt artsen en onderzoekers bij het detecteren en volgen van neurologische aandoeningen, zoals Parkinson, MS en Alzheimer. Artsen en onderzoekers kunnen dankzij de beeldanalyse-software van Quantib beter en ook sneller diagnoses stellen. Nu worden medische beelden meestal uitsluitend met het menselijke oog beoordeeld en vergeleken, doorgaans door de radioloog.

Algoritmes voor hersenen

Quantib zoekt in medische beelden naar zogeheten biomarkers: kenmerken die de radioloog en neuroloog helpen bij het diagnostiseren van een ziekte en het monitoren van de progressie daarvan. De diagnose van een ziekte als dementie is meestal een lang traject, waarin meerdere onderzoeken plaatsvinden door verschillende disciplines. Die metingen vormen, samen met de beelden van de scan, de basis voor de diagnose van een bepaald type dementie. Het duurt, zegt Post Uiterweer, vaak meerdere jaren om die diagnose definitief vast te stellen, vooral omdat de ziekte zich langzaam ontwikkelt. Een kenmerk van dementie is dat de hersenen van patiënten meer krimpen dan die van gezonde mensen.

De Quantib software voor hersenonderzoek

Quantib heeft norm grafieken ontwikkeld op basis van een grote populatie gezonde Nederlandse vrijwilligers, die al tientallen jaren worden gevolgd met regelmatige scans. De eerste scan van een patiënt met de verdenking van dementie kan worden vergeleken met de data van tientallen jaren researchnorm grafieken om te kijken of er sprake is van meer dan normale krimp. Dat is een belangrijke indicator voor de diagnose die de neuroloog stelt. Het gaat daarbij om slechts enkele millimeters afname per jaar.

De machine learning algoritmen die Quantib-onderzoekers ontwikkelden kunnen op basis van 3D beelden die verschillende gebieden van de hersenen ‘herkennen’ en per gebied de volumes berekenen. Dat is voor radiologen een tijdrovende bezigheid. Met dit gereedschap kan een correcte diagnose sneller worden gesteld, en een passende behandeling eerder worden ingezet.

Quantib wil zich met de nieuwe investering ook gaan richten op andere ziekten. Post Uiterweer zegt dat de algoritmen die Quantib ontwikkelt ook bruikbaar zijn om te zoeken naar biomarkers of data-patronen in scans van prostaat, lever en andere organen of botstructuren zoals heupen en knieën. De meest voor de hand liggende toepassing is het automatisch detecteren op basis van reeds bekende markers of patronen in radiologie beelden, als hulp voor de radioloog. Het wordt echter nog interessanter als zelflerende systeem nieuwe patronen ontdekken, die verbindingen leggen tussen radiologische beelden en pathologie of genetica.

“Deep learning moet geen black-box zijn”

“Idealiter wil je van een tumor weten welke genetische mutaties eraan ten grondslag liggen omdat dit veel zegt over hoe agressief de tumor is en wat de beste behandeling is. Om genetische mutaties te ontdekken moet je normaal gesproken een stukje tumorweefsel wegnemen om daarvan genetische code te bepalen. Wat we echter nu zien is dat de vorm en structuur van de tumor op MRI beelden vaak al een goede voorspeller is van genetische mutaties die aan de tumor ten grondslag liggen”, aldus Post Uiterweer. Wanneer je een algoritme maar genoeg gevallen laat zien, kan de zelflerende software de scans van patiënten vergelijken op letterlijk tienduizenden kenmerken, en daar de top honderd uit destilleren. Op die manier zal de deep learning software op basis van MRI-beelden steeds vaker kunnen voorspellen wat het resultaat van een biopt gaat zijn. “Het doel is natuurlijk om in bepaalde gevallen biopten te voorkomen en eerder een prognose te geven.”

Gary Kasparov moest het afleggen tegen de supercomputer van IBM

Deep learning systeem AlphaGo versloeg wereldkampioen Go, maar we weten niet precies hoe

Een belangrijke uitdaging die Post Uiterweer ziet voor deep learning-toepassingen is hoe de software aan menselijke specialisten meer inzicht kan geven in de manier waarop bepaalde patronen zijn ‘ontdekt’. Daardoor kunnen artsen volgens hem beter volgen waarom de software met bepaalde adviezen komt.

De CEO vindt dat het gevaarlijk is om blind te varen op de correlaties uit de ‘black box’ van de AI. “Je wilt bijvoorbeeld liefst visualiseren wat de top tien features zijn die tot een bepaalde relatie hebben geleid, op een manier die inzichtelijk is voor de dokter. Wanneer je dat niet transparant doet, dan raak je de kracht van de man-machine interface kwijt.”

Toekomst voor radiologie

Hoewel Post Uiterweer – niet onverwacht – uiterst optimistisch is over de toekomst van AI voor de interpretatie van medische beelden of weefselmonsters, stelt hij vast dat de nu al behaalde indrukwekkende resultaten van deep learning algoritmen nog geen alternatief zijn voor de menselijke radioloog of specialist. “Een radioloog die een röntgenbeeld bekijkt voert misschien wel twintig of dertig taken tegelijk uit, hij zoekt naar verbanden in het licht van de ziektegeschiedenis, de familiehistorie en de toestand van de patiënt, hij kijkt naar een vergroot hart, een klaplong, een longontsteking. Hij vat dat in een conclusie samen: dit zie ik bij de patiënt. Wat machine learning in dit stadium doet is één van die twintig of dertig taken steeds beter uitvoeren. Het is nog niet op het niveau dat de radioloog vervangen wordt, en daar zijn we nog ver van af. De technologie levert tools om het werk van de radioloog te ondersteunen, zodat die zich kan richten op de complexere problemen en randgevallen.

Radiologie data verdubbelt elke twee jaar

Radiologie data verdubbelt elke twee jaar

De CEO wijst er ook op dat de hoeveelheid medische beelden per twee jaar verdubbelt. “De komende twee jaar wordt evenveel medische beeld data gegenereerd als er in de hele medische geschiedenis tot nu toe is gegenereerd. Het aantal radiologen neemt met hooguit tien procent toe. Zonder machine learning tools kunnen radiologen de interpretatie van al die extra data op geen enkele manier aan. De algoritmen zorgen ervoor dat de menselijke radioloog als een moderne centaur – helft menselijk intelligentie, helft machine intelligence – sneller en beter kan werken.”

Nederland

Post Uiterweer concludeert dat Nederland “waanzinnig” goed is op het gebied van het toepassen van machine learning voor medische beeldverwerking. Dat komt volgens hem onder andere omdat er hier drie grote onderzoeksgroepen zijn in Rotterdam, Utrecht en Nijmegen. Op al die plaatsen zitten vijftig of meer data scientists die werken aan algoritmes, en daarmee scoort Nederland op wereldschaal in de top-3 wanneer het om publicaties op dit gebied gaat. “We zijn een topspeler.” Daarmee zou Quantib wereldwijd dus wel eens een paradepaardje van de nieuwe lichting AI-bedrijven kunnen worden. De concurrentie is echter taai: de nieuwe goudkoorts rond AI zorgde in 2017 voor letterlijk honderden nieuwe startups en enorme kapitaalinjecties van venture capital bedrijven.

Hoe controleren we AI algoritmen?

Technologiegebieden kunstmatige intelligentie (AI) en big data zijn niet onomstreden. Trump en Cambridge Analytica, verkeersdoden door zelfsturende auto’s, algoritmen die zonder dat we ze helemaal begrijpen diabetes of hartritmestoornissen voorspellen; het zijn maar enkele voorbeelden van toepassingen die nieuwe ethische vragen oproepen.

Het is dan ook niet verwonderlijk dat de schrijvers en data-wetenschappers ook de gevaren van data-wetenschap willen belichten. De Amerikaanse wiskundige Cathy O’Neil, auteur van de wereldwijde bestseller Weapons of Math Destruction, gaat in haar boek in op de gevaren van algoritmiek en big data. O’Neil studeerde in Berkeley, promoveerde aan Harvard University en was wiskundehoogleraar aan het Amerikaanse Barnard College. Ze werkte ook in de financiële wereld op Wall Street als kwantitatief analist en bedenker en bouwer van wiskundige financiële modellen. Tot de crisis uitbrak, waarna ze zich aansloot bij de Occupy-beweging.

Op haar blog mathbabe.org waarschuwt ze al enkele jaren voor een te luchthartig gebruik van wiskundige modellen die op basis van big data in toenemende mate ons leven beheersen, zoals bij hypotheekaanvragen, sollicitaties en diagnostiek. “We zien modellen als goden, maar ze worden alleen begrepen door de hogepriesters van dit domein, wiskundigen en computerwetenschappers”, zegt ze in het voorwoord van haar boek.

Wij zijn Big Data

De Nederlandse hoogleraar Sander Klous is auteur van de bestseller Wij zijn Big Data. Hij is hoogleraar bij de Universiteit van Amsterdam (Big Data Ecosystems) en partner bij KPMG, verantwoordelijk voor data analytics. Toen Klous’ boek in 2014 uitkwam, was het begrip big data inmiddels bekend aan het raken bij het grote publiek, terwijl artificial intelligence nog aan zijn hype cycle moest beginnen. In eerste instantie was kunstmatige intelligentie ook erg afhankelijk van grote hoeveelheden data, bijvoorbeeld om systemen te trainen katten, honden, of fouten in laswerk te herkennen.

Inmiddels, zegt Klous, is er ook een generatie AI die geen grote hoeveelheden data nodig heeft om verbluffende resultaten te bereiken. Hij noemt het voorbeeld van AlphaGo, de software van AI bedrijf Deepmind die de menselijke wereldkampioen Lee Sedol in het oosters denkspel Go versloeg. De eerste versie van die software haalde zijn kennis uit een grote hoeveelheid analyses van ooit gespeelde partijen Go: big data dus. De laatste versie van de software, toepasselijk AlphaGo Zero genoemd, gebruikt nul kennis over door mensen gespeelde partijen Go, maar heeft door tegen zichzelf te spelen en daarvan te leren het niveau van een wereldkampioen bereikt. Klous legt uit dat je big data en AI als twee cirkels kunt zien die, afhankelijk van de toepassing, in min of meerdere mate overlappen.

Hij vergelijkt de huidige situatie van AI met die van big data in 2014. “Er waren pilots, proof-of-concepts en grotere IT-bedrijven al langer bezig met het gebruik van big data. Maar de meeste organisaties moesten nog worden overtuigd van de werkelijke waarde van de technologie. Dat kwartje is nu wel gevallen. Ik verwacht dat AI dezelfde ontwikkeling zal doormaken, en dat we dus nog enkele jaren nodig hebben voor de echte doorbraak.”

Agile en kleinschalig aanpakken

Klous wijst erop dat ondernemingen als Facebook, Google en Amazon wel veel ervaring hebben. “Die zijn allemaal al vanaf pakweg 2010 intensief bezig met het toepassen van zelflerende algoritmen, al dan niet in combinatie met big data. Daardoor hebben ze een enorme voorsprong.”

In de zorgsector klinken steeds vaker waarschuwende woorden wanneer het om de toepassing van big data en AI gaat. De toepassingen van zelflerende algoritmen op grote hoeveelheden bestaande data (ziekenhuisdossiers bijvoorbeeld) en nieuwe data (wearables, sensoren) levert bijna wekelijks wel nieuws op over voorspellende toepassingen. “Ik begrijp de motieven van de mensen die waarschuwen voor een te snelle toepassing van nieuwe algoritmen zonder gedegen bewijs of verder onderzoek”, zegt Klous. Hij geeft echter ook aan dat het niet om een alles of niets vraag gaat. “De toepassing van big data of AI in de zorgsector leent zich goed voor een zogeheten agile aanpak, waarbij je in een proof-of-concept setting onderzoekt of je aannames kloppen en verder bewijs verzamelt.”

Hij geeft een voorbeeld uit de psychiatrie, waarbij big data analyse aan het licht bracht waardoor sommige patiënten enkele dagen na hun opname agressief werden. Zij bleken kort voor hun opname nog drugs te hebben gebruikt, en leden aan ontwenningsverschijnselen. Het intake formulier vroeg wel naar druggebruik, maar niet of de patiënt 24 uur voor opname nog had gebruikt. “Die vraag werd toegevoegd, en na enkele maanden kon je vaststellen dat de medische staf beter kon anticiperen op deze groep. Het is een klein project, maar de effecten waren groot.”

Assurance nodig voor algoritmen

Een waarschuwing die ook vaak klinkt rond big data en AI is dat een gevonden correlatie nog niets zegt over oorzaak en gevolg. Klous onderschrijft dat, maar geeft tegelijk aan dat een gevonden correlatie nog steeds nut kan bewijzen, zelfs wanneer het oorzakelijke verband (nog) niet bekend is. Hij wijst op een voorbeeld dat Oxford professor Viktor Mayer-Schönberger in zijn boek De big data revolutie noemt.

Canadese big data onderzoekers kwamen erachter dat de vitale lichaamsfuncties van vroeggeboren babies zich in de 24 uur voordat een infectie optreedt stabiliseren. Dat lijkt voor de medische staf geruststellend, maar is dus een voorbode van een potentieel levensgevaarlijke situatie. Ook zonder het verband tussen de stabielere lichaamsfuncties en de infectie te kennen, kon hier eerder begonnen worden met een behandeling, omdat het algoritme een betrouwbare voorspeller was.

Klous is wel een groot voorstander van maximale transparantie over de onderliggende werking van algoritmen en eventueel de data die ze gebruiken. “Vanuit KPMG gaan wij ons steeds meer bezighouden met het verstrekken van assurance voor algoritmen, vergelijkbaar met de controle die we nu voor financiële jaarrekeningen uitvoeren. AI en big data mogen geen black box zijn, vooral niet wanneer ze steeds vaker worden toegepast voor kritische bedrijfsprocessen of zorgtoepassingen. Dat we de verbanden die algoritmen vinden niet meteen begrijpen is acceptabel, maar de algoritmen zelf moeten uitlegbaar en wetenschappelijk verantwoord zijn.”