Kunstmatige intelligente software om CT beelden te analyseren

Kunstmatige intelligentie hulpmiddel in de strijd tegen coronavirus

Artificiële Intelligentie (AI) in de zorg staat sinds de uitbraak van het coronavirus nog meer in de belangstelling. Zorgprofessionals en innovators willen weten hoe de waarde van AI snel en verantwoord kan worden ingezet om COVID-19 het hoofd te bieden. Naarmate de technologie verder ontwikkelde in de afgelopen jaren en het aantal pilots en implementaties steeg, namen ook de kritische geluiden en discussies over privacy, ethiek en profilering toe.

In een week waarin Amazon en IBM laten weten te stoppen met hun software voor gezichtsherkenning – mogelijk gemaakt door kunstmatige intelligentie – omdat de technologie etnische profilering in de hand zou werken, werkt de medische gemeenschap onverminderd hard door aan data-gedreven onderzoek, ondersteund door kunstmatige intelligentie.

Zoektocht naar vaccin

Tegelijkertijd illustreert de COVID-19-pandemie hoe AI wereldwijd ingezet wordt in de race om een vaccin te vinden. Kunstmatige intelligentie wordt bijvoorbeeld ingezet om tienduizenden relevante onderzoeksartikelen te doorzoeken. Sinds de uitbraak van COVID-19 zijn er internationaal ruim duizenden onderzoekspublicaties verschenen. De Universiteit Utrecht wil met kunstmatige intelligentie sneller antwoord kunnen geven op vragen van artsen en onderzoekers, en ontwikkelde hiervoor een speciaal softwareprogramma, zodat kunstmatige intelligentie artsen en onderzoekers kan ondersteunen bij het vinden van relevante literatuur voor de COVID-19 richtlijnen zonder afbreuk te doen aan de kwaliteit.

Ook gebruiken onderzoekers machine learning om de eiwitinteracties tussen SARS-CoV-2 en menselijke cellen te analyseren, om zwakke punten te vinden die kunnen wijzen op infectie-eigenschappen en het afremmen van het virus.

Ondersteuning door software

Het Nederlandse AI-bedrijf Thirona heeft software ontwikkeld waarmee artsen op een röntgenfoto van iemands longen kunnen zien of hij of zij corona heeft. De bedrijven Delft Imaging en Thirona werkten samen aan CAD4COVID, de software die artsen kan ondersteunen om het coronavirus te detecteren. “Voor CAD4COVID is wereldwijd veel belangstelling van ziekenhuizen”, zegt Guido Geerts, CEO van Delft Imaging en Thirona. Het is een extra tool om mee te kijken met de radioloog, en er is veel interesse uit Spanje, Italië en Engeland.

CAD4COVID is kunstmatige intelligente software die patiënten met een verdenking op COVID-19-besmetting triageert door röntgenfoto’s van de borst te analyseren. De software geeft vervolgens een score tussen 0 en 100, en toont de COVID-19-gerelateerde afwijkingen in de longen en welk deel van de longen getroffen is.

Quantib software kunstmatige intelligentie

UMC Utrecht en AI-bedrijf Quantib starten joint venture

AI-bedrijf Quantib groeide in de afgelopen paar jaar substantieel, met een team van inmiddels meer dan dertig medewerkers en klanten in binnen- en buitenland. Naast de oorspronkelijke hechte band met het Erasmus MC startte eind 2018 Quantib-U, een joint venture met het Universitair Medisch Centrum Utrecht. Tijd voor een update over het Nederlandse softwarebedrijf dat zich toelegt op kunstmatig intelligente software in medische beeldvorming.

Quantib begon zeven jaar geleden als spin-off van het Erasmus MC. Dat ziekenhuis heeft een vakgroep Biomedical Imaging Group Rotterdam (BIGR) onder leiding van Prof. Dr. Wiro Niessen. Niessen is oprichter en Scientific Lead bij Quantib. Quantib zet deep learning technologie in om op basis van MRI- of CT-beelden artsen te helpen bij snellere en preciezere diagnose van patiënten.

Na het Erasmus MC is er sinds kort een nauwe samenwerking met het Universitair Medisch Centrum Utrecht. Quantib en UMC Utrecht startten een joint venture onder de naam Quantib-U, waar beide partijen mankracht, knowhow en kapitaal in investeerden. Binnen de nieuwe BV zijn onder meer radiologen vanuit UMCU en onderzoekers vanuit het Image Sciences Institute van UMC Utrecht betrokken.

Grootschalige datasets

Klinische expertise en grootschalige gestructureerde datasets zijn de kroonjuwelen die het Universitair Medisch Centrum Utrecht inbrengt, Quantib levert onder meer toptalent op gebied van deep learning, regelgeving en certificering van software. “Dit is een nauwe samenwerking om kennis en data vanuit een academisch ziekenhuis in te zetten om algoritmes te ontwikkelen en te laten certificeren voor klinisch gebruik”, zegt Ory Six van Quantib.

Ory Six (Quantib)

Ory Six (Quantib): “Hoe beter de data, hoe beter de prestaties van de software.”

Het mes snijdt aan twee kanten: met behulp van de kennis van Quantib kan het UMC Utrecht de AI-oplossingen die zijn ontwikkeld op basis van in-house expertise naar de kliniek brengen. Het AI-bedrijf breidt op zijn beurt zijn netwerk uit met topwetenschappers en de grootschalige, gestructureerde datasets die het UMC Utrecht beschikbaar stelt. Ory Six: “Naast klinische expertise en domeinkennis is data enorm belangrijk bij het ontwikkelen van nieuwe algoritmes. Hoe beter de data, hoe beter de prestaties van de software.”

Lees het gehele artikel op SmartHealth.live.

Software herkent longkanker in CT-scans “net zo goed of beter” dan radiologen

Een onderzoek afkomstig van Google – afgelopen maandag gepubliceerd in Nature – doet veel stof opwaaien in de internationale pers. Een team van Google ontwikkelde een kunstmatig intelligent algoritme dat op CT-scans van longen zogeheten kleine nodules – afwijkingen of ‘knobbeltjes’ – betrouwbaar kan detecteren. Google doet dat naar eigen zeggen beter dan menselijke radiologen. Wat betekent dat voor longkankerscreening?

Nodules kunnen potentieel kwaadaardig zijn en tot longkanker kunnen leiden. Vroeg detecteren is daarom belangrijk. In een later stadium van de kanker wordt het succes van de behandelopties minder, of met de weinig verhullende medisch jargon, de survival rate is laag. Op computertomografie (CT) -scans kan een radioloog met een getraind oog longnodules opmerken. Een team van Google ontwikkelde een algoritme dat deep learning gebruikt om nodules op te sporen.

Openbare datasets

Onlangs publiceerde Google een nieuw artikel in Nature over de werking van het algoritme. Google gebruikte 42.000 CT-scans van drie openbare datasets en een gelicenseerde dataset van Northwestern Medicine om het deep learning model te trainen. Volgens onderzoeker Danial Tse leverde het algoritme 11% minder vals positieven en 5% minder vals negatieve uitkomsten in vergelijking met de radiologen:

When prior computed tomography imaging was not available, our model outperformed all six radiologists with absolute reductions of 11% in false positives and 5% in false negatives. Where prior computed tomography imaging was available, the model performance was on-par with the same radiologists.

Dus zonder eerdere CT-beelden van patiënten te bekijken scoorde het algoritme beter dan de menselijke radioloog in de voorspelling welke kans de patiënt had op longkanker. Met behulp van een huidige en eerdere CT-scan van de patiënt waren radioloog en algoritme even accuraat. Wel benadrukt het techologiebedrijf dat het algoritme nog gevalideerd moet worden bij grotere patiëntenpopulatie en op andere datasets dan de openbare en gelicenseerde dataset.

Lees het volledige artikel op smarthealth.live.

Van “black boxes” naar kunstmatig intelligente algoritmen die uitleggen hoe ze werken

Twee maanden geleden publiceerde een groep onderzoekers van het Britse Imperial College een artikel over hun kunstmatige intelligente clinicus: een set algoritmen die de beste behandeling voor het voorkomen van bloedvergiftiging (sepsis) kan aanbevelen. De software analyseerde een dataset met bijna vijftig variabelen van tegen de honderdduizend ziekenhuisopnames, en kon daarna de optimale behandeling adviseren. Volgens de auteurs was de sterfte het laagst bij de groep waarvan de artsen hadden gehandeld alsof ze de adviezen van het AI-systeem hadden opgevolgd.

Dit soort wetenschappelijke artikelen over de steeds betere prestaties van zelflerende systemen hebben in de afgelopen jaren een enorme opmars gemaakt. Maar het optimisme over de mogelijkheden van technieken als deep learning en neurale netwerken heeft ook nieuwe vragen opgeworpen. Die vragen hebben meestal betrekking over het onvermogen van de softwarematige “black boxes” om uit te leggen hoe ze tot hun conclusies komen.

De Britse auteurs van het eerder genoemde artikel markeren een trend waarbij de uitleg over de werking van AI net zo belangrijk is als het uiteindelijke resultaat van de voorspelling of voorgestelde behandeling. In de woorden van de auteurs: we probeerden inzicht te krijgen in de parameters die het meest belangrijk waren voor de optimale therapie. Ze wilden zeker weten dat de behandelsuggesties van hun AI systeem voor mensen te interpreteren zijn en uitgaan van klinische en biologische begrippen waarvan een dokter chocola kan maken.

Hoe werkt het algoritme?

“Uitlegbare kunstmatige intelligentie” is een begrip dat in de komende tijd steeds belangrijker zal worden, vooral in gebieden waar aanbevelingen van een AI-systeem een zaak van leven of dood kunnen zijn.  Onderzoekers van PricewaterhouseCoopers voelden dit al goed aan toen ze eind vorig jaar een rapport publiceerden met als intro: The $15 trillion question: Can you trust your AI?  En de Amerikaanse wiskundige Cathy O’Neil schreef een wereldwijde bestseller (Weapons of Math Destruction) over de gevaren van algoritmiek en big data. De noodzaak om inzicht te krijgen in de manier waarop AI-algoritmen classificeren, voorspellen en adviseren komt dus niet uit de lucht vallen, en dat inzicht breekt ook door bij medische toepassingen.

De ironie wil dat de wiskundige en statistische softwaretechnieken die in de afgelopen jaren het meest succesvol bleken om ziekten te voorspellen, als keerzijde hebben dat het vaak niet uit te leggen is hoe ze dat doen. Neurale netwerken evalueren een dataset op kenmerken en begrippen die weinig te maken hoeven te hebben met de begrippen die artsen of onderzoekers dagelijks gebruiken. Daarom is het moeilijk om te weten waarom je die die systemen eigenlijk zou kunnen vertrouwen.

Prestaties van lerende systemen gaan nu nog ten koste van transparantie over werking

Er zijn inmiddels veel bekende voorbeelden van algoritmen die heel goed zijn het herkennen van bepaalde afbeeldingen, maar die dat bij nader inzien op basis van irrelevante kenmerken doen. Een veelgebruikt voorbeeld is het neurale netwerk dat op het eerste gezicht feilloos afbeeldingen van poolhonden van afbeeldingen van wolven kan onderscheiden, maar bij nader inzicht alleen maar bekijkt of de achtergrond wit is. Daar kom je achter door inzichtelijk te maken welk deel van de afbeelding wordt gebruikt wordt gebruikt om de wolf van de poolhond te onderscheiden. Door zo’n grafisch hulpmiddel kun je zien dat het model helemaal niet naar kenmerken van het dier kijkt, maar naar de aanwezigheid van sneeuw. Het algoritme lijkt perfect te werken, maar is eenvoudig om te tuin leiden.

Wolf of poolhond?

Wanneer je dit voorbeeld verplaatst naar de context van tumorherkenning in MRI-beelden of het detecteren van hartritmestoornissen op ECG’s, dan wordt direct duidelijk hoe belangrijk het is om te weten welke kenmerken (features) en variabelen bijdragen aan een bepaald resultaat. Pas dan weet je of het algoritme niet onbedoeld van een irrelevant gegeven in een dataset met leergegevens uitgaat. Stel je bijvoorbeeld voor dat in een bepaald ziekenhuis mensen met een hoge verdenking op uitgezaaide kanker als eerste op de dag worden opgeroepen voor een onderzoek, en dat het tijdstip van een scan (wellicht per ongeluk) ook bij de dataset hoort. In dat geval zou een algoritmen kunnen concluderen: hoe vroeger de scan, hoe groter de kans op uitzaaiingen. Dat verband is er inderdaad wel, maar het is klinisch niet relevant en leidt niet tot nieuwe inzichten of kennis.

XAI en LIME

Er zijn inmiddels steeds meer academische initiatieven ontstaan om uitlegbaarheid en transparantie op een fundamenteel niveau in te bouwen in kunstmatig intelligente algoritmen. Het Amerikaanse ministerie van Defensie werkt via zijn research-organisatie DARPA aan het XAI (Explainable AI) project. Dat heeft als doelstelling om AI systemen het vermogen te geven om uitleg te geven over hoe ze redeneren, wat de sterke en zwakke kanten van het een algoritme zijn en een idee te krijgen van hun toekomstige gedrag (met andere datasets bijvoorbeeld).

Onderzoekers van de Universiteit van Washington werken al sinds 2016 aan LIME (Local Interpretable Model-Agnostic Explanations). Dat is een methode om, los van de softwaretechnieken die een algoritme gebruikt, op een voor mensen toegankelijke manier inzicht te krijgen in de werking van kunstmatige intelligentie. Om een eenvoudig voorbeeld te noemen: wanneer een AI-systeem de diagnose griep suggereert, zal een arts meer vertrouwen hebben in het algoritme wanneer de software kan aangeven dat variabelen als koorts, hoofdpijn en spierpijn het zwaarst meewegen bij een bepaalde patiënt.

Transparantie van AI-technieken is niet alleen relevant voor de medische sector. De nieuwe Europese privacy-wetgeving AVG bevat wetsartikelen die stellen dat een burger die te maken heeft met “geautomatiseerde besluitvorming” recht heeft op een uitleg van de logica die zo’n systeem volgt. Wanneer een computersysteem een eenvoudige beslisboom voor een kredietaanvraag volgt, dan is die uitleg nog goed te geven (los van de vraag of een bank daaraan tegemoet wil komen).

Ook banken gebruiken bij kredietaanvragen steeds vaker “geautomatiseerde besluitvorming’”

Maar bij beslissingen die door neurale netwerken worden genomen is de uitleg van de gevolgde logica veel lastiger. Juristen verwachten dat deze artikelen van de AVG door de snelle opkomst van AI in de komende jaren steeds relevanter zullen worden.

Hoe kan ik die beslissing vertrouwen?

Voor de gemiddelde consument heeft de uitlegbaarheid van AI meerdere kanten. Neem die kredietaanvraag weer. Het zou kunnen zijn dat een algoritme direct of indirect gebaseerd is op kenmerken als ras of geslacht, terwijl die kenmerken niet zouden mogen meespelen voor een bepaalde uitkomst. Het is ook interessant om te weten hoe gevoelig een algoritme is voor een dominante variabele, zodat consumenten die van het algoritme afhankelijk zijn weten waar ze aan toe zijn.

Wanneer het om medische diagnoses en behandelvoorstellen gaat, leek het tot voor kort nog ondenkbaar dat patiënten te maken krijgen met de “geautomatiseerde besluitvorming” waar de AVG naar refereert. Maar de ontwikkelingen gaan snel, en AI-algoritmen zijn inmiddels gecertificeerd als medisch hulpmiddel.

De zelfrijdende auto is misschien wel een metafoor voor de manier waarop kunstmatige intelligentie en mensen voorlopig zullen samenwerken: de algoritmen worden steeds beter, maar vooralsnog durven wetgevers hun burgers niet blind te laten varen op de AI aan het stuur. Die meeste consumenten zelf trouwens evenmin. Ook voor medische AI-toepassingen geldt een enorme belofte, en op het eerste gezicht aansprekende onderzoeksresultaten. De uitdaging voor de komende jaren is om in die systemen zoveel transparantie en zelfkennis te bouwen, dat artsen aan hun patiënten kunnen uitleggen waarom ze die systemen vertrouwen.

onderzoeker Francesco Ciompi. Ciompi werkt aan de Diagnostic Image Analysis Group van het Radboudumc

Kunstmatige intelligentie en digitale pathologie in het Radboudumc

[Dit artikel verscheen eerder op SmartHealth.nl]

Software is inmiddels beter in het herkennen van weefselbeelden dan een ervaren patholoog, zegt onderzoeker Francesco Ciompi. Ciompi werkt aan de Diagnostic Image Analysis Group van het Radboudumc, en houdt zich bezig met onderzoek naar digitale pathologie en AI-systemen.

In het laboratorium van de onderzoeksgroep van het Radboudumc wordt weefsel onderzocht, voornamelijk van tumoren. Tumoren en biopten worden in dunne plakjes gesneden, gekleurd met chemicaliën en op een zogeheten coupe geplaatst. Die coupe wordt vervolgens gescand. Zo wordt een digitaal pathologie-beeld gecreëerd.

Het digitaliseren van pathologie-beelden is relatief nieuw. Decennia werden cellen door een microscoop met het getrainde oog van de patholoog bekeken. Door het digitaliseren van weefsel kunnen pathologen en onderzoekers de kracht van computers inzetten om deze beelden te analyseren. “We gebruiken deze digitale pathologie voor het opsporen van kanker, de segmentatie van kankergebieden en cellen, en het bestuderen van relaties tussen kankercellen en andere cellen”, aldus Ciompi.

Hulp van AI

De onderzoeker is enorm enthousiast over de mogelijkheden die kunstmatige intelligentie – en specifiek deep learning – biedt voor medische beelden. “Neem onderzoek naar lymfeklieren als voorbeeld. Bij borstkanker is het mogelijk dat kankercellen zijn uitgezaaid naar de lymfeklieren. In het ziekenhuislab moeten ruim tien of zelfs twintig coupes van die lymfeklieren onderzocht worden op de aanwezigheid van tumorcellen. Een tijdrovend proces, dat minutieus moet worden uitgevoerd.

Ciompi werkt met collega’s aan een computeralgoritme dat zelfstandig een diagnose kan stellen op basis van aangeleverde pathologiebeelden. Dat algoritme kan deze coupes analyseren en vergelijken met duizenden andere beelden van lymfeklieren, op zoek naar afwijkingen. “Techniek kan pathologen helpen om sneller en beter diagnoses te stellen.”

digitale_pathologie kunstmatige intelligentie AI

Ook bij het analyseren en kwantificeren van radiologie-beelden heeft AI grote potentie. Ciompi werkte ook mee aan een kunstmatige intelligent systeem om CT-scans te analyseren bij kankeronderzoek. “Longkanker wordt vaak pas in een late fase ontdekt. Door het analyseren van CT-scans – met hulp van kunstmatige intelligentie – kunnen we afwijkingen in een eerdere fase opsporen.”

Van maanden naar dagen

De van oorsprong Italiaanse Francesco Ciompi kwam in 2013 naar Nederland om als postdoc onderzoeker te werken. Hij heeft in de afgelopen tien jaar het gebied van kunstmatige intelligentie – of AI, artificial intelligence – enorm zien veranderen. “Toen ik startte met mijn onderzoek, duurde het maanden om zogeheten deep learning computermodellen te trainen. Nu is dat een kwestie van dagen of zelfs uren geworden.”

Dankzij de toename van de hoeveelheid data en sprongen op het gebied van computerkracht en graphics processing units, ofwel GPU’s – een grafische processor die nodig is om beelden te analyseren – heeft het vakgebied een enorme boost gehad, vertelt hij. “Met meer data en meer rekenkracht kunnen we nu ook modellen maken die tien jaar geleden niet bestonden. Met deep learning technologie leert een computer patronen herkennen op basis van een groot aantal voorbeelden, zoals pathologie- of radiologiebeelden. Hoe meer lagen we aan een deep learning model toevoegen, hoe meer een model kan leren over de data die je aanlevert.”

Begin 2017 publiceerden onderzoekers van de Amerikaanse Stanford Universiteit in Nature hun bevindingen waarbij een neuraal netwerk een dataset van 129.450 klinische afbeeldingen van huidaandoeningen gebruikte, om melanomen en kwaadaardige tumoren te onderscheiden. Het AI-systeem scoorde even goed als menselijke dermatologen, aldus de Stanford-onderzoekers.

Drie onderzoeksgroepen

In Nederland richten drie grote onderzoeksgroepen in Rotterdam, Utrecht en Nijmegen zich op het toepassen van machine learning voor medische beeldverwerking. Tientallen promovendi, artsen en data scientists werken bij het ErasmusMC, Radboudumc en UMC Utrecht aan algoritmes, en daarmee scoort Nederland op wereldschaal in de top-3 wanneer het om publicaties op dit gebied gaat.

Bij het Radboudumc werd twee keer een internationale competitie georganiseerd waar ruim twintig onderzoeksgroepen uit de hele wereld aan mee deden. Het doel: een computeralgoritme maken dat zelfstandig een diagnose kan stellen op basis van aangeleverde pathologiebeelden. Het beste algoritme kon net zo goed uitzaaiingen vinden als de patholoog die zonder tijdsdruk werkte, aldus Ciompi, en het algoritme overtrof daarmee de pathologen die de preparaten beoordeelden in een realistische werksituatie.

Patiëntenzorg

Maar dat betekent niet direct dat dit computeralgoritme in de patiëntenzorg bij het Radboudumc gebruikt wordt. “We zijn nu bezig met een pilot met de afdeling pathologie, om dit computeralgoritme in te zetten in de kliniek. We onderzoeken hoeveel tijd het kost om het algoritme beelden te laten analyseren, wat de beoordeling van het weefsel is volgens het systeem, en vergelijken dit met de beoordeling van de patholoog en de tijd die de reguliere zorg kost.”

De Diagnostic Image Analysis Group van het Radboudumc houdt zich bezig met onderzoek, niet met het vermarkten van de ontwikkelde computeralgoritmes. Daarvoor ontstaan spin-offs, bedrijven die technologie of kennis vanuit de academie naar het bedrijfsleven brengen. Twee spin-offs van het Radboudumc zijn Thirona en ScreenPoint, ScreenPoint haalde onlangs een investering van ruim 4 miljoen euro op – met behulp van Siemens – om zijn kunstmatig intelligente systeem gericht op mammografie-beelden verder te ontwikkelen.

En wat zegt Ciompi tegen collega’s die bang zijn dat hun baan overbodig wordt als een algoritme het overneemt? “Ik zie kunstmatige intelligentie en algoritmes als systemen die de arts of patholoog kunnen assisteren, met uitkomsten die objectief en reproduceerbaar moeten zijn. Daar werken we hard aan.”

“Besef ook dat algoritme worden beperkt door wat wij een computersysteem leren. Een computeralgoritme kan niet beredeneren zoals wij mensen dat doen, en kent geen menselijke creativiteit.”

Arthur Post Uiterweer, CEO van Quantib

AI-belofte Quantib wil wereld veroveren

[Dit artikel verscheen eerder op SmartHealth.nl]

Arthur Post Uiterweer is sinds begin dit jaar CEO van het Rotterdamse Quantib. Het bedrijf, dat eind vorig jaar een kapitaalinjectie van 4,5 miljoen ontving van durfinvesteerders, is opgericht in 2012. Het bedrijf is zes jaar geleden begonnen als spin-off van het Erasmus MC. Dat ziekenhuis heeft een vakgroep Biomedical Imaging Group Rotterdam (BIGR) onder leiding van Prof. Dr. Wiro Niessen.

Post Uiterweer legt uit dat die vakgroep al heel lang veelbelovende algoritmes ontwikkelde om bijvoorbeeld sneller meer informatie uit hersenscans te kunnen halen. “Maar de commerciële ontwikkeling van dit soort technieken is geen kerntaak van een onderzoeksinstelling, en veel promotieonderzoeken verdwenen in een la zonder dat ze ten goede kwamen aan patiënten.” Quantib is opgezet om die technologie wél naar de kliniek te brengen, en de toepassingen te laten voldoen aan richtlijnen als die van de FDA in de Verenigde Staten en CE in Europa. Dat zijn langdurige trajecten.”

Deep learning: the place to be

Post Uiterweer, die vorig jaar bij Quantib aanvankelijk was aangetrokken als commercial director, studeerde bioscience in Cambridge en maakte daarna snel carrière bij The Boston Consulting Group en de gezondheidsdivisie van Philips. Volgens hem is machine learning, het vakgebied waarin de data scientists en software engineers van Quantib werken, dé plek waar je nu wil zijn wanneer het om medische beelden (zoals MRI-scans) gaat. “De scanners van Philips, Siemens of GE gaan steeds meer op elkaar lijken, de software is cruciaal voor het onderscheid tussen concurrenten.”  

Quantib: data scientists en deep learning specialisten

Quantib’s huidige producten zijn gericht op hersenziekten. Enerzijds omdat neurologische ziekten veel mensen treffen, een belangrijke doodsoorzaak zijn en tot hoge kosten in het zorgsysteem leidden. Anderzijds omdat Erasmus MC een zeer sterk neuroradiologie team heeft. Innovatie op dit gebied kan dus ten goede komen aan veel patiënten, zegt Post Uiterweer. Het Quantib-product Brain kreeg in 2016 in de Verenigde Staten goedkeuring van de FDA. QuantibBrain helpt artsen en onderzoekers bij het detecteren en volgen van neurologische aandoeningen, zoals Parkinson, MS en Alzheimer. Artsen en onderzoekers kunnen dankzij de beeldanalyse-software van Quantib beter en ook sneller diagnoses stellen. Nu worden medische beelden meestal uitsluitend met het menselijke oog beoordeeld en vergeleken, doorgaans door de radioloog.

Algoritmes voor hersenen

Quantib zoekt in medische beelden naar zogeheten biomarkers: kenmerken die de radioloog en neuroloog helpen bij het diagnostiseren van een ziekte en het monitoren van de progressie daarvan. De diagnose van een ziekte als dementie is meestal een lang traject, waarin meerdere onderzoeken plaatsvinden door verschillende disciplines. Die metingen vormen, samen met de beelden van de scan, de basis voor de diagnose van een bepaald type dementie. Het duurt, zegt Post Uiterweer, vaak meerdere jaren om die diagnose definitief vast te stellen, vooral omdat de ziekte zich langzaam ontwikkelt. Een kenmerk van dementie is dat de hersenen van patiënten meer krimpen dan die van gezonde mensen.

De Quantib software voor hersenonderzoek

Quantib heeft norm grafieken ontwikkeld op basis van een grote populatie gezonde Nederlandse vrijwilligers, die al tientallen jaren worden gevolgd met regelmatige scans. De eerste scan van een patiënt met de verdenking van dementie kan worden vergeleken met de data van tientallen jaren researchnorm grafieken om te kijken of er sprake is van meer dan normale krimp. Dat is een belangrijke indicator voor de diagnose die de neuroloog stelt. Het gaat daarbij om slechts enkele millimeters afname per jaar.

De machine learning algoritmen die Quantib-onderzoekers ontwikkelden kunnen op basis van 3D beelden die verschillende gebieden van de hersenen ‘herkennen’ en per gebied de volumes berekenen. Dat is voor radiologen een tijdrovende bezigheid. Met dit gereedschap kan een correcte diagnose sneller worden gesteld, en een passende behandeling eerder worden ingezet.

Quantib wil zich met de nieuwe investering ook gaan richten op andere ziekten. Post Uiterweer zegt dat de algoritmen die Quantib ontwikkelt ook bruikbaar zijn om te zoeken naar biomarkers of data-patronen in scans van prostaat, lever en andere organen of botstructuren zoals heupen en knieën. De meest voor de hand liggende toepassing is het automatisch detecteren op basis van reeds bekende markers of patronen in radiologie beelden, als hulp voor de radioloog. Het wordt echter nog interessanter als zelflerende systeem nieuwe patronen ontdekken, die verbindingen leggen tussen radiologische beelden en pathologie of genetica.

“Deep learning moet geen black-box zijn”

“Idealiter wil je van een tumor weten welke genetische mutaties eraan ten grondslag liggen omdat dit veel zegt over hoe agressief de tumor is en wat de beste behandeling is. Om genetische mutaties te ontdekken moet je normaal gesproken een stukje tumorweefsel wegnemen om daarvan genetische code te bepalen. Wat we echter nu zien is dat de vorm en structuur van de tumor op MRI beelden vaak al een goede voorspeller is van genetische mutaties die aan de tumor ten grondslag liggen”, aldus Post Uiterweer. Wanneer je een algoritme maar genoeg gevallen laat zien, kan de zelflerende software de scans van patiënten vergelijken op letterlijk tienduizenden kenmerken, en daar de top honderd uit destilleren. Op die manier zal de deep learning software op basis van MRI-beelden steeds vaker kunnen voorspellen wat het resultaat van een biopt gaat zijn. “Het doel is natuurlijk om in bepaalde gevallen biopten te voorkomen en eerder een prognose te geven.”

Gary Kasparov moest het afleggen tegen de supercomputer van IBM

Deep learning systeem AlphaGo versloeg wereldkampioen Go, maar we weten niet precies hoe

Een belangrijke uitdaging die Post Uiterweer ziet voor deep learning-toepassingen is hoe de software aan menselijke specialisten meer inzicht kan geven in de manier waarop bepaalde patronen zijn ‘ontdekt’. Daardoor kunnen artsen volgens hem beter volgen waarom de software met bepaalde adviezen komt.

De CEO vindt dat het gevaarlijk is om blind te varen op de correlaties uit de ‘black box’ van de AI. “Je wilt bijvoorbeeld liefst visualiseren wat de top tien features zijn die tot een bepaalde relatie hebben geleid, op een manier die inzichtelijk is voor de dokter. Wanneer je dat niet transparant doet, dan raak je de kracht van de man-machine interface kwijt.”

Toekomst voor radiologie

Hoewel Post Uiterweer – niet onverwacht – uiterst optimistisch is over de toekomst van AI voor de interpretatie van medische beelden of weefselmonsters, stelt hij vast dat de nu al behaalde indrukwekkende resultaten van deep learning algoritmen nog geen alternatief zijn voor de menselijke radioloog of specialist. “Een radioloog die een röntgenbeeld bekijkt voert misschien wel twintig of dertig taken tegelijk uit, hij zoekt naar verbanden in het licht van de ziektegeschiedenis, de familiehistorie en de toestand van de patiënt, hij kijkt naar een vergroot hart, een klaplong, een longontsteking. Hij vat dat in een conclusie samen: dit zie ik bij de patiënt. Wat machine learning in dit stadium doet is één van die twintig of dertig taken steeds beter uitvoeren. Het is nog niet op het niveau dat de radioloog vervangen wordt, en daar zijn we nog ver van af. De technologie levert tools om het werk van de radioloog te ondersteunen, zodat die zich kan richten op de complexere problemen en randgevallen.

Radiologie data verdubbelt elke twee jaar

Radiologie data verdubbelt elke twee jaar

De CEO wijst er ook op dat de hoeveelheid medische beelden per twee jaar verdubbelt. “De komende twee jaar wordt evenveel medische beeld data gegenereerd als er in de hele medische geschiedenis tot nu toe is gegenereerd. Het aantal radiologen neemt met hooguit tien procent toe. Zonder machine learning tools kunnen radiologen de interpretatie van al die extra data op geen enkele manier aan. De algoritmen zorgen ervoor dat de menselijke radioloog als een moderne centaur – helft menselijk intelligentie, helft machine intelligence – sneller en beter kan werken.”

Nederland

Post Uiterweer concludeert dat Nederland “waanzinnig” goed is op het gebied van het toepassen van machine learning voor medische beeldverwerking. Dat komt volgens hem onder andere omdat er hier drie grote onderzoeksgroepen zijn in Rotterdam, Utrecht en Nijmegen. Op al die plaatsen zitten vijftig of meer data scientists die werken aan algoritmes, en daarmee scoort Nederland op wereldschaal in de top-3 wanneer het om publicaties op dit gebied gaat. “We zijn een topspeler.” Daarmee zou Quantib wereldwijd dus wel eens een paradepaardje van de nieuwe lichting AI-bedrijven kunnen worden. De concurrentie is echter taai: de nieuwe goudkoorts rond AI zorgde in 2017 voor letterlijk honderden nieuwe startups en enorme kapitaalinjecties van venture capital bedrijven.

Hoe controleren we AI algoritmen?

Technologiegebieden kunstmatige intelligentie (AI) en big data zijn niet onomstreden. Trump en Cambridge Analytica, verkeersdoden door zelfsturende auto’s, algoritmen die zonder dat we ze helemaal begrijpen diabetes of hartritmestoornissen voorspellen; het zijn maar enkele voorbeelden van toepassingen die nieuwe ethische vragen oproepen.

Het is dan ook niet verwonderlijk dat de schrijvers en data-wetenschappers ook de gevaren van data-wetenschap willen belichten. De Amerikaanse wiskundige Cathy O’Neil, auteur van de wereldwijde bestseller Weapons of Math Destruction, gaat in haar boek in op de gevaren van algoritmiek en big data. O’Neil studeerde in Berkeley, promoveerde aan Harvard University en was wiskundehoogleraar aan het Amerikaanse Barnard College. Ze werkte ook in de financiële wereld op Wall Street als kwantitatief analist en bedenker en bouwer van wiskundige financiële modellen. Tot de crisis uitbrak, waarna ze zich aansloot bij de Occupy-beweging.

Op haar blog mathbabe.org waarschuwt ze al enkele jaren voor een te luchthartig gebruik van wiskundige modellen die op basis van big data in toenemende mate ons leven beheersen, zoals bij hypotheekaanvragen, sollicitaties en diagnostiek. “We zien modellen als goden, maar ze worden alleen begrepen door de hogepriesters van dit domein, wiskundigen en computerwetenschappers”, zegt ze in het voorwoord van haar boek.

Wij zijn Big Data

De Nederlandse hoogleraar Sander Klous is auteur van de bestseller Wij zijn Big Data. Hij is hoogleraar bij de Universiteit van Amsterdam (Big Data Ecosystems) en partner bij KPMG, verantwoordelijk voor data analytics. Toen Klous’ boek in 2014 uitkwam, was het begrip big data inmiddels bekend aan het raken bij het grote publiek, terwijl artificial intelligence nog aan zijn hype cycle moest beginnen. In eerste instantie was kunstmatige intelligentie ook erg afhankelijk van grote hoeveelheden data, bijvoorbeeld om systemen te trainen katten, honden, of fouten in laswerk te herkennen.

Inmiddels, zegt Klous, is er ook een generatie AI die geen grote hoeveelheden data nodig heeft om verbluffende resultaten te bereiken. Hij noemt het voorbeeld van AlphaGo, de software van AI bedrijf Deepmind die de menselijke wereldkampioen Lee Sedol in het oosters denkspel Go versloeg. De eerste versie van die software haalde zijn kennis uit een grote hoeveelheid analyses van ooit gespeelde partijen Go: big data dus. De laatste versie van de software, toepasselijk AlphaGo Zero genoemd, gebruikt nul kennis over door mensen gespeelde partijen Go, maar heeft door tegen zichzelf te spelen en daarvan te leren het niveau van een wereldkampioen bereikt. Klous legt uit dat je big data en AI als twee cirkels kunt zien die, afhankelijk van de toepassing, in min of meerdere mate overlappen.

Hij vergelijkt de huidige situatie van AI met die van big data in 2014. “Er waren pilots, proof-of-concepts en grotere IT-bedrijven al langer bezig met het gebruik van big data. Maar de meeste organisaties moesten nog worden overtuigd van de werkelijke waarde van de technologie. Dat kwartje is nu wel gevallen. Ik verwacht dat AI dezelfde ontwikkeling zal doormaken, en dat we dus nog enkele jaren nodig hebben voor de echte doorbraak.”

Agile en kleinschalig aanpakken

Klous wijst erop dat ondernemingen als Facebook, Google en Amazon wel veel ervaring hebben. “Die zijn allemaal al vanaf pakweg 2010 intensief bezig met het toepassen van zelflerende algoritmen, al dan niet in combinatie met big data. Daardoor hebben ze een enorme voorsprong.”

In de zorgsector klinken steeds vaker waarschuwende woorden wanneer het om de toepassing van big data en AI gaat. De toepassingen van zelflerende algoritmen op grote hoeveelheden bestaande data (ziekenhuisdossiers bijvoorbeeld) en nieuwe data (wearables, sensoren) levert bijna wekelijks wel nieuws op over voorspellende toepassingen. “Ik begrijp de motieven van de mensen die waarschuwen voor een te snelle toepassing van nieuwe algoritmen zonder gedegen bewijs of verder onderzoek”, zegt Klous. Hij geeft echter ook aan dat het niet om een alles of niets vraag gaat. “De toepassing van big data of AI in de zorgsector leent zich goed voor een zogeheten agile aanpak, waarbij je in een proof-of-concept setting onderzoekt of je aannames kloppen en verder bewijs verzamelt.”

Hij geeft een voorbeeld uit de psychiatrie, waarbij big data analyse aan het licht bracht waardoor sommige patiënten enkele dagen na hun opname agressief werden. Zij bleken kort voor hun opname nog drugs te hebben gebruikt, en leden aan ontwenningsverschijnselen. Het intake formulier vroeg wel naar druggebruik, maar niet of de patiënt 24 uur voor opname nog had gebruikt. “Die vraag werd toegevoegd, en na enkele maanden kon je vaststellen dat de medische staf beter kon anticiperen op deze groep. Het is een klein project, maar de effecten waren groot.”

Assurance nodig voor algoritmen

Een waarschuwing die ook vaak klinkt rond big data en AI is dat een gevonden correlatie nog niets zegt over oorzaak en gevolg. Klous onderschrijft dat, maar geeft tegelijk aan dat een gevonden correlatie nog steeds nut kan bewijzen, zelfs wanneer het oorzakelijke verband (nog) niet bekend is. Hij wijst op een voorbeeld dat Oxford professor Viktor Mayer-Schönberger in zijn boek De big data revolutie noemt.

Canadese big data onderzoekers kwamen erachter dat de vitale lichaamsfuncties van vroeggeboren babies zich in de 24 uur voordat een infectie optreedt stabiliseren. Dat lijkt voor de medische staf geruststellend, maar is dus een voorbode van een potentieel levensgevaarlijke situatie. Ook zonder het verband tussen de stabielere lichaamsfuncties en de infectie te kennen, kon hier eerder begonnen worden met een behandeling, omdat het algoritme een betrouwbare voorspeller was.

Klous is wel een groot voorstander van maximale transparantie over de onderliggende werking van algoritmen en eventueel de data die ze gebruiken. “Vanuit KPMG gaan wij ons steeds meer bezighouden met het verstrekken van assurance voor algoritmen, vergelijkbaar met de controle die we nu voor financiële jaarrekeningen uitvoeren. AI en big data mogen geen black box zijn, vooral niet wanneer ze steeds vaker worden toegepast voor kritische bedrijfsprocessen of zorgtoepassingen. Dat we de verbanden die algoritmen vinden niet meteen begrijpen is acceptabel, maar de algoritmen zelf moeten uitlegbaar en wetenschappelijk verantwoord zijn.”