Starke Ansätze nicht nur für die Radiologie

Healthcare-Hackathon an der Uniklinik Mainz

In diesem Jahr fand der #Healthhackmainz erstmals als Hybridformat statt. In den Räumen der Universitätsmedizin und virtuell zugeschaltet engagierten sich rund 100 Hacker – davon 50 vor Ort – bei der Entwicklung und Weiterentwicklung zahlreicher Projekte.

Healthcare-Hackathon an der Uniklinik Mainz

Führt mit neuronalen Netzen Daten aus Pathologie und Radiologie zusammen, um zusätzliche wertvolle Aussagen zu Patientenfällen zu gewinnen: das Team um Dr. Sebastian Försch in der Pathologie am Mainzer Uniklinikum. | © M. Bauer

Die insgesamt 19 Challenges teilten sich auf in COVID-19-Hacks, digital unterstützte Pflege und Medizin, Future Hospital HR (Personalmanagement) und Notfallmedizin. Im Studio des neu eingerichteten Gutenberg Hubs präsentierten Experten, Beteiligte und Vertreter der Politik „virtuellen“ Teilnehmern ihre Erfahrungen und Positionen.

In einem Hackathon werden innovative Ideen in IT-Projekten ausgearbeitet und nicht zerstört, wie das Wort „Hacken“ vielleicht andeutet. „Das schadenverursachende Hacking nennt man hingegen Cracken“, erklärte Dr. Christian Elsner, Macher des Formats, das vor vier Jahren im UKSH-Campus Kiel gestartet war. „Zudem erleben wir einen erfreulichen Trend weg von IT-getriebenen Hacks hin zu praxistauglichen Lösungen. Auch aus der Weiterentwicklung früherer Projekte entstanden mittlerweile nachhaltige Lösungen; über die Top-Zusammenarbeit zwischen 23 Unikliniken freuen wir uns sehr.“

Spannend für die Radiologie waren zwei Projekte: zum einen die Challenge auf Basis von #OpenKI – also mit innerhalb der Community verfügbaren Daten und Algorithmen –, in der mit echten Bilddaten durch Datenfusion eine neue Sicht auf medizinische Informationen erzeugt wird, zum anderen die Challenge #MRIQA, um die Qualität von MRT-Aufnahmen automatisch zu bewerten.

KI-Lösung analysiert die Bildqualität

Ein Team aus Mitarbeitern der Universitätsklinik für Neurologie und dem Geschäftsbereich IT und Medizintechnik der Otto-von-Guericke-Universität Magdeburg sowie dem Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE, Standort Magdeburg) widmete sich der automatischen Qualitätsanalyse von MRT-Aufnahmen. Üblicherweise erfolgt die Beurteilung der Bildqualität visuell durch MTRA in der klinischen Routine; manuell entscheidet dabei eine Person, ob das Bild eine ausreichende Qualität hat oder neu aufgenommen werden muss. Dieses Verfahren ist optimierungsbedürftig: Die Bewertung ist subjektiv und kostet Zeit, da Patienten den Scanner belegen. Manchmal erfolgt gar keine Bewertung aufgrund von Zeitknappheit – ferner können unerfahrenere MTRA unsicher bei der Bewertung sein. Wird ein Scan mit unzureichender Qualität nicht erkannt, kann dies die Befundung oder bildgestützte Intervention stark beeinträchtigen. Im schlimmsten Fall muss die Bildaufnahme an einem späteren Termin noch einmal wiederholt werden – ein unerwünschter Aufwand und eine Beeinträchtigung der Patienten-Lebensqualität.

Ziel dieses MRIQA-Ansatzes ist die automatisierte Bewertung der Bildqualität durch KI-gestützte Detektion und Klassifikation von Bildartefakten sowie die Quantifizierung dieses Störfaktors. Dabei soll eine Ampel Hinweise zur Bildqualität liefern, über die Werte gut, moderat oder schlecht. Die Scans von guter Qualität erreichen direkt den Befunder, um die bildgestützte Therapiestellung vorzubereiten. Die Scans mit moderater Qualität müssen gegebenenfalls nochmals von der MTRA begutachtet werden, die als schlecht vorbewerteten erfordern sofort einen erneuten Scan.

PD Dr.-Ing. Steffen Oeltze-Jafra, Universitätsklinik für Neurologie, Otto-von-Guericke-Universität Magdeburg, erläuterte das Vorgehen: „Für den Hack haben wir uns auf T1- und T2-gewichtete MRT-Daten des Kopfs beschränkt; grundsätzlich sollte aber das Ziel sein, alle gängigen MRT-Sequenzen und sämtliche Körperregionen abzudecken. Wir haben den Hackern einen Link zu öffentlich verfügbaren Bilddaten zum Trainieren und Benchmarken bereitgestellt und ihnen öffentlich verfügbare Methoden an die Hand gegeben, mit denen sie synthetisch verschiedene Arten von gängigen Artefakten auf den Bilddaten erzeugen konnten. Die entstandenen Lösungen haben wir in Magdeburg auf eigenen Bilddaten mit realen Artefakten angewendet – ohne zusätzliches Training! –, um einen weiteren Benchmark durchzuführen. Die Ergebnisse auf den öffentlichen Bilddaten waren nahezu perfekt (Benchmark 1), die des zweiten Benchmarks dafür, dass sie nie gesehen wurden, ziemlich vielversprechend. Drei Teams beschäftigten sich mit unterschiedlichen Lösungen, die Ergebnisse finden sich auf der Entwicklerplattform GitHub. Die Hacker verwendeten dafür Deep Learning mit Convolutional Neural Networks, Strategien aus dem Bereich Residual Learning und Transfer Learning sowie eine ‚klassische‘ Lösung ohne Deep Learning basierend auf Fourier Analysis.“

Wie lassen sich diese Ergebnisse in die Praxis umsetzen?

Auf dem Hackathon hat das Team einen Implementierungsworkshop mit Siemens Healthineers, IBM Deutschland und Amazon Web Services DACH gewonnen, um die praktische Umsetzung zu beginnen. Vielleicht lassen sich Plug-ins für die Scanner-Software oder für das PACS entwickeln, vorher sind aber noch Weiterentwicklungen nötig. Eine Herausforderung ist, dass es um die Erkennung genau eines Artefakts in den Daten ging, im Alltag jedoch oft Kombinationen von Artefakten auftreten. Ferner müssen die Ergebnisse auf weitere Daten aus der klinischen Routine evaluiert werden. Hier läuft bereits eine Kooperation mit der Universitätsklinik für Radiologie am Universitätsklinikum Magdeburg.

Dass diese Ergebnisse Einfluss auf die Routine von MTRA haben, wünschen sich die Ausrichter und Teilnehmer der Challenge sehr. Auf jeden Fall bietet die Empfehlung des Systems etwas, auf das man sich später „berufen“ kann. Die Assistenten gewinnen Zeit für andere Tätigkeiten und können sich mehr den Patienten zuwenden, die außerdem kürzere Zeit im Scanner verbleiben.

Auch für Forschungsaktivitäten ergeben sich Potenziale, erläuterte PD Dr.-Ing. Oeltze-Jafra: „Hier muss bislang ein Team bereitstehen, das die visuelle Beurteilung der Bildqualität sehr vieler Daten leistet, etwa aus großen Bevölkerungsstudien. Dieses Team hat zu entscheiden, ob Bilder zur wissenschaftlichen Analyse freigegeben werden können. Diese Entscheidung geschieht weitestgehend manuell und visuell; mehrfach müssen hierzu neue Teammitglieder geschult werden, um eine einheitliche Qualitätsbewertung langfristig zu gewährleisten. Dazu kommt, dass in einigen Fällen unruhige Patienten mehrmals zum Scan eingeladen werden, ohne dass sich ihre Daten verwenden lassen. Hier stellt sich eine Kosten-Nutzen-Frage.“

Eine automatisierte Qualitätsanalyse leistet auch in diesem Kontext Unterstützung. So objektiviert sie als Tool für das Qualitätssicherungsteam die Ampel-Empfehlung bei Studienverläufen (gut/moderat/nicht freizugeben). In der klinischen Forschung, etwa bei Studien des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE), könnte laut Erwartung des Magdeburgers der Lösungsansatz aus der Challenge Verwendung finden, um die alltägliche Qualitätssicherung direkt in Echtzeit zu unterstützen.

Digitale Pathologie

Eine weitere Lösung des Hackathons entstammt der Pathologie der Universitätsmedizin Mainz. Das im interdisziplinären Team um Dr. Sebastian Försch entwickelte intelligente Mikroskop soll mithilfe künstlicher neuronaler Netze – dem Aufbau des biologischen Gehirns nachgeahmt – neue Bilder klassifizieren und radiologische Bilddaten integrieren. Für das bereits im vorangegangenen Jahr vom BMBF geförderte Projekt nutzen die drei Teammitarbeiter, darunter eine MTA, pathologische Daten aus dem eigenen Haus und aus öffentlich zugänglichen Datensätzen, um Vorhersagen beispielsweise im Bereich Dickdarmkrebs zu generieren. Es handelt sich dabei um die Vorhersage negativer und positiver Fälle, aus denen Prognosen zum weiteren Verlauf der Erkrankung abgeleitet werden sollen.

Dr. med. Sebastian Försch

Das Team der Pathologie der Unimedizin Mainz hatte 2019 das intelligente Mikroskop vorgestellt, das mit Hilfe künstlicher neuronaler Netze neue Bilder klassifizieren soll. Im laufenden Jahr sollen Bilder aus der Radiologie mit integriert werden. Erfahren Sie mehr zum Proof of Concept im Interview.

weiterlesen

„Das reine Unterscheiden von Dickdarmkrebs und normaler Dickdarmschleimhaut ist nicht sonderlich schwer“, betonte Dr. Försch, „Computer-basierte Modelle sind jedoch attraktiv für schwer diagnostizierbare Fälle oder auch für den Bereich seltener Erkrankungen. Wir nutzen dafür beispielsweise vortrainierte Modelle von Google oder Microsoft, die ursprünglich aus Daten von Hunden und Katzen stammen. Wir wenden sie im Haus lokal auf Fragen der Pathologie an. Solange die Pathologie noch nicht komplett digital arbeitet, verfolgen wir dabei einen Hybridansatz. Wir schicken ein vom Mikroskop erzeugtes Bild durch das neuronale Netzwerk und lassen es klassifizieren. Dies könnte den Übergang zu einer komplett digitalen Arbeitsweise erleichtern. Manchmal scheint es, als würden die meisten Kollegen noch das Mikroskop bevorzugen. Ich selbst würde auch am Computer, also echt digital, befunden.“ Neu in diesem Jahr ist die Auswertung weiterer Parameter in den Bildern. Neben der reinen Aussage „negativ“ oder „positiv“ können aufgrund des Aussehens des Gewebes Vorhersagen für den Patienten getroffen werden. Dr. Försch: „Wenn wir dazu dann noch Radiologie-Daten aus CT, MRT und so weiter integrieren, können wir vielleicht irgendwann einmal Aussagen etwa über die Lebenserwartung und zum Gesamtbild des Patienten machen. Diese Informationszusammenführung untermauern wir mithilfe von Rechenpower – und computeraffine MTA leisten im Team unter anderem durch eine Reihe von Arbeitsschritten mit den Schnitten einen wichtigen Beitrag zum Erfolg.“

Projekte wie diese auf Hackathons demonstrieren, wie maßgebend Technologie die Arbeit in Radiologie und Pathologie unterstützen kann …  damit insbesondere in der Pathologie diese Vorteile tatsächlich in der Routine ankommen, bleibt allerdings noch viel an Akzeptanzaufbau und Investitionen zu leisten.

 

Entnommen aus MTA Dialog 8/2020