Die Crux des Trainingsdatensatzes

Künstliche Intelligenz in der Medizin: damit kommt die nächste medizinische Revolution, wie es die Erfindung der Bildgebungsverfahren auch einmal war. Experten sind sich da ziemlich sicher. Die Vision steht. Der Weg zur Revolution ist noch steinig und schwer. Heute: Das Beispiel Trainingsdaten.

Um eine gute KI-Anwendung zu trainieren, braucht es sehr gute Trainingsdaten. Je nach gewähltem Verfahren braucht es dafür tausende Bilddaten, die zudem medizinisch korrekt ausgezeichnet sein müssen. Heute entsteht zu einem medizinischen Bild in der Regel ein Befund, also ein vom Mediziner erzeugter Text, ein sogenannter Freitext, also etwas das beschreibt in diesem Bild sehe ich zu dieser Fragestellung nix oder eben doch etwas. Das kann irgendwie formuliert sein, vielleicht gibt es einen persönlichen oder Abteilungsinternen Standard für bestimmte Formulierungen, aber schon in der nächsten Einrichtung kann dies ganz anders sein. Um nun einen Trainingsdatensatz zu erstellen, muss diese Information in sogenannte Labels für die Bilddaten umgewandelt werden. Da es eine Vielzahl an Anbietern gibt, die Bildbefundungssysteme anbieten (PACS) ist auch hier kein wirklicher Standard vorhanden. Das Datenaustauschformat ist heute der DICOM-Standard, in dem solches Wissen stecken kann, die Informationen werden aber aus dem Befund, der meist in einem anderen System (RIS) erstellt wird, oft nicht in die Bilddaten des PACS übertragen und wenn doch, dann nicht in alle Bilder oder Serien die zu diesem Patienten übertragen wurden.

Für die Ersteller von Trainingsdatensätzen ist das misslich, aber es gibt Abhilfe. Mit Textanalysemechanismen, fancy mit KI, ansonsten auch klassisch mit Mustererkennung und hartcodierten Regeln, werden die Befunde ausgewertet und die Bilddaten mit entsprechenden Labels ausgestattet. Doch bei dieser Art der Trainingsdatenerstellung entstehen Fehler, die ein zuverlässiges Trainieren von Algorithmen erschweren.

Der Radiologe befundet solche Bilder immer mit einer spezifischen Fragestellung. Dabei kann nicht davon ausgegangen werden, dass er gezielt alle in einem Bild enthaltenen Befunde a) sieht und b) aufschreibt. Immer wieder werden weitere Befunde nicht erwähnt, da sie mit der ursprünglichen Fragestellung nichts zu tun haben oder auch einfach als nicht relevant eingestuft werden.

Eine Röntgenthoraxaufnahme (engl. Chest X-Ray) kann zur Befundung von bis zu 80 Krankheitsbildern genutzt werden. Wenn ich also einen großen Bilddatensatz mit Chest X-Ray Aufnahmen habe, wie er jüngst von der Stanford Universität veröffentlicht wurde, dann sind dort Bilder enthalten

  • die nur den Befund A enthalten und mit A gelabelt sind
  • die den Befund A und B enthalten, aber nur mit A gelabelt sind
  • die den Befund A und B enthalten, aber nur mit B gelabelt sind
  • die den Befund A, B und C enthalten, aber nur mir A und B gelabelt sind
  • usw.

Es sind die vielfältigsten Kombinationen denkbar und alle sind sehr wahrscheinlich in der einen oder anderen Form im Datensatz enthalten.

Trainiert man nun einen Algorithmus mit diesen Daten auf das Auffinden von den Befunden A, B und C, dann würden einige Bild/Label Paare die KI in eine falsche Richtung führen, da sie die KI trainieren, dass kein Befund enthalten ist, obwohl der Befund tatsächlich zu sehen ist, er wurde nur einfach nicht als Label aufgeschrieben.

Noch schwieriger sind Bilder die gleich als „ohne Befund“ oder mit der Phrase „Keine Veränderung zu vorher“ befundet wurden: Befunde werden heute geschrieben, um zwischen Ärzten über ein Bild zu kommunizieren und wichtige Informationen zu benennen. Befunde beschreiben nicht das Bild an sich, mit all seinen Facetten, sondern nur einen Teil, der zur Fragestellung passt oder als wichtig gesehen wird. Und: Befunde werden im Akkord geschrieben, am Ende einer langen Schicht, nach der man lieber schon zu Hause wäre, wenn man vielleicht schon müde ist. Die beiden Phrasen bedeuten also nicht, dass in dem Bild ein Normalzustand für alle möglichen Krankheitsbilder zu sehen ist, wie es eine KI aber annehmen würde.

Bei Deep Learning, dem Verfahren, bei dem man einen Algorithmus mit sehr vielen, meist hunderttausenden von Daten trainieren möchte, wird durch die heute übliche Dokumentationspraxis, also immer auch mit einem großen Prozentsatz an Bild-Label-Paaren trainiert, die fehlerhaft sind. So wäre diese Technik heute an sich geeignet, die nächste medizinische Revolution in der Bildbefundung zu begründen, wenn dafür nicht schlicht qualitativ hochwertige Trainingsdatenmassen fehlen würden. Unter Laborbedingungen gelingen allerdings auch mitsolchen Datensätzen interessante Ergebnisse, ob diese auch mit live-Daten aus dem normalen medizinischen Betrieb erreicht werden können, muss meist noch bewiesen werden.

Auch 2018 engagiert sich Apple verstärkt im Bereich Healthcare

In den USA seit 2018 möglich: 1-Kanal-EKG-Messung mit der Apple Watch

Kein Jahr vergeht in dem sich Apple nicht stärker den Themen HealthCare zuwendet, so auch in 2018. In Cubertino wurde in diesem Jahr sind es drei relevante Entwicklungen, die dieses Engagement untermauern: Die EKG Funktion der Apple Watch, Das Apple Health Record Programm und Hardwareseitig die KI Chips jetzt in iPhones und den neuen iPads.

Apple Watch Series 4 mit 1-Kanal-EKG Messung

Schon Anfang des Jahres gab es die ersten Gerücht über neue Aktivitäten von Apple beim Thema Herzgesundheit. Wie immer bei Apple sind Gerüchte erstmal nur Gerüchte, aber das Bild das sich aus einer erstem Meldung der New York Times im Januar, von im Februar bekannt gewordenen Einwilligungsbögen für eine Apple Heart Study in Stanford, im März dann eine Publikation im Medizinjournal JAMA über eine Studie die mit KI und Daten der Apple Watch Vorhofflimmern erkennen konnte und einem aus den Stanford Unterlagen bekannten FDA Zuslassungsverfahren ergab, war recht eindeutig, dass es nun soweit war. Auch die Entkoppelung der Aplle Watch vom iPhone war für diese Entwicklung ein wichtiger Schritt.

Im September präsentierte Apple also die Apple Watch Series 4 mit EKG Messfunktion. Dabei bilden die Arme und Körper des Uhrträgers einen Ring, in den die Apple Watch über die Unterseite mit dem einen Arm verbunden ist und mit dem Inneren des Drehrads an der Uhr über einen aufgelegten Finger des anderen Arms eingebunden ist. So kann sie ein 1-Kanal-EKG aufzeichnen, wenn der Nutzer dies explizit mit dem Gerät tun möchte.

Apple kündigte zudem an, dass das Gerät im Hintergrund in der Lage ist automatisch eine Vorhofflimmern zu erkennen, auch ohne dass der Träger dazu eine Messung anstoßen muss. Die Uhr gibt dann eine entsprechende Wahrnung aus und regt eine EKG Messung durch den Nutzer und ggf. einen Arztbesuch an.

Interessant war die enorme Geschwindigkeit des FDA Zusallungsverfahrens, an dessen Ende ein „Clearance Letter für Klasse-2-Geräte“ stand. Mit dem Softwareupdate von iOS 12.1 stand die Funktion dann ab dem 6. Dezember allen Apple Watch Besitzern in den USA zur Verfügung.

Auch sonst konzentriert sich Apple mit der neuen Series 4 auf gesundheitsbezogene Anwendungen. So erkennt sie nun eine Vielzahl von Workouts automatisch anhand ihrer Sensoren wie z.B. für die Herzfrequenz oder die Bewegungsrichtungen.

Neu ist auch ein Feature, dass mit dem Beschleunigungssensor und dem verbauten Gyroskop einen Sturz erkennen kann. Der Nutzer wird dann gefragt, ob er einen Notfallkontakt informieren möchte oder die Uhr kann, wenn sie für einen Minute nach dem Sturz keine Bewegung des Nutzers registiertw wird, automatisch einen Notruf absetzen und die Notfallkontakte informieren.

Apple Health Record

Mit nicht so großer Aufmerksamkeit verbunden war die Einführung der Apple Health Records im amerikanischen Gesundheitswesen. Dabei kündigte Apple im Januar 2018 an mit iOS 11.3 eine persönliche Gesundheitsakte Health Record an, die es ermöglicht die Daten der auf jedem iPhone vorhandenen Apple Health App mit Systemen von ausgewählten Notfallambulanzen in den USA auszutauschen. Zum Start waren dies 12 über das ganze Land verteilte Einrichtungen darunter Penn Medicine in Philadelphia, Cedars-Sinai in Los Angeles, Johns Hopkins in Baltimore oder das Geisinger Health System, Pennsylvania. Bis zum August 2018 nutzten schon 75 Krankenhäuser eine Anbindung mir Apple Health Records.

Zusätzlich kündigte Apple Mitte des Jahres an dass es eine API für die Health Records geben werde, die es Entwicklern von Apps ab iOS 12 ermöglichen würde, mit entsprechenden Einwilligung auf Daten aus der elektronsichen Akte des Patienten zuzugreifen.

Erstes Beispiel für eine solche Integration war dabei die App Medisafe, die es ermöglicht mit der API Daten über verordnete Medikamente in ddiese App zu importieren und es so sehr viel leichter Macht, Erinnerungsmeldungen für die richtige Einnahme in der App zu erstellen.

A12X Bionic – Machine Learning Ready

Zuletzt berichtete das Wallstreet Journal über Gespräche zwischen Apple und dem Department of Veteran Affairs über eine spezielle Elektronische Gesundheitsakte für Vetranen.

Auch bei der Hardware legt Aplle in 2018 nach. iPad Pro und iPhone XS erhalten nun einen Chip mit Neural Engine und ermöglichen so fortschrittliches Machinelles Lernen, das insbesondere in der Medizin zur Anwendung kommen wird. Die Geräte werden so in der Lage sein in verschiedenen Apps KI-basierte Auswertungen und Bildanalysen durchzuführen, die es ermöglichen Zusammenhänge aus großen Datenmengen bespielsweise der Helth Records zu erkennen, die ein Arzt auf die schnelle gar nicht überblicken kann oder Classifier auf Bilddaten anzuwenden, die z.B. befundungsrelevante Bereiche erkennen und visualisieren können.

Noch ist diese Technik durch die Hardware nur möglich, die ersten Anwendungskonzepte werden aber bereits ausgearbeitet und bald erprobt.

Digitalgipfel 2018

Angela Merkel auf dem Digitalgipfel 2018 unterwegs in „noch nicht durchschrittenem Terrain.“

Am 3. Und 4. Dezember fand in Nürnberg der Digitalgipfel der Bundesregierung mit dem Schwerpunktthema „Künstliche Intelligenz – Ein Schlüssel für Wachstum und Wohlstand“ Telepaxx und einige unserer Partner waren dabei.

Auf dem Gipfel spielten die medizinischen Themen nur eine Nebenrolle. Dabei ist die Medizin eines der drei Felder neben Industrie und Mobilität, die in der neuen KI-Strategie der Bundesregierung, die erst 14 Tage zuvor vorgestellt werden, eine besondere Rolle spielen.

Zusammen mit den zahlreichen Vertreterinnen und Vertretern aus Politik, Industrie und Wissenschaft wurde eine Bestandsaufnahme zur KI in Deutschland vorgenommen, die jetzt notwendigen Entscheidungen diskutiert und Visionen für eine Zukunft neben den KI-Großmächten USA und China aufgestellt. Bundeswirtschaftsminister Peter Altmaier nannte KI die größte Innovation seit Erfindung der Dampfmaschine. Er versprach eine bessere Förderung von Start-ups und KMU, z.B. mit Europäischem Venture Capital, damit die guten Ideen und Erfindungen nicht spätestens in der zweiten Finanzierungsrund, in der solche Firmen zwei- bis dreistellige Millionensummen als Investments benötigen von amerikanischen oder chinesischen Bietern aufgekauft werden.

Angela Merkel geht in Ihrer Rede bewusst auf die Konflikte der Digitalpolitik ein. Sie bezieht Stellung zum Streit um die 5G Lizenzen, den Digitalpakt für Schulen oder die Datenschutzgrundverordnung. Leicht selbstironisch erntet sie den größten Lacher: „Ich habe früher einmal „Neuland“ gesagt, das hat mir einen großen Shitstorm eingebracht. Deshalb möchte ich das hier nicht wiederholen. Also jedenfalls ist es auch ein in gewisser Weise noch nicht durchschrittenes Terrain.“

Beispiele aus dem Gesundheitswesen

Highlight für das was mit KI in der Medizin heute schon möglich war auf der Messe der digitale Herz-Zwilling für CRT-Patienten von Siemens Healthineers, der hier erstmals ganzheitlich gezeigt wurde. 30 bis 50 % der Patienten einer kardialen Resynchronisationstherapie (CRT) sprechen auf die Behandlung, bei der ein Schrittmacher eingesetzt wird, um das Herz neu zu synchronisieren, nicht an. Der digitale Herzzwilling soll daher vor dem Eingriff mit Hilfe Künstlicher Intelligenz helfen, den Erfolg besser abzuschätzen und die Behandlung präziser zu planen.

Mehr hierzu in der Ärzte Zeitung: https://www.aerztezeitung.de/praxis_wirtschaft/e-health/article/977489/kuenstliche-intelligenz-digitale-zwillinge-gipfel-highlight.html

Ebenfalls an einem Stand zeigte der Telepaxx-Partner Merantix seine Lösung für die digitale Unterstützung von Mammographie-Screenings. Mit Hilfe von auf künstlichen Neuronalen Netzen basierendem Machine Learning sollen dabei vor allem unkritische Befunde ermittelt werden, so dass sich die Befundenden Ärztinnen und Ärzte besser auf die kritischen Fälle konzentrieren können.

Auch im Panel der Plattform Lernende System ging es zumindest um ein konkretes Beispiel aus der Medizin. Dort Stelle die auf Prothesen spezialisierte Firma Otto Bock ihre Lösung vor, die mit KI in der Prothese hilft, aus den messbaren Nervenströmen im Arm die für die Bewegungssteuerung relevanten Informationen zu erfassen und so eine präzisere und für die Träger angenehmere Funktion zu gewährleisten.

Brainlab mit noch etwas zu intransparenter und etwas zu schwerer Brille.

Eher im Bereich der modernen Technologie als für KI zeigte die Firma Brainlab eine Lösung für den Operationssaal mit einer Augmented Reality Brille. Im Showcase konnte mit der Brille im Vorfeld einer Tumor-Operation ein 3D-Modell des Körpers frei im Raum vor dem Betrachter projiziert angesehen werden. Für den Chirurg gab es eine Einsatzszenario, dass ihm über die Brille durch entsprechende räumliche Erkennung ein Modell in den Körper des Patienten räumlich korrekt z.B. die Knochenstruktur und die genaue Platzierung der genutzten Instrumente eingeblendet werden können.

Beliebt beim Publikum war auch der kleine Roboter Pepper. Auch wenn er sich bei einer Besucherin nicht ganz so beliebt machte: