Deep Learning Ansätze zur automatischen Klassifikation und Segmentierung von PET/CT Daten
Loading...
Date
2024-06-14
Authors
Steube, Dominik
Journal Title
Journal ISSN
Volume Title
Publication Type
Dissertation
Published in
Abstract
Die Positronen-Emissions-Tomographie (PET) in Kombination mit der Computertomographie (CT) gehört zum Standard der medizinischen Bildgebung mit einem breitem Indikationsspektrum. Die Befundung der Untersuchungen stellt dabei für die Nuklearmedizin eine zeitintensive und fachlich herausfordernde Aufgabe dar. Der fortschreitende Einzug von künstlicher Intelligenz (KI) in die bildgebenden Verfahren verspricht im Allgemeinen Fehldiagnosen zu minimieren, weniger Auffälligkeiten zu übersehen und Arbeitsprozesse zu beschleunigen. In dieser Studie sollte deshalb die Frage beantwortet werden, ob und in welchem Umfang sogenannte Convolutional Neural Networks (CNNs) die Befundung der PET/CT-Scans unterstützen können.
Die Datengrundlage zum Training dieser Deep Learning Modelle bildeten 262 individuelle Untersuchungen, von denen 98 als Krank und 164 als Gesund klassifiziert wurden. Die Segmentierung und Annotation der Pathologien sowie der physiologisch erhöhten Traceraufnahme erfolgte bei allen Patienten der Gruppe Krank. Für eine unabhängige Testphase wurde außerdem ein zusätzlicher Datensatz aus 15 Patienten der Gruppe Gesund inklusive Segmentierungen erstellt. Um die Modelle mit möglichst vielen unterschiedlichen Ansätzen zu trainieren, wurden verschieden große Ausschnitte der Bilder erzeugt, die Anzahl der eingespeisten Schichten variiert und das CT mit unterschiedlichen Opazitäten über das PET gelegt. So entstanden für die Klassifikation 72 und für die Segmentierung 60 eigenständige Experimente. Das Training der Netzwerke erfolgte unter Verwendung der Gruppe Krank, welche aus technischen Gründen auf 76 Untersuchungen reduziert werden musste. Für jedes der Modelle wurde zur Bewertung der Performance der Mittelwert ± Standardabweichung der verwendeten Metriken aus fünf unterschiedlich initialisierten Durchläufen berechnet.
In der ersten Versuchsreihe wurde mittels eines DenseNet121 die binäre Klassifikation der einzelnen transversalen Schichten als physiologisch oder pathologisch trainiert. Das beste Modell konnte dabei die Bilder mit einer Genauigkeit von 0,986 ± 0,029 korrekt einstufen. Das F-Maß betrug 0,985 ± 0,029, die Sensitivität 0,986 ± 0,029 und die Präzision 0,987 ± 0,025. An dem unabhängigen physiologischen Testdatensatz erzielten dieselben Modelle eine Genauigkeit von 0,916 ± 0,036. Da bei der Klassifikation keine Diagnose innerhalb der Schichten erfolgte, wurden im nächsten Schritt mit Hilfe desselben Datensatzes zwei getrennte auf U-Net basierende Netzwerke zur Segmentierung der Pathologien und der 85
Physiologien programmiert. Das leistungsstärkste Modell der Pathologien erreichte einen Dice-Koeffizienten (DSC) von 0,659 ± 0,016 und eine Hausdorff Distanz (HD) von 13,619 ± 2,624. Für die Physiologien ergaben sich mit einem DSC von 0,800 ± 0,023 und einer HD von 12,957 ± 1,737 deutlich bessere Werte, die allerdings durch den unabhängigen Testdatensatz nicht direkt bestätigt werden konnten. Der DSC lag hier maximal bei 0,522 ± 0,019 und die HD bei 27,883 ± 1,230. Somit ließ sich mit der verwendeten Methodik unter Berücksichtigung der Größe des verwendeten Datensatzes eine insgesamt starke Klassifikationsleistung nachweisen. Die Segmentierung innerhalb derselben Bilder erfordert hingegen, im Hinblick auf die Pathologien, eine zukünftige Steigerung der Untersuchungszahl. Die Physiologien wurden aufgrund besserer Reproduzierbarkeit und geringeren interindividuellen Unterschieden weniger von der kleinen Datenbasis beeinflusst. Die abweichenden Werte der zweiten Testphase weisen dennoch auf Leistungseinbußen aufgrund patientenspezifischer Variabilitäten hin.
Die ursprüngliche Prämisse dieser Studie war die Entwicklung einer KI-gestützten Befundungssoftware für PET/CT-Untersuchungen. Nach Abschluss des Projektes erwies sich die angewendete Methodik, trotz relativ geringer Patientenzahl, als vielversprechend. Die Klassifikation der erhöhten Traceraufnahme in PET/CT-Bilder als physiologisch oder pathologisch zeigte bereits Potential für den Einzug in den klinischen Alltag. Vorher sollten die Modelle allerdings mehreren unabhängigen Tests unterzogen sowie in Folgestudien zusätzliche Trainingsdaten mit ergänzenden Informationen generiert werden. Dazu zählen beispielsweise die Anamnese, klinische Befunde und ergänzende Modalitäten. Die weiterführende organ- und pathologiespezifische Beurteilung der Bilder ist als Teil dieser Studie noch nicht umsetzbar gewesen. Dennoch soll die erfolgte Annotation der Segmentierungsmasken bereits für Folgeprojekte genutzt werden. Die Performance der Segmentierung wurde zudem zu stark durch die kleine Datenbasis beeinflusst, um der Individualität der Pathologien gerecht zu werden und diese bereits als klinisch einsetzbar einzustufen. Die Datenmenge sollte hierfür deutlich erhöht werden. Da dieser Arbeitsaufwand durch Einzelstudien kaum stemmbar sein wird, ist die kollaborative Zusammenarbeit mehrerer Institute sowie die Publikation eigener Datensätze in öffentlich zugängliche Datenbanken zu empfehlen. Dies könnte den wissenschaftlichen Fortschritt beschleunigen und der uneinheitlichen Methodik der bereits vorhandenen Literatur entgegenwirken.
Description
Faculties
Medizinische Fakultät
Institutions
UKU. Klinik für diagnostische und interventionelle Radiologie
UKU. Klinik für Nuklearmedizin
UKU. Klinik für Nuklearmedizin
Citation
DFG Project uulm
EU Project THU
Other projects THU
License
CC BY 4.0 International
Is version of
Has version
Supplement to
Supplemented by
Has erratum
Erratum to
Has Part
Part of
DOI external
DOI external
Institutions
Periodical
Degree Program
DFG Project THU
item.page.thu.projectEU
item.page.thu.projectOther
Series
Keywords
Tumordiagnostik, PET/CT, 18F-Fluordesoxyglukose, FDG, Bildgebende Diagnostik, Künstliche Intelligenz, Deep learning, Positronen-Emissions-Tomografie, Computertomografie, Tumor, Diagnostik, Bildgebendes Verfahren, Artificial intelligence, Deep learning, Neoplasms; Diagnostic imaging, Tomography, Emission-computed, Tomography, X-ray computed, DDC 610 / Medicine & health