Deep Learning Ansätze zur automatischen Klassifikation und Segmentierung von PET/CT Daten

Loading...
Thumbnail Image

Date

2024-06-14

Authors

Steube, Dominik

Journal Title

Journal ISSN

Volume Title

Publication Type

Dissertation

Published in

Abstract

Die Positronen-Emissions-Tomographie (PET) in Kombination mit der Computertomographie (CT) gehört zum Standard der medizinischen Bildgebung mit einem breitem Indikationsspektrum. Die Befundung der Untersuchungen stellt dabei für die Nuklearmedizin eine zeitintensive und fachlich herausfordernde Aufgabe dar. Der fortschreitende Einzug von künstlicher Intelligenz (KI) in die bildgebenden Verfahren verspricht im Allgemeinen Fehldiagnosen zu minimieren, weniger Auffälligkeiten zu übersehen und Arbeitsprozesse zu beschleunigen. In dieser Studie sollte deshalb die Frage beantwortet werden, ob und in welchem Umfang sogenannte Convolutional Neural Networks (CNNs) die Befundung der PET/CT-Scans unterstützen können. Die Datengrundlage zum Training dieser Deep Learning Modelle bildeten 262 individuelle Untersuchungen, von denen 98 als Krank und 164 als Gesund klassifiziert wurden. Die Segmentierung und Annotation der Pathologien sowie der physiologisch erhöhten Traceraufnahme erfolgte bei allen Patienten der Gruppe Krank. Für eine unabhängige Testphase wurde außerdem ein zusätzlicher Datensatz aus 15 Patienten der Gruppe Gesund inklusive Segmentierungen erstellt. Um die Modelle mit möglichst vielen unterschiedlichen Ansätzen zu trainieren, wurden verschieden große Ausschnitte der Bilder erzeugt, die Anzahl der eingespeisten Schichten variiert und das CT mit unterschiedlichen Opazitäten über das PET gelegt. So entstanden für die Klassifikation 72 und für die Segmentierung 60 eigenständige Experimente. Das Training der Netzwerke erfolgte unter Verwendung der Gruppe Krank, welche aus technischen Gründen auf 76 Untersuchungen reduziert werden musste. Für jedes der Modelle wurde zur Bewertung der Performance der Mittelwert ± Standardabweichung der verwendeten Metriken aus fünf unterschiedlich initialisierten Durchläufen berechnet. In der ersten Versuchsreihe wurde mittels eines DenseNet121 die binäre Klassifikation der einzelnen transversalen Schichten als physiologisch oder pathologisch trainiert. Das beste Modell konnte dabei die Bilder mit einer Genauigkeit von 0,986 ± 0,029 korrekt einstufen. Das F-Maß betrug 0,985 ± 0,029, die Sensitivität 0,986 ± 0,029 und die Präzision 0,987 ± 0,025. An dem unabhängigen physiologischen Testdatensatz erzielten dieselben Modelle eine Genauigkeit von 0,916 ± 0,036. Da bei der Klassifikation keine Diagnose innerhalb der Schichten erfolgte, wurden im nächsten Schritt mit Hilfe desselben Datensatzes zwei getrennte auf U-Net basierende Netzwerke zur Segmentierung der Pathologien und der 85 Physiologien programmiert. Das leistungsstärkste Modell der Pathologien erreichte einen Dice-Koeffizienten (DSC) von 0,659 ± 0,016 und eine Hausdorff Distanz (HD) von 13,619 ± 2,624. Für die Physiologien ergaben sich mit einem DSC von 0,800 ± 0,023 und einer HD von 12,957 ± 1,737 deutlich bessere Werte, die allerdings durch den unabhängigen Testdatensatz nicht direkt bestätigt werden konnten. Der DSC lag hier maximal bei 0,522 ± 0,019 und die HD bei 27,883 ± 1,230. Somit ließ sich mit der verwendeten Methodik unter Berücksichtigung der Größe des verwendeten Datensatzes eine insgesamt starke Klassifikationsleistung nachweisen. Die Segmentierung innerhalb derselben Bilder erfordert hingegen, im Hinblick auf die Pathologien, eine zukünftige Steigerung der Untersuchungszahl. Die Physiologien wurden aufgrund besserer Reproduzierbarkeit und geringeren interindividuellen Unterschieden weniger von der kleinen Datenbasis beeinflusst. Die abweichenden Werte der zweiten Testphase weisen dennoch auf Leistungseinbußen aufgrund patientenspezifischer Variabilitäten hin. Die ursprüngliche Prämisse dieser Studie war die Entwicklung einer KI-gestützten Befundungssoftware für PET/CT-Untersuchungen. Nach Abschluss des Projektes erwies sich die angewendete Methodik, trotz relativ geringer Patientenzahl, als vielversprechend. Die Klassifikation der erhöhten Traceraufnahme in PET/CT-Bilder als physiologisch oder pathologisch zeigte bereits Potential für den Einzug in den klinischen Alltag. Vorher sollten die Modelle allerdings mehreren unabhängigen Tests unterzogen sowie in Folgestudien zusätzliche Trainingsdaten mit ergänzenden Informationen generiert werden. Dazu zählen beispielsweise die Anamnese, klinische Befunde und ergänzende Modalitäten. Die weiterführende organ- und pathologiespezifische Beurteilung der Bilder ist als Teil dieser Studie noch nicht umsetzbar gewesen. Dennoch soll die erfolgte Annotation der Segmentierungsmasken bereits für Folgeprojekte genutzt werden. Die Performance der Segmentierung wurde zudem zu stark durch die kleine Datenbasis beeinflusst, um der Individualität der Pathologien gerecht zu werden und diese bereits als klinisch einsetzbar einzustufen. Die Datenmenge sollte hierfür deutlich erhöht werden. Da dieser Arbeitsaufwand durch Einzelstudien kaum stemmbar sein wird, ist die kollaborative Zusammenarbeit mehrerer Institute sowie die Publikation eigener Datensätze in öffentlich zugängliche Datenbanken zu empfehlen. Dies könnte den wissenschaftlichen Fortschritt beschleunigen und der uneinheitlichen Methodik der bereits vorhandenen Literatur entgegenwirken.

Description

Faculties

Medizinische Fakultät

Institutions

UKU. Klinik für diagnostische und interventionelle Radiologie
UKU. Klinik für Nuklearmedizin

Citation

DFG Project uulm

EU Project THU

Other projects THU

License

CC BY 4.0 International

Is version of

Has version

Supplement to

Supplemented by

Has erratum

Erratum to

Has Part

Part of

DOI external

DOI external

Institutions

Periodical

Degree Program

DFG Project THU

item.page.thu.projectEU

item.page.thu.projectOther

Series

Keywords

Tumordiagnostik, PET/CT, 18F-Fluordesoxyglukose, FDG, Bildgebende Diagnostik, Künstliche Intelligenz, Deep learning, Positronen-Emissions-Tomografie, Computertomografie, Tumor, Diagnostik, Bildgebendes Verfahren, Artificial intelligence, Deep learning, Neoplasms; Diagnostic imaging, Tomography, Emission-computed, Tomography, X-ray computed, DDC 610 / Medicine & health