EN
Logo Leibniz IPHT
EN
Logo Leibniz IPHT

Künstliche Intelligenz

Nach R.E. Bellman (1978) ist Künstliche Intelligenz (KI) die "[Automatisierung von] Aktivitäten, die wir mit dem menschlichen Denken verbinden, so zum Beispiel Aktivitäten wie Entscheidungsfindung, Problemlösung, Lernen [...]". Mit dieser allgemeinen Definition besitzt der wissenschaftliche Bereich der künstlichen Intelligenz griechische, antike Wurzeln. Aber erst in den 1950er Jahren wurden die ersten funktionierenden KI-Programme entwickelt und aus dieser Zeit stammt auch der Begriff Künstliche Intelligenz. Ein wichtiges Teilgebiet der KI ist das Maschinelle Lernen (ML). Die ersten ML-Methoden wurden aber schon um 1900 im Bereich der Statistik entwickelt.

Aber was ist "Maschinelles Lernen (ML)"? ML ist die Wissenschaft, welche Algorithmen und statistische/mathematische Methoden erforscht, entwickelt und verwendet, die es Computersystemen ermöglichen, ihre Leistung bei der Lösung einer bestimmten Aufgabe zu verbessern. Maschinelle Lernmethoden konstruieren entweder explizit oder implizit ein statistisch-mathematisches Modell der Daten basierend auf einem Beispieldatensatz, welcher als Trainingsdaten bezeichnet wird. Auf der Grundlage des statistisch-mathematischen Modells können ML-Methoden Vorhersagen erstellen oder Entscheidungen treffen, ohne explizit dafür programmiert worden zu sein. Dies ist die verbale Version einer oft zitierten ML Definition von Tom M. Mitchell aus dem Jahr 1997. ML-Techniken werden in einem breiten Anwendungsspektrum eingesetzt, welches von der Spam-Erkennung in E-Mail-Konten über die Bildverarbeitung bis hin zur Datenanalyse spektroskopischer Daten reicht. Neben dem klassischen maschinellen Lernen, ist das Deep Learning eine Unterkategorie von maschinellen Lernmethoden, die seit 2006 entwickelt wurden und seit 2010 sehr häufig angewendet werden. Diese Verfahren bestehen aus mehreren Schichten nichtlinearer Verarbeitungseinheiten, die ein hohes Maß an Nichtlinearität aufweisen. Konzeptionell stellen die Deep Learning Methoden eine hochparametrisierte Version von ML dar. Der Unterschied zwischen klassischem maschinellem Lernen und Deep Learning wird im Folgenden beschrieben.

Bevor aber näher auf den Unterschied der ML Methoden eingegangen wird, soll zuerst noch ein anschauliches Bespiel die Arbeitsweise von ML illustrieren. Wie zuvor erwähnt, wird das maschinelle Lernen von Tom M. Mitchell (1997) definiert als "ein Computerprogramm das aus Erfahrung E in Bezug auf eine Aufgabe T lernen kann und damit seine Leistung bei der Aufgabe T gemessen mit dem Leistungsmaß P verbessert“. Eine häufig getestete Aufgabe des maschinellen Lernens lautet wie folgt: Ein Computerprogramm soll handgeschriebene Ziffern klassifizieren. Als Eingabe erhält das Modell Bilder mit einer Größe von 28x28 Pixel und die Ausgabe ist eine Ziffer zwischen 0 und 9. Diese Aufgabe (T) ist oben visualisiert und repräsentiert ein anschauliches Beispiel für die Arbeitsweise von ML-Methoden zur Bilderkennung. Die Erfahrung E ist die bekannte Zuordnung der Bilder zu den Ziffern in den Trainingsdaten. Das Leistungsmaß ist eine gewisse Fehlerquote zwischen der ML-Vorhersage und der Grundwahrheit. Wir verwenden nun ML- und Deep-Learning-Methoden, um den Unterschied zwischen den biomedizinischen Eigenschaften von Proben aufzuklären, welche durch Spektral- oder Bildmessungen charakterisiert worden sind.

Publikationen

  • P. Pradhan; T. Meyer; M. Vieth; A. Stallmach; M. Waldner; M. Schmitt; J. Popp & T. Bocklitz Semantic segmentation of Non-Linear Multimodal images for disease grading of Inflammatory Bowel Disease - A SegNet-based application International Conference on Pattern Recognition Applications and Methods, 2019, accepted
  • E. Rodner; T. Bocklitz; F. von Eggeling; G. Ernst; O. Chernavskaia; J. Popp; J. Denzler & O. Guntinas-Lichius Fully convolutional networks in multimodal nonlinear microscopy images for automated detection of head and neck carcinoma Head & Neck, 2018, accepted
  • S. Guo; S. Pfeifenbring; T. Meyer; G. Ernst; F. von Eggeling; V. Maio; D. Massi; R. Cicchi; F. S. Pavone; J. Popp & T. Bocklitz Multimodal Image Analysis in Tissue Diagnostics for Skin Melanoma J. Chemom., 2018, 32, e2963
  • O. Ryabchykov; A. Ramoji; T. Bocklitz; M. Förster; S. Hagel; C. Kroegel; M. Bauer; U. Neugebauer & J. Popp Leukocyte subtypes classification by means of image processing 2016 Federated Conference on Computer Science and Information Systems (FedCSIS), 2016, 309-316
  • O. Chernavskaia; S. Heuke; M. Vieth; O. Friedrich; S. Schürmann; R. Atreya; A. Stallmach; M. F. Neurath; M. Waldner; I. Petersen; M. Schmitt; T. Bocklitz & J. Popp Beyond endoscopic assessment in inflammatory bowel disease: real-time histology of disease activity by non-linear multimodal imaging Scientific Reports, 2016, 6, 29239
  • S. Heuke; O. Chernavskaia; T. Bocklitz; F. B. Legesse; T. Meyer; D. Akimov; O. Dirsch; G. Ernst; F. von Eggeling; I. Petersen; O. Guntinas-Lichius; M. Schmitt & J. Popp Multimodal nonlinear microscopic investigations on head and neck squamous cell carcinoma - toward surgery assisting frozen section analysis Head & Neck, 2016, 38, 1545-1552
  • T. Bocklitz; E. Kämmer; S. Stöckel; D. Cialla-May; K. Weber; R. Zell; V. Deckert & J. Popp Single virus detection by means of atomic force microscopy in combination with advanced image analysis J. Struct. Biol., 2014, 188, 30-38

Patente

  • O. Chernavskaia; T. Meyer; T. Bocklitz & J. Popp Property measurement on a biological tissue sample 2015

Projekte

  • Whole Blood Imaging (BLOODi), Subproject: Automatic quantification of cell morphology of white blood cells (BLOODi, Leibniz Association, 2016-2019)
    In diesem Projekt untersuchen wir die Möglichkeit, die Zellmorphologie der weißen Blutkörperchen als Marker für eine Infektion zu nutzen. Das Teilprojekt beschäftigt sich mit der Quantifizierung der morphologischen Veränderungen durch maschinelles Lernen.
  • Multimodal pattern analysis to characterize inflammation in patients with ulcerative colitis - Imaging disease activity and predicting clinical remission (BO4700/1-1, DFG, 2017-2020)
    In diesem Projekt werden Raman-spektroskopische und multimodale Bilddaten verwendet, um die klinische Remission bei Patienten mit Colitis ulcerosa vorherzusagen. Außerdem untersuchen wir die erforderlichen maschinellen Lernwerkzeuge für diese Aufgabe.
  • Endoscopic panoramic imaging and fiber optic spectroscopy in urology for multi-dimensional diagnostics (Uro-MDD, BMBF, 2017-2020)
    Ziel des Projekts ist es, eine dreidimensionale multimodale Darstellung der Blase zu untersuchen. Der resultierende Demonstrator ermöglicht eine mehrdimensionale Darstellung der Blase auf Basis eines im Zystoskop integrierten Stereosensors. Wir untersuchen Datenfusionsalgorithmen, um die verschiedenen Messdaten zu kombinieren und analysieren sie mittels maschinellen Lernens.
  • Function-determining Excited-State Dynamics in Transition-Metal Complex-Based Photodrugs in a Cellular Environment (BO4700/4-1, DFG, 2019-2022)
    Es werden maschinelle Lernmethoden entwickelt, um photoinduzierte Eigenschaften von Modellsubstanzen in zellulären Umgebungen auf der Grundlage der transienten Absorptionsmikroskopie zu untersuchen.

Klassisches maschinelles Lernen

Im klassischen maschinellen Lernen (CML) erfolgt die Verknüpfung zwischen Bildern und Metadaten, wie zum Beispiel Klassenlabels, in einem zweistufigen Verfahren. Im ersten Schritt werden Bildmerkmale aus den Bildern extrahiert. Die konkrete Art von Bildmerkmalen werden von einem Forscher mit seinem Wissen und seiner Intuition über die vorliegenden Proben und Daten erstellt. Daher ist für die Extraktion dieser Merkmale ein menschliches Eingreifen erforderlich. Nach der Extraktion dieser Merkmale wird der entstandene (multivariate) Datensatz mit Hilfe einfacher Klassifikationsmodelle, wie der linearen Diskriminanzanalyse (LDA), analysiert.

Dieses Verfahren ist in der obigen Abbildung skizziert. Ein multimodales Bild (links) wird als Eingangsbild verwendet und die gewünschte Ausgabe ist ein Bild mit drei Graustufen: eine Graustufe zeigt die Hintergrundpixel an und die anderen beiden Graustufen repräsentieren unterschiedliche Gewebeklassen. Daher ist die Aufgabe des maschinellen Lernens, die Übersetzung zwischen beiden Bildern durchzuführen und wird als semantische Segmentierung bezeichnet. Nachdem die Bildmerkmale extrahiert wurden, wird ein Datensatz zum Trainieren des Klassifikationsmodells verwendet. In diesem Trainingsdatensatz ist zusammen mit den multimodalen Bildern auch die tatsächlichen Gewebeklassen bekannt.

In der obigen Abbildung ist ein klassisches maschinelles Lernverfahren für die Studie von Heuke et al. (2016) visualisiert. Die multimodalen Bilder (linke Seite) werden verwendet, um statistische Momente des Histogramms lokal zu berechnen, welche die Textur des multimodalen Bildes charakterisieren. In einem Bereich um einen zentralen Pixel herum wird das Histogramm der Bildwerte berechnet. Basierend auf diesem Histogramm werden statistische Momente erster Ordnung oder Verrechnungen von diesen Momenten (zum Beispiel: Mittelwert, Standardabweichung und Entropie) extrahiert. Auf diese Weise werden Merkmalsbilder (mittlerer Teil der Figur) erzeugt, die anschließend zur Vorhersage verwendet werden, welche Gewebetypen am zentralen Pixel vorhanden sind. Das Ergebnis sind Falschfarbenbilder, wie rechts in der obigen Abbildung dargestellt, wobei Grün gesundes Epithel und Rot krebsartige Bereiche repräsentieren.

Deep Learning 

Deep Learning ist eine spezielle Version des maschinellen Lernens, welche von der Arbeitsweise des menschlichen Gehirns bei der Verarbeitung von visuellen Reizen oder anderen Arten von Reizen inspiriert ist. Das Deep Learning für die semantische Segmentierung ist in der obigen Abbildung dargestellt. Die Haupteigenschaft des Deep Learning ist, dass die Merkmalsextraktion durch die Methode implizit in Kombination mit dem Aufbau eines Klassifikationsmodells erfolgt. Dies ist der Hauptvorteil, da kein menschliches Handeln benötigt wird, um eine geeignete Merkmalsextraktion zu konstruieren. Der Nachteil ist, dass diese Modelle nicht interpretiert werden können und das Modell viele Parameter besitzt (typischerweise Millionen von Parametern). Dennoch bieten diese Modelle ein einzigartiges Potenzial um viele maschinelle Lernaufgaben zu lösen, insbesondere wenn eine große Datenmenge vorhanden ist.

In der obigen Abbildung ist eine spezielles Deep Learning Modell, ein neuronales Faltungsnetzwerk (CN24-Architektur, vortrainiert mit dem ILSVRC2012-Datensatz) visualisiert. Es funktioniert ähnlich der Verarbeitung eines visuellen Inputs durch das menschliche Gehirn, indem es eine große Anzahl von nachfolgenden Faltungsoperationen durchführt. Daher besteht der Hauptteil dieser Netzwerke aus Faltungsfiltern, die anschließend zum Erzeugen von Merkmalsbildern verwendet werden. Anschließend werden diese in Klassenvorhersagen umgewandelt. Auch hier wird mit diesem Netzwerk eine lokale Vorhersage von Gewebearten auf Basis multimodaler Bilder erzeugt, die rechts in der Abbildung zu sehen ist. Die Deep Learning Technik kann als nichtlineares Übersetzungswerkzeug von den multimodalen Bildern (links) in die Falschfarbenbilder, die die Gewebearten charakterisieren (rechts), angesehen werden.

Logo Leibniz-Gemeinschaft