10 wichtige Verbesserungen der TruAI Technologie zur Optimierung der Bildanalyse in den Biowissenschaften

Manoel Veiga

Dr. Manoel Veiga

13. März 2025

Die TruAI Technologie ist ein leistungsstarkes KI-gestütztes Bildanalysewerkzeug für biowissenschaftliche und materialwissenschaftliche Software. Durch die Verwendung tiefer neuronaler Netze lassen sich KI-Modelle entwickeln, die auf spezifische Bildgebungsanwendungen zugeschnitten sind. Ein Beispiel ist die 2019 von Evident vorgestellte scanR High-Content Screening-Station; dasselbe Prinzip wurde in der Folgezeit auf weitere Produkte angewendet und erweitert.

Die TruAI Technologie läuft lokal auf einem PC und erfordert vom Bediener keine Codier- oder Programmierkenntnisse. Die entwickelten KI-Modelle sind Dateien, die problemlos zwischen den Analysepaketen von Evident ausgetauscht werden können, darunter scanR Analysis, cellSens Count and Measure, und VS200-Detect.

Die TruAI Technologie bietet Vorteile in drei wichtigen Anwendungsbereichen:

Dieser Blogartikel enthält einen Überblick über die Entwicklung der TruAI Technologie dieser Softwarepakete für die Biowissenschaften und ihre kontinuierlichen Verbesserungen während der letzten sechs Jahre.

  1. Flexible Toolbox (2019)

Die ersten Versionen der TruAI Technologie (scanR 2019 und cellSens 2020) enthielten eine flexible Toolbox zur Erstellung von KI-gestützten semantischen Segmentierungsmodellen in der Forschung.

Das Training eines KI-Modells beginnt damit, dass der Bediener die Ground Truth in den Bildern mit Annotationen versieht und dann die annotierten Bilder in eine Trainingsoberfläche lädt. Das Modell analysiert die annotierten Bilder und optimiert die Vorhersagen in einem iterativen Prozess anhand der Annotationen.

Wichtige Funktionen der frühen TruAI-Toolbox umfassen:

  1. Semantische Segmentierung (2019)

Trainierte KI-Modelle können dann auf neue Bilder (Inferenz) auf verschiedenen Evident Analysepaketen angewendet werden. Bei der semantischen Segmentierung erstellt das KI-Modell eine Pixelwahrscheinlichkeitskarte, die Pixel anzeigt, die mit hoher Wahrscheinlichkeit in den Vordergrund gehören. Für die endgültige Objekterkennung wird ein Schwellenwert für diese Wahrscheinlichkeitskarte festgelegt, gefolgt von klassischen Segmentierungsalgorithmen, wie der Wasserscheidentransformation.

A collage of images of red and green dots Description automatically generated Abbildung 1. a) Im ersten Schritt erkennt die KI Zellkerne und hebt sie entsprechend der Wahrscheinlichkeitsintensität (rot) hervor. b) Im zweiten Schritt wird die Wahrscheinlichkeitskarte anhand von Schwellenwerten für die Wahrscheinlichkeitsintensität segmentiert. c) Im letzten Schritt werden die Objekte aufgeteilt.
  1. Klassifizierung (2021)

Es ist möglich, alle Objekte in einem Bild mit ein und demselben KI-Modell zu segmentieren, wobei die Klassifizierung auf den gemessenen Parametern dieser Objekte, wie Fläche und Fluoreszenzintensität, basiert.

Alternativ können auf ein Bild mehrere KI-Modelle angewendet werden, um eine Klassifizierung ohne Extraktion von Messparametern vorzunehmen: zum Beispiel ein KI-Modell, das nur Zellen im Zustand 1 erkennt, und ein anderes, das nur Zellen im Zustand 2 erkennt.

Beide Funktionen waren bereits in den ersten Versionen der TruAI Technologie möglich.

Klassifizierungsmodelle beziehen sich jedoch speziell auf die Fähigkeit eines einzelnen KI-Modells, mehrere Gruppen im Vordergrund vom Hintergrund zu unterscheiden. Die endgültige Objekterkennung erfolgt durch Anwendung eines Schwellenwerts auf die zwei oder mehr Wahrscheinlichkeiten, die von dem einzelnen KI-Modell berechnet werden.

Zur Gewährleistung der Flexibilität kann der Anwender während des Trainings entscheiden, ob sich die Gruppen überschneiden dürfen.

Der Hauptvorteil der Verwendung von Klassifizierungsmodellen besteht in der Vereinfachung der Analyse, wenn viele Gruppen erkannt werden oder wenn es keine eindeutig messbaren Merkmale für die Klassifizierung gibt.

A collage of images of cells Description automatically generated

Abbildung 2: Zellkompartiment-Lokalisation fluoreszenzmarkierter Proteine in Hefezellen. Ein einzelnes TruAI-Modell kann die Zellen entsprechend der Proteinlokalisierung klassifizieren. Erfahren Sie mehr in unserem Anwendungsbeispiel Lokalisierung von Hefeproteinen – klassifiziert mit der TruAI Deep-Learning Technologie.

A diagram of a cell model Description automatically generated

Abbildung 3: Die TruAI Technologie ermöglicht die Erstellung von KI-Klassifizierungsmodellen in Anwendungen, in denen eine Klassifizierung für das menschliche Auge schwierig ist, z. B. bei der Auswahl hochwertiger Eizellen aus ungefärbten Proben für die In-vitro-Fertilisation. Erfahren Sie mehr darüber in diesem Artikel.

  1. Instanzsegmentierung (2021)

Im Gegensatz zu semantischen KI-Segmentierungsmodellen können Instanzensegmentierungsmodelle die endgültigen Objekte direkt in einem Schritt segmentieren, sodass keine Schwellenwerte für Wahrscheinlichkeitskarten und keine zusätzliche Segmentierung erforderlich sind.

Diese Methode vereinfacht den Arbeitsablauf (vgl. Abbildung 4 und Abbildung 1) und ist besonders nützlich, wenn klassische Segmentierungsalgorithmen Schwierigkeiten haben, die erkannten Objekte zu trennen, z. B. bei hoher Zelldichte.

A comparison of a microscope image Description automatically generated with medium confidence

Abbildung 4: Ein Einzelinstanz-Segmentierungsmodell kann in einem Schritt die zum Vordergrund gehörenden Pixel identifizieren und die Grenzen der endgültigen Objekte (Kerne) bestimmen.

A close-up of a microscope Description automatically generated

Abbildung 5: Instanzsegmentierungsmodelle sind besonders nützlich, wenn eine hohe Konfluenz nicht-runder Objekte vorliegt. In diesem Beispiel verwendet ein einziges KI-Modell zwei Eingangskanäle (blau und grau), um überlappende Objekte als Zellkerne oder Zellen zu klassifizieren und ihre Grenzen zu definieren.

  1. Skalierung (2021, 2023)

KI-Modelle haben ein begrenztes Sehfeld, in der Regel nur einige hundert Pixel, was sie empfindlich in Bezug auf die Pixelauflösung macht. Skalierungstechniken minimieren diese Einschränkungen.

Skalierung während des Trainings (2021)

Wenn Objekte das Sehfeld des KI-Modells überschreiten, kann das Modell möglicherweise nicht die kompletten Objektgrenzen erkennen, was zu einer ineffizienten Erkennung führt. Um dieses Problem zu lösen, kann das Training einen Skalierungsfaktor enthalten, der das Sehfeld des Modells effektiv erweitert. Dieser Trainingsansatz ist besonders nützlich für die Erkennung kompletter großer Objekte, wie etwa von Zebrafischen, Organoiden oder großen Regionen in Gewebeproben.

A screenshot of a computer Description automatically generated

Abbildung 6: Training zur Erkennung großer Organoide bei der Transmission in einer Mikrotiterplatte. Das Sehfeld des KI-Modells ist grün dargestellt. Links: Training ohne Skalierung führt selbst nach Tausenden von Iterationen zu einem nicht zufriedenstellenden Ergebnis. Rechts: Training mit 25 % Skalierung erzielt ein qualitativ hochwertiges Ergebnis in nur wenigen hundert Iterationen.

Skalierung während der Inferenz (2023)

Wird ein KI-Modell mit einem 10fach-Objektiv trainiert, aber auf ein Bild angewendet, das mit einem 40fach-Objektiv aufgenommen wurde, ist die Erkennung ineffizient. Die Skalierungsfunktion der TruAI Technologie ermöglicht es dem Anwender, die Bildauflösung an die Auflösung des KI-Modells anzupassen, um ein optimales Ergebnis zu erzielen. Wenn Instanzensegmentierungsmodelle zu einer Über-Segmentierung führen, verbessert eine verringerte Auflösung häufig die Erkennung kompletter Objekte.

A green circle with a red circle Description automatically generated

Abbildung 7. a) Fluoreszenzbild von Lebendzellen. b) Ein KI-Modell zur Instanzensegmentierung führt zu Über-Segmentierung einiger Zellen. c) Dasselbe Instanzensegmentierungsmodell mit einer Skalierung von 50 % führt zu einer genauen Zellerkennung ohne Über-Segmentierung.

  1. Live-KI (2021)

Live-KI ist eine Funktion der cellSens Software, die KI-Modelle in Echtzeit anwendet, ohne dass eine Bildaufnahme erforderlich ist. Die KI-Wahrscheinlichkeit bzw. die endgültige Objektsegmentierung wird direkt auf dem Live-Bild angezeigt. Dies ermöglicht schnelle Qualitätskontrollen, schnelles Zählen bei Quantifizierungsanwendungen und eine einfache Zielidentifizierung bei Verfahren, die eine Probenauswahl erfordern (z. B. eines besten Kandidaten bei der Zell-, Spermien- oder Eizellenselektion).

https://adobeassets.evidentscientific.com/content/dam/mis/truai/Live-AI.mp4

Abbildung 8: Inferenz-Workflow von Live-KI. Ein Instanzsegmentierungsmodell mit Klassifizierungsfunktionen wird auf eine Wellplatte angewendet. Beim Navigieren durch die Well-Platte wird die Wahrscheinlichkeitskarte und die Zählung der drei Zellklassen unten links im Live-Bild angezeigt.

  1. Vortrainierte Modelle (2021–2024)

Für Anwender, die aus Zeitmangel KI-Modelle nicht selbst trainieren können, hat Evident vortrainierte Modelle eingeführt, die sofort einsetzbar sind. In den folgenden Analyse-Softwarepaketen sind verschiedene Arten von vortrainierten KI-Modellen verfügbar:

Zudem können die vortrainierten Modelle als Ausgangspunkt für Annotationen verwendet werden. Die Vorhersagen der trainierten Modelle können in Annotationen umgewandelt und vom Anwender korrigiert werden. Dieser Arbeitsablauf eignet sich besonders gut in Kombination mit dem interaktiven Training (siehe Abschnitt 9).

A close-up of a colorful pattern Description automatically generated

Abbildung 9: Das vortrainierte IHC-Klassifizierungsmodell erkennt das Zentrum der Masse in braunen und blauen Zellen. Bei Verwendung mit in cellSens Count and Measure oder VS200-Detect wird die Gesamtzellanzahl zusammen mit dem prozentualen Anteil der einzelnen Zelltypen ausgegeben.

Mit TryuAI-Rauschunterdrückung verarbeitet (unten)

Picture

Picture

Mit TryuAI-Rauschunterdrückung verarbeitet (unten)

Picture

Picture

Abbildung 10: Bilder des Resonanzscanners, aufgenommen mit einem konfokalen FLUOVIEW FV4000 Mikroskop (links) und verbessert mit TruAI-Rauschunterdrückung (rechts). Mit der Resonanzscanner-Bildgebung wird die Zelldynamik bei hoher Geschwindigkeit und geringer Schädigung effektiv erfasst. Dies hat in der Regel jedoch ein geringeres Signal-Rausch-Verhältnis zur Folge. Die TruAI-Rauschunterdrückung verbessert diese Bilder, ohne die zeitliche Auflösung zu beeinträchtigen, indem sie vortrainierte KI-Modelle auf der Grundlage der Rauschmuster des SilVIR Detektors verwendet. Diese vortrainierten TruAI-Rauschunterdrückungsalgorithmen lassen sich in Echtzeit und während der Nachbearbeitung anwenden.

  1. Automatische Probendetektion (2022)

KI-Modelle können in Erfassungsabläufe zur automatischen Probenerkennung integriert werden, um Zeit beim Scannen des gesamten Gewebes, bei der Erkennung bestimmter Regionen oder bei der Identifizierung seltener Ereignisse zu sparen. Der Arbeitsablauf beginnt in der Regel mit einem Übersichtsscan bei geringer Vergrößerung, gefolgt von einem detaillierten Scan bei größerer Vergrößerung mit mehr Kanälen, zusätzlichen Z-Schichten oder sogar einem Modalitätswechsel von Weitfeld- zu konfokaler Spinning-Disk-Mikroskopie.

https://adobeassets.evidentscientific.com/content/dam/video/video/library/cellSens_Macro_Micro_Video_MASTER_rev3.mp4

Abbildung 11: Das Video zeigt den Ablauf der Makro-zu-Mikro-Bildgebung in der cellSens Software für ein Weitfeldmikroskop.

  1. Interaktives Training (2023)

2023 wurde ein neuer interaktiver Arbeitsablauf zum Trainieren von KI-Modellen eingeführt. Dieser Arbeitsablauf ermöglicht es dem Anwender, Bilder interaktiv mit Annotationen zu versehen, das Modell zu trainieren, die KI-Vorhersagen zu überprüfen, Korrekturen vorzunehmen und diese Korrekturen als neue Kennzeichnungen für weiteres Training zu verwenden. Neue Bilder können dann weiter mit Annotationen versehen und das Modell iterativ verfeinert werden. Dieser Ansatz ermöglicht die schnelle Entwicklung von KI-Modellen für direkte Anwendungen.

A diagram of a diagram of a diagram Description automatically generated with medium confidence

Abbildung 12: Beispiel für den interaktiven Trainingsablauf.

  1. Bildoptimierung (2023)

KI-Modelle können für Segmentierungsaufgaben und für Bildverarbeitungsvorgänge trainiert werden. Beispielsweise kann ein Modell trainiert werden, um Entrauschungs- oder Verarbeitungstechniken wie Dekonvolution durchzuführen.

Da das Training kanalübergreifend erfolgt, ist die Generierung von Ground-Truth-Daten für das Training einfach. Bei einem Rauschunterdrückungsmodell braucht es dafür beispielsweise nur zwei Kanäle: einen Kanal mit einem hohen Signal-Rausch-Verhältnis (als Ground Truth) und einen anderen Kanal mit kurzer Belichtung und Schwachlichtanregung.

Ein entscheidender Vorteil dieses Ansatzes besteht darin, dass Wissenschaftler KI-Modelle anhand eigener Proben trainieren können, um eine optimale Leistung für spezifischen Zielstrukturen zu gewährleisten und gleichzeitig Artefakte wie falsche, nicht erklärbare Strukturen zu minimieren.

Inserting image..., Picture, Picture

Picture, Picture

Abbildung 13: TruAI-Modelle können für Bildverarbeitungsaufgaben wie Rauschunterdrückung trainiert werden (unten).

Kontinuierliche Weiterentwicklung der TruAI Technologie

In den letzten sechs Jahren wurde die TruAI Technologie kontinuierlich weiterentwickelt, insbesondere in puncto Segmentierung, Klassifizierung, Skalierung, Live-Analyse und Bildverbesserung. Mit ihrer Flexibilität, Bedienerfreundlichkeit und Integration in die Software-Plattformen von Evident ist sie ein leistungsstarkes Werkzeug für die KI-gesteuerte Bildanalyse in biowissenschaftlichen Anwendungen.

Um mehr darüber zu erfahren, wie TruAI Modelle in der Praxis funktionieren, kontaktieren Sie unser Mikroskopieexpertenteam für eine personalisierte Produktvorführung.

Vorgestellte Produkte

scanR High-Content Screening Station

Mehr erfahren

SLIDEVIEW VS200 Research Slide Scanner

Mehr erfahren

Konfokales FLUOVIEW FV4000 Laser-Scanning-Mikroskop

Mehr erfahren

cellSens Bildanalysesoftware

Mehr erfahren

Manoel Veiga

Dr. Manoel Veiga

Application Specialist, Life Science Research

Manoel Veiga promovierte in physikalischer Chemie an der Universität von Santiago de Compostela, Spanien. Nach Postdoc-Aufenthalten an der Complutense Universität Madrid und der Universität Münster unterstützte er weltweit Fachleute in den Bereichen Fluoreszenz-Lebensdauer-Imaging-Mikroskopie (FLIM) und zeitaufgelöste Spektroskopie. Seit 2017 bringt er seine Erfahrung in das EVIDENT Technology Center Europe ein, wo er als globaler Anwendungsspezialist mit Schwerpunkt auf High-Content-Analyse und Deep Learning tätig ist.