Dix améliorations clés de la technologie TruAI™ pour faire avancer l’analyse d’image en sciences de la vie

Manoel Veiga, Picture

Manoel Veiga

13 mars 2025

La technologie TruAI est un puissant outil d’analyse d’image piloté par l’IA et destiné aux logiciels des sciences de la vie et des matériaux. Grâce à des réseaux neuronaux profonds, elle permet le développement de modèles d’IA adaptés à des applications d’imagerie spécifiques. Introduite par Evident en 2019 avec la station de criblage à haut contenu scanR, elle a ensuite été étendue à d’autres produits.

La technologie TruAI fonctionne localement sur un PC et ne nécessite aucune compétence en codage ou en programmation de la part des utilisateurs. Les modèles d’IA développés sont des fichiers facilement échangeables entre les solutions logicielles d’analyse d’Evident, telles que scanR Analysis, cellSens Count and Measure et VS200-Detect.

La technologie TruAI procure des avantages dans trois domaines d’application principaux :

Dans cet article, nous passons en revue l’évolution de la technologie TruAI au sein de ces logiciels des sciences de la vie en mettant en lumière les améliorations continues qu’elle a connues au cours des six dernières années.

  1. Boîte à outils polyvalente (2019)

Les premières versions de la technologie TruAI, scanR en 2019 et cellSens en 2020, ont été conçues pour offrir aux chercheurs une boîte à outils polyvalente permettant de créer des modèles de segmentation sémantique fondés sur l’IA.

L’entraînement d’un modèle d’IA débute par l’annotation des images par les utilisateurs pour marquer la vérité de terrain, puis par le chargement de ces images annotées dans une interface d’entraînement. Le modèle analyse ensuite les images annotées, optimisant ses prédictions en fonction des annotations au cours d’un processus itératif.

Les principales fonctionnalités de la première boîte à outils TruAI comprenaient ce qui suit :

  1. Segmentation sémantique (2019)

Une fois entraînés, les modèles d’IA peuvent être appliqués à de nouvelles images (inférence) au sein des différents logiciels d’analyse d’Evident. Dans la segmentation sémantique, le modèle d’IA génère une carte de probabilité des pixels indiquant ceux ayant une forte probabilité d’appartenir au premier plan. Pour la détection finale des objets, un seuil est appliqué à cette carte de probabilité, suivi d’algorithmes de séparation classiques tels que la segmentation par ligne de partage des eaux.

A collage of images of red and green dots Description automatically generated Figure 1 – a) À la première étape, l’IA détecte les noyaux et les met en évidence avec l’intensité de probabilité (en rouge). b) À la deuxième étape, la carte de probabilité est segmentée par le seuillage de l’intensité de probabilité. c) À la dernière étape, les objets sont séparés.
  1. Classification (2021)

Un seul modèle d’IA peut segmenter tous les objets d’une image, avec une classification basée sur les paramètres mesurés de ces objets, tels que la surface et l’intensité de fluorescence.

Ou bien, plusieurs modèles d’IA peuvent être appliqués à la même image pour effectuer la classification sans extraire les paramètres de mesure, par exemple, un modèle d’IA détectant uniquement les cellules en état 1 et un autre ne détectant que celles en état 2.

Ces deux capacités étaient déjà présentes dans les premières versions de la technologie TruAI.

Cependant, un modèle de classification désigne spécifiquement la capacité d’un modèle d’IA unique à différencier de l’arrière-plan de multiples classes d’objets qui se trouvent à l’avant-plan. La détection finale des objets s’effectue en appliquant un seuil aux deux ou plusieurs probabilités générées par le modèle d’IA unique.

Pour conserver de la flexibilité, les utilisateurs peuvent décider, lors de la phase d’entraînement, si les classes peuvent se chevaucher.

L’avantage principal de l’utilisation des modèles de classification est de simplifier l’analyse lors de la détection de nombreuses classes ou lorsqu’il n’existe pas de caractéristiques mesurables claires pour effectuer la classification.

A collage of images of cells Description automatically generated

Figure 2 – Localisation des protéines marquées par fluorescence dans des compartiments cellulaires de levure. Un seul modèle TruAI permet de classifier les cellules en fonction de la localisation des protéines. Pour en savoir plus, consultez notre note d’application intitulée « Classification de la localisation des protéines dans la levure à l’aide de la technologie d’apprentissage profond TruAI™ ».

A diagram of a cell model Description automatically generated

Figure 3 – La technologie TruAI permet de créer des modèles d’IA de classification dans des situations où la classification est difficile pour l’œil humain, comme lors de la sélection d’ovocytes de haute qualité dans des échantillons non colorés pour la fécondation in vitro. Apprenez-en plus dans cet article.

  1. Segmentation par instance

Contrairement aux modèles d’IA de segmentation sémantique, les modèles de segmentation par instance peuvent segmenter directement les objets finaux en une seule étape, éliminant ainsi le besoin de seuillage de la carte de probabilité et de fractionnement supplémentaire.

Cette méthode simplifie le processus de travail (comparez la figure 4 et la figure 1) et est particulièrement utile dans les cas où les algorithmes de segmentation classiques ont du mal à séparer les objets détectés, par exemple lorsque la densité cellulaire est élevée.

A comparison of a microscope image Description automatically generated with medium confidence

Figure 4 – Un modèle de segmentation par instance unique peut identifier les pixels appartenant au premier plan et déterminer les limites des objets finaux (noyaux) en une seule étape.

A close-up of a microscope Description automatically generated

Figure 5 – Les modèles de segmentation par instance sont particulièrement utiles dans les scénarios de haute confluence impliquant des objets non circulaires. Dans cet exemple, un modèle d’IA unique utilise deux canaux d’entrée (bleu et gris) pour classer en tant que noyaux ou cellules les objets superposés tout en définissant leurs limites.

  1. Mise à l’échelle (2021, 2023)

Les modèles d’IA ont un champ de vision limité, généralement à quelques centaines de pixels, ce qui les rend sensibles à la résolution en pixels. Les techniques de mise à l’échelle réduisent ces limitations.

Mise à l’échelle pendant l’entraînement (2021)

Lorsque les objets dépassent le champ de vision du modèle d’IA, celui-ci peut ne pas reconnaître les bordures complètes des objets, ce qui entraîne une détection inefficace. Pour remédier à cela, l’entraînement peut intégrer un facteur de mise à l’échelle qui permet d’agrandir effectivement le champ de vision du modèle. Cette approche d’entraînement est particulièrement utile pour détecter des objets de grande taille, tels que des poissons-zèbres, des organoïdes ou de vastes zones dans des échantillons de tissus.

A screenshot of a computer Description automatically generated

Figure 6 – Entraînement à la détection de grands organoïdes en lumière transmise dans une plaque multipuits. Le champ de vision du modèle d’IA est indiqué en vert. À gauche : L’entraînement sans mise à l’échelle donne des résultats médiocres, même après des milliers d’itérations. À droite : L’entraînement avec une mise à l’échelle de 25 % permet d’obtenir des résultats de haute qualité en seulement quelques centaines d’itérations.

Mise à l’échelle pendant l’inférence (2023)

Si un modèle d’IA est entraîné avec un objectif 10X, mais appliqué à une image prise avec un objectif 40X, la détection sera inefficace. La fonction de mise à l’échelle de la technologie TruAI permet aux utilisateurs d’adapter la résolution de l’image à celle du modèle d’IA pour obtenir des performances optimales. De plus, lorsque les modèles de segmentation par instance provoquent un fractionnement excessif, la réduction de la résolution améliore souvent la détection d’objets entiers.

A green circle with a red circle Description automatically generated

Figure 7 – a) Image de fluorescence de cellules vivantes. b) Un modèle d’IA de segmentation par instance provoque un fractionnement excessif de certaines cellules. c) Le même modèle de segmentation par instance appliqué avec une mise à l’échelle de 50 % permet une détection précise des cellules sans fractionnement excessif.

  1. IA en temps réel (2021)

L’IA en temps réel est une fonction du logiciel cellSens qui applique des modèles d’IA en temps réel sans nécessiter d’acquisition d’images. La probabilité de l’IA, ou la segmentation finale des objets, est affichée directement sur l’image en temps réel, ce qui permet des contrôles qualité rapides, un comptage rapide dans les applications de quantification et une identification facile des cibles dans les procédures nécessitant une sélection d’échantillons (comme le meilleur candidat pour la sélection de cellules, de spermatozoïdes ou d’ovocytes).

https://adobeassets.evidentscientific.com/content/dam/mis/truai/Live-AI.mp4

Figure 8 – Processus d’inférence de l’IA en temps réel. Un modèle de segmentation par instance avec des capacités de classification est appliqué à une plaque multipuits. Lorsque l’utilisateur navigue dans la plaque, la carte de probabilité et le comptage des trois classes de cellules sont affichés dans le coin inférieur gauche de l’image en temps réel.

  1. Modèles pré-entraînés (2021–2024)

Pour les utilisateurs qui n’ont pas le temps d’entraîner leurs propres modèles d’IA, Evident propose des modèles pré-entraînés prêts à l’emploi. Différents types de modèles d’IA pré-entraînés sont disponibles dans les logiciels d’analyse suivants :

De plus, les modèles pré-entraînés peuvent être utilisés comme point de départ pour les annotations. Les prédictions des modèles pré-entraînés peuvent être converties en annotations, et les utilisateurs peuvent y appliquer des corrections. Ce processus fonctionne particulièrement bien en combinaison avec l’entraînement interactif (voir la section 9).

A close-up of a colorful pattern Description automatically generated

Figure 9 – Le modèle de classification par IHC pré-entraîné détecte le centre de masse dans les cellules brunes et les cellules bleues. Lorsque ce modèle est utilisé avec les solutions cellSens Count and Measure ou VS200-Detect, on obtient la numération de l’ensemble des cellules ainsi que le pourcentage de chaque type de cellule.

Traité avec la réduction du bruit TruAI (en bas)

Picture, Picture, Picture

Picture, Picture, Picture

Traité avec la réduction du bruit TruAI (en bas)

Picture, Picture, Picture

Picture, Picture, Picture

Figure 10 – Images acquises par scanner résonnant au moyen d’un microscope confocal FLUOVIEW FV4000 (côté gauche de chaque image) et améliorées à l’aide de la technologie de réduction du bruit TruAI (côté droit de chaque image). L’imagerie par scanner résonnant capture efficacement la dynamique cellulaire à grande vitesse avec peu de dommages. Cependant, cela se fait généralement au prix d’un rapport signal sur bruit plus faible. La réduction du bruit TruAI améliore ces images sans compromettre la résolution temporelle en utilisant des modèles d’IA pré-entraînés basés sur les motifs de bruit du détecteur SilVIR. Ces algorithmes de réduction du bruit TruAI pré-entraînés peuvent être appliqués à la fois en temps réel et lors du post-traitement.

  1. Détection automatique des échantillons (2022)

Les modèles d’IA peuvent être intégrés dans les procédures d’acquisition pour la détection automatique des échantillons, ce qui permet de gagner du temps lors de la numérisation de tissus entiers, la reconnaissance de zones spécifiques ou l’identification d’événements rares. La procédure commence généralement par la prise d’une vue générale à faible grossissement, suivie d’une numérisation détaillée à plus fort grossissement avec plus de canaux, des couches Z supplémentaires ou même un changement de modalité (passage de la microscopie à grand champ à la microscopie confocale à disque rotatif).

https://adobeassets.evidentscientific.com/content/dam/video/video/library/cellSens_Macro_Micro_Video_MASTER_rev3.mp4

Figure 11 – Vidéo montrant la procédure d’imagerie de macro à micro dans le logiciel cellSens pour un microscope à grand champ.

  1. Entraînement interactif (2023)

Une nouvelle procédure interactive pour l’entraînement des modèles d’IA a été introduite en 2023. Celle-ci permet aux utilisateurs d’annoter des images de manière interactive, d’entraîner le modèle, d’examiner les prédictions de l’IA, d’apporter des corrections et d’utiliser ces corrections comme nouvelles étiquettes pour un nouvel entraînement. Les utilisateurs peuvent ensuite continuer à annoter de nouvelles images, affinant ainsi le modèle de manière itérative. Cette approche permet un développement rapide des modèles d’IA pour des applications simples.

A diagram of a diagram of a diagram Description automatically generated with medium confidence

Figure 12 – Exemple d’une procédure d’entraînement interactif

  1. Amélioration de l’image (2023)

Les utilisateurs peuvent entraîner des modèles d’IA à la fois pour des tâches de segmentation et des opérations de traitement d’image. Par exemple, un modèle peut apprendre à effectuer un débruitage ou à appliquer des techniques de traitement telles que la déconvolution.

Étant donné que l’entraînement se fait sur plusieurs canaux, la génération de données de vérité de terrain pour l’entraînement est simple. Par exemple, pour créer des données de vérité de terrain pour un modèle de débruitage, il suffit d’acquérir deux canaux : l’un avec un rapport signal sur bruit élevé (servant de vérité de terrain) et l’autre avec une exposition courte et une excitation à faible luminosité.

L’un des principaux avantages de cette approche est que les chercheurs peuvent entraîner les modèles d’IA en utilisant leurs propres échantillons, ce qui permet de garantir des performances optimales pour leurs structures cibles spécifiques tout en minimisant les artefacts, tels que les hallucinations (structures fausses et inexplicables).

Inserting image..., Picture, Picture

Picture, Picture

Figure 13 – Les modèles TruAI peuvent être entraînés pour des tâches de traitement d’image, comme la réduction du bruit (en bas).

L’évolution continue de la technologie TruAI

Au cours des six dernières années, la technologie TruAI n’a cessé d’évoluer, apportant des améliorations dans les domaines de la segmentation, de la classification, de la mise à l’échelle, de l’analyse en temps réel et de l’amélioration des images. Sa flexibilité, sa facilité d’utilisation et son intégration dans les plateformes logicielles d’Evident en font un outil puissant pour l’analyse d’images pilotée par l’IA dans le domaine des sciences de la vie.

Pour en savoir plus sur le fonctionnement concret des modèles TruAI, contactez notre équipe de professionnels de la microscopie pour une démonstration personnalisée.

Produits en vedette

Station de criblage à haut contenu scanR

En savoir plus

Scanner de lames pour la recherche SLIDEVIEW™ VS200

En savoir plus

Microscope confocal à balayage laser FLUOVIEW™ FV4000

En savoir plus

Logiciel d’analyse d’image cellSens™

En savoir plus

Manoel Veiga

Dr Manoel Veiga

Spécialiste en applications, Recherche en sciences de la vie

Manoel Veiga a obtenu son doctorat en physicochimie à l’Université de Saint-Jacques-de-Compostelle, en Espagne. Après deux postdoctorats à l’Université Complutense de Madrid et à l’Université de Münster, il a exercé des activités d’assistance aux professionnels du monde entier dans les domaines de la microscopie de fluorescence résolue dans le temps (FLIM) et de la spectroscopie à résolution temporelle. Il a rejoint le centre technologique d’EVIDENT en Europe en 2017, où il exerce en tant que spécialiste mondial des applications et se concentre en particulier sur l’analyse à haut contenu et l’apprentissage profond.