Dix améliorations clés de la technologie TruAI™ pour faire avancer l’analyse d’image en sciences de la vie
La technologie TruAI™ est un puissant outil d’analyse d’image piloté par l’IA et destiné aux logiciels des sciences de la vie et des matériaux. Grâce à des réseaux neuronaux profonds, elle permet le développement de modèles d’IA adaptés à des applications d’imagerie spécifiques. Introduite par Evident en 2019 avec la station de criblage à haut contenu scanR, elle a ensuite été étendue à d’autres produits.
La technologie TruAI fonctionne localement sur un PC et ne nécessite aucune compétence en codage ou en programmation de la part des utilisateurs. Les modèles d’IA développés sont des fichiers facilement échangeables entre les solutions logicielles d’analyse d’Evident, telles que scanR Analysis, cellSens™ Count and Measure et VS200-Detect.
La technologie TruAI procure des avantages dans trois domaines d’application principaux :
- Segmentation et classification d’objets lors de l’analyse d’image
- Détection des échantillons dans les processus d’acquisition d’images
- Traitement d’image, notamment le débruitage et l’amélioration
Dans cet article, nous passons en revue l’évolution de la technologie TruAI au sein de ces logiciels des sciences de la vie en mettant en lumière les améliorations continues qu’elle a connues au cours des six dernières années.
- Boîte à outils polyvalente (2019)
Les premières versions de la technologie TruAI, scanR en 2019 et cellSens en 2020, ont été conçues pour offrir aux chercheurs une boîte à outils polyvalente permettant de créer des modèles de segmentation sémantique fondés sur l’IA.
L’entraînement d’un modèle d’IA débute par l’annotation des images par les utilisateurs pour marquer la vérité de terrain, puis par le chargement de ces images annotées dans une interface d’entraînement. Le modèle analyse ensuite les images annotées, optimisant ses prédictions en fonction des annotations au cours d’un processus itératif.
Les principales fonctionnalités de la première boîte à outils TruAI comprenaient ce qui suit :
- Annotations manuelles : outils d’étiquetage permettant d’annoter librement les images pour marquer la vérité terrain
- Annotations automatiques : conversion des segmentations existantes en annotations
- Étiquetage partiel : limitation de l’entraînement aux régions étiquetées, éliminant ainsi la nécessité d’annoter des images entières
- Combinaisons flexibles de canaux et de couches Z : utilisation d’un seul canal ou d’une seule couche Z pour les tâches simples, tout en permettant des combinaisons libres pour les applications complexes
- Suivi de la progression de l’entraînement : division automatique des données en ensembles d’entraînement et de validation par l’interface d’entraînement, avec affichage en temps réel des prédictions de l’IA
- Segmentation sémantique (2019)
Une fois entraînés, les modèles d’IA peuvent être appliqués à de nouvelles images (inférence) au sein des différents logiciels d’analyse d’Evident. Dans la segmentation sémantique, le modèle d’IA génère une carte de probabilité des pixels indiquant ceux ayant une forte probabilité d’appartenir au premier plan. Pour la détection finale des objets, un seuil est appliqué à cette carte de probabilité, suivi d’algorithmes de séparation classiques tels que la segmentation par ligne de partage des eaux.

- Classification (2021)
Un seul modèle d’IA peut segmenter tous les objets d’une image, avec une classification basée sur les paramètres mesurés de ces objets, tels que la surface et l’intensité de fluorescence.
Ou bien, plusieurs modèles d’IA peuvent être appliqués à la même image pour effectuer la classification sans extraire les paramètres de mesure, par exemple, un modèle d’IA détectant uniquement les cellules en état 1 et un autre ne détectant que celles en état 2.
Ces deux capacités étaient déjà présentes dans les premières versions de la technologie TruAI.
Cependant, un modèle de classification désigne spécifiquement la capacité d’un modèle d’IA unique à différencier de l’arrière-plan de multiples classes d’objets qui se trouvent à l’avant-plan. La détection finale des objets s’effectue en appliquant un seuil aux deux ou plusieurs probabilités générées par le modèle d’IA unique.
Pour conserver de la flexibilité, les utilisateurs peuvent décider, lors de la phase d’entraînement, si les classes peuvent se chevaucher.
L’avantage principal de l’utilisation des modèles de classification est de simplifier l’analyse lors de la détection de nombreuses classes ou lorsqu’il n’existe pas de caractéristiques mesurables claires pour effectuer la classification.
Figure 2 – Localisation des protéines marquées par fluorescence dans des compartiments cellulaires de levure. Un seul modèle TruAI permet de classifier les cellules en fonction de la localisation des protéines. Pour en savoir plus, consultez notre note d’application intitulée « Classification de la localisation des protéines dans la levure à l’aide de la technologie d’apprentissage profond TruAI™ ».
Figure 3 – La technologie TruAI permet de créer des modèles d’IA de classification dans des situations où la classification est difficile pour l’œil humain, comme lors de la sélection d’ovocytes de haute qualité dans des échantillons non colorés pour la fécondation in vitro. Apprenez-en plus dans cet article.
- Segmentation par instance
Contrairement aux modèles d’IA de segmentation sémantique, les modèles de segmentation par instance peuvent segmenter directement les objets finaux en une seule étape, éliminant ainsi le besoin de seuillage de la carte de probabilité et de fractionnement supplémentaire.
Cette méthode simplifie le processus de travail (comparez la figure 4 et la figure 1) et est particulièrement utile dans les cas où les algorithmes de segmentation classiques ont du mal à séparer les objets détectés, par exemple lorsque la densité cellulaire est élevée.
Figure 4 – Un modèle de segmentation par instance unique peut identifier les pixels appartenant au premier plan et déterminer les limites des objets finaux (noyaux) en une seule étape.
Figure 5 – Les modèles de segmentation par instance sont particulièrement utiles dans les scénarios de haute confluence impliquant des objets non circulaires. Dans cet exemple, un modèle d’IA unique utilise deux canaux d’entrée (bleu et gris) pour classer en tant que noyaux ou cellules les objets superposés tout en définissant leurs limites.
- Mise à l’échelle (2021, 2023)
Les modèles d’IA ont un champ de vision limité, généralement à quelques centaines de pixels, ce qui les rend sensibles à la résolution en pixels. Les techniques de mise à l’échelle réduisent ces limitations.
Mise à l’échelle pendant l’entraînement (2021)
Lorsque les objets dépassent le champ de vision du modèle d’IA, celui-ci peut ne pas reconnaître les bordures complètes des objets, ce qui entraîne une détection inefficace. Pour remédier à cela, l’entraînement peut intégrer un facteur de mise à l’échelle qui permet d’agrandir effectivement le champ de vision du modèle. Cette approche d’entraînement est particulièrement utile pour détecter des objets de grande taille, tels que des poissons-zèbres, des organoïdes ou de vastes zones dans des échantillons de tissus.
Figure 6 – Entraînement à la détection de grands organoïdes en lumière transmise dans une plaque multipuits. Le champ de vision du modèle d’IA est indiqué en vert. À gauche : L’entraînement sans mise à l’échelle donne des résultats médiocres, même après des milliers d’itérations. À droite : L’entraînement avec une mise à l’échelle de 25 % permet d’obtenir des résultats de haute qualité en seulement quelques centaines d’itérations.
Mise à l’échelle pendant l’inférence (2023)
Si un modèle d’IA est entraîné avec un objectif 10X, mais appliqué à une image prise avec un objectif 40X, la détection sera inefficace. La fonction de mise à l’échelle de la technologie TruAI permet aux utilisateurs d’adapter la résolution de l’image à celle du modèle d’IA pour obtenir des performances optimales. De plus, lorsque les modèles de segmentation par instance provoquent un fractionnement excessif, la réduction de la résolution améliore souvent la détection d’objets entiers.
Figure 7 – a) Image de fluorescence de cellules vivantes. b) Un modèle d’IA de segmentation par instance provoque un fractionnement excessif de certaines cellules. c) Le même modèle de segmentation par instance appliqué avec une mise à l’échelle de 50 % permet une détection précise des cellules sans fractionnement excessif.
- IA en temps réel (2021)
L’IA en temps réel est une fonction du logiciel cellSens qui applique des modèles d’IA en temps réel sans nécessiter d’acquisition d’images. La probabilité de l’IA, ou la segmentation finale des objets, est affichée directement sur l’image en temps réel, ce qui permet des contrôles qualité rapides, un comptage rapide dans les applications de quantification et une identification facile des cibles dans les procédures nécessitant une sélection d’échantillons (comme le meilleur candidat pour la sélection de cellules, de spermatozoïdes ou d’ovocytes).
https://adobeassets.evidentscientific.com/content/dam/mis/truai/Live-AI.mp4
Figure 8 – Processus d’inférence de l’IA en temps réel. Un modèle de segmentation par instance avec des capacités de classification est appliqué à une plaque multipuits. Lorsque l’utilisateur navigue dans la plaque, la carte de probabilité et le comptage des trois classes de cellules sont affichés dans le coin inférieur gauche de l’image en temps réel.
- Modèles pré-entraînés (2021–2024)
Pour les utilisateurs qui n’ont pas le temps d’entraîner leurs propres modèles d’IA, Evident propose des modèles pré-entraînés prêts à l’emploi. Différents types de modèles d’IA pré-entraînés sont disponibles dans les logiciels d’analyse suivants :
- scanR Analysis : modèles pour les cellules, les points, les structures et les noyaux en fond clair
- cellSens Count and Measure et VS200-Detect : modèles pour les noyaux, les cellules, la classification cellulaire par IHC (analyse Ki-67) et la reconnaissance d’échantillons entiers faiblement colorés
- cellSens FV (FV4000) : modèles pour le débruitage
De plus, les modèles pré-entraînés peuvent être utilisés comme point de départ pour les annotations. Les prédictions des modèles pré-entraînés peuvent être converties en annotations, et les utilisateurs peuvent y appliquer des corrections. Ce processus fonctionne particulièrement bien en combinaison avec l’entraînement interactif (voir la section 9).
Figure 9 – Le modèle de classification par IHC pré-entraîné détecte le centre de masse dans les cellules brunes et les cellules bleues. Lorsque ce modèle est utilisé avec les solutions cellSens Count and Measure ou VS200-Detect, on obtient la numération de l’ensemble des cellules ainsi que le pourcentage de chaque type de cellule.
Traité avec la réduction du bruit TruAI (en bas)
Traité avec la réduction du bruit TruAI (en bas)
Figure 10 – Images acquises par scanner résonnant au moyen d’un microscope confocal FLUOVIEW™ FV4000 (côté gauche de chaque image) et améliorées à l’aide de la technologie de réduction du bruit TruAI (côté droit de chaque image). L’imagerie par scanner résonnant capture efficacement la dynamique cellulaire à grande vitesse avec peu de dommages. Cependant, cela se fait généralement au prix d’un rapport signal sur bruit plus faible. La réduction du bruit TruAI améliore ces images sans compromettre la résolution temporelle en utilisant des modèles d’IA pré-entraînés basés sur les motifs de bruit du détecteur SilVIR™. Ces algorithmes de réduction du bruit TruAI pré-entraînés peuvent être appliqués à la fois en temps réel et lors du post-traitement.
- Détection automatique des échantillons (2022)
Les modèles d’IA peuvent être intégrés dans les procédures d’acquisition pour la détection automatique des échantillons, ce qui permet de gagner du temps lors de la numérisation de tissus entiers, la reconnaissance de zones spécifiques ou l’identification d’événements rares. La procédure commence généralement par la prise d’une vue générale à faible grossissement, suivie d’une numérisation détaillée à plus fort grossissement avec plus de canaux, des couches Z supplémentaires ou même un changement de modalité (passage de la microscopie à grand champ à la microscopie confocale à disque rotatif).
Figure 11 – Vidéo montrant la procédure d’imagerie de macro à micro dans le logiciel cellSens pour un microscope à grand champ.
- Entraînement interactif (2023)
Une nouvelle procédure interactive pour l’entraînement des modèles d’IA a été introduite en 2023. Celle-ci permet aux utilisateurs d’annoter des images de manière interactive, d’entraîner le modèle, d’examiner les prédictions de l’IA, d’apporter des corrections et d’utiliser ces corrections comme nouvelles étiquettes pour un nouvel entraînement. Les utilisateurs peuvent ensuite continuer à annoter de nouvelles images, affinant ainsi le modèle de manière itérative. Cette approche permet un développement rapide des modèles d’IA pour des applications simples.
Figure 12 – Exemple d’une procédure d’entraînement interactif
- Amélioration de l’image (2023)
Les utilisateurs peuvent entraîner des modèles d’IA à la fois pour des tâches de segmentation et des opérations de traitement d’image. Par exemple, un modèle peut apprendre à effectuer un débruitage ou à appliquer des techniques de traitement telles que la déconvolution.
Étant donné que l’entraînement se fait sur plusieurs canaux, la génération de données de vérité de terrain pour l’entraînement est simple. Par exemple, pour créer des données de vérité de terrain pour un modèle de débruitage, il suffit d’acquérir deux canaux : l’un avec un rapport signal sur bruit élevé (servant de vérité de terrain) et l’autre avec une exposition courte et une excitation à faible luminosité.
L’un des principaux avantages de cette approche est que les chercheurs peuvent entraîner les modèles d’IA en utilisant leurs propres échantillons, ce qui permet de garantir des performances optimales pour leurs structures cibles spécifiques tout en minimisant les artefacts, tels que les hallucinations (structures fausses et inexplicables).
Figure 13 – Les modèles TruAI peuvent être entraînés pour des tâches de traitement d’image, comme la réduction du bruit (en bas).
L’évolution continue de la technologie TruAI
Au cours des six dernières années, la technologie TruAI n’a cessé d’évoluer, apportant des améliorations dans les domaines de la segmentation, de la classification, de la mise à l’échelle, de l’analyse en temps réel et de l’amélioration des images. Sa flexibilité, sa facilité d’utilisation et son intégration dans les plateformes logicielles d’Evident en font un outil puissant pour l’analyse d’images pilotée par l’IA dans le domaine des sciences de la vie.
Pour en savoir plus sur le fonctionnement concret des modèles TruAI, contactez notre équipe de professionnels de la microscopie pour une démonstration personnalisée.