Des workflows automatisés et reproductibles peuvent accélérer l’analyse d’images EM

village de l’emploi

L’analyse d’images par microscopie électronique (EM) peut être un processus extrêmement utile pour les chercheurs, mais trop souvent aussi laborieuse et longue. De nouveaux progiciels, comme Avizo2D de Thermo Fisher Scientific, changent cela. Si Avizo2D est une indication, le logiciel du futur fera de l’analyse d’image une tâche simple pour les chercheurs sans années d’expérience en imagerie grâce à des recettes combinant l’apprentissage de l’IA et des modules codés en Python. Nous avons rencontré Laurent Billy, directeur de la gestion des produits et des logiciels d’application chez Thermo Fisher Scientific pour en savoir plus sur l’avenir de l’analyse d’images EM.

Ruairi Mackenzie (RM): Quelles informations les chercheurs peuvent-ils obtenir de leurs images de microscopie électronique (EM)?

Laurent Billy (LB): les images EM préservent les détails fins de la microstructure d’un échantillon. À l’aide d’EM, les utilisateurs peuvent générer une représentation statistique des relations clés au sein des phases d’un échantillon et entre elles. Par exemple, la quantification de la porosité, des densités de fracture et des morphologies, ainsi que toute mesure géométrique des grains, des nanoparticules, etc., sont toutes possibles pour une extraction précise avec un logiciel EM, comme Avizo2D. La collecte de telles données sur un certain nombre d’échantillons ouvre la possibilité d’utiliser des méthodes statistiques et informatiques modernes pour rechercher les relations importantes entre microstructure et performances qui sont au cœur de la science des matériaux.

RM: Quels sont les goulots d’étranglement actuels dans l’analyse d’images EM?

LB: L’un des principaux goulots d’étranglement dans l’analyse d’image EM est de croire qu’une routine de traitement donnée est reproductible, peu importe qui a travaillé sur l’extraction des données de l’image. Les approches traditionnelles nécessitent généralement de nombreuses étapes manuelles qui incluent des choix faits par les utilisateurs en fonction de leurs compétences et de leur expertise, ce qui peut conduire à des résultats différents. Les nouveaux logiciels peuvent fournir un cadre hautement automatisé qui place un flux de travail convenu et testé au centre du processus d’analyse d’image, offrant ainsi une approche plus robuste et reproductible pour atténuer les problèmes historiques de biais de l’utilisateur. Un autre goulot d’étranglement majeur est de comprendre ce qui peut et ne peut pas être extrait d’une image donnée. Des paramètres tels que la résolution d’image, la quantité de bruit présente et la séparation des valeurs d’échelle de gris nécessaires pour séparer avec précision les phases ou les caractéristiques d’intérêt peuvent tous limiter ou affecter les résultats. Des données précises issues du traitement d’image nécessitent des données d’image de qualité dès le début. Comprendre les exigences du côté de l’acquisition d’image est essentiel pour réussir à extraire ce que vous voulez via des techniques de traitement d’image.

RM: Quels sont les défis uniques rencontrés dans la conception de logiciels d’analyse pour les images EM?

LB: Le principal défi dans la création d’un logiciel d’analyse d’image est d’équilibrer la facilité d’utilisation avec l’intégration d’approches avancées. Le paysage des utilisateurs qui peuvent bénéficier de l’analyse d’images est extrêmement varié, il peut donc être difficile de créer un produit offrant de la valeur aux utilisateurs novices et expérimentés. Un logiciel de pointe fournira une variété d’approches de traitement d’image avancées telles que l’IA, et une suite complète d’outils de segmentation d’image avancés dans un package accessible qui permettra aux utilisateurs de tous niveaux d’expérience de tirer le meilleur parti de leurs données.

RM: Une expertise est actuellement requise pour utiliser correctement les boîtes à outils pour l’analyse d’images EM. Quand l’automatisation rendra-t-elle l’analyse d’images EM accessible aux chercheurs, même inexpérimentés?

LB: Il est difficile de répondre exactement «quand», mais nous pensons que d’ici deux à trois ans, les technologies émergentes telles que la machine et le Deep Learning auront suffisamment avancé pour nous permettre d’affiner encore plus l’automatisation. De nombreuses applications d’analyse d’images auront été abordées grâce à ces nouvelles techniques, et des solutions automatisées efficaces seront disponibles pour de nombreuses tâches de routine. En outre, de vastes collections de workflows d’analyse prédéfinis basés sur l’IA ou sur des outils de traitement d’image traditionnels deviendront plus largement disponibles, fournissant des modèles de «boutons-poussoirs» à des experts en traitement non-image pour de nombreux cas d’utilisation spécifiques. Cela dit, les outils logiciels automatisés disponibles aujourd’hui aident déjà les scientifiques à évaluer et à améliorer la qualité des données d’imagerie au moment de l’acquisition, facilitant ainsi une analyse plus approfondie.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *