
L’analyse
d’images par microscopie électronique (EM) peut être un processus extrêmement
utile pour les chercheurs, mais trop souvent aussi laborieuse et longue. De
nouveaux progiciels, comme Avizo2D de Thermo Fisher Scientific, changent cela.
Si Avizo2D est une indication, le logiciel du futur fera de l’analyse d’image
une tâche simple pour les chercheurs sans années d’expérience en imagerie grâce
à des recettes combinant l’apprentissage de l’IA et des modules codés en
Python. Nous avons rencontré Laurent Billy, directeur de la gestion des
produits et des logiciels d’application chez Thermo Fisher Scientific pour en
savoir plus sur l’avenir de l’analyse d’images EM.
Ruairi Mackenzie (RM): Quelles informations les chercheurs
peuvent-ils obtenir de leurs images de microscopie électronique (EM)?
Laurent Billy (LB): les images EM préservent les détails fins
de la microstructure d’un échantillon. À l’aide d’EM, les utilisateurs peuvent
générer une représentation statistique des relations clés au sein des phases
d’un échantillon et entre elles. Par exemple, la quantification de la porosité,
des densités de fracture et des morphologies, ainsi que toute mesure
géométrique des grains, des nanoparticules, etc., sont toutes possibles pour
une extraction précise avec un logiciel EM, comme Avizo2D. La collecte de
telles données sur un certain nombre d’échantillons ouvre la possibilité
d’utiliser des méthodes statistiques et informatiques modernes pour rechercher
les relations importantes entre microstructure et performances qui sont au cœur
de la science des matériaux.
RM: Quels sont les goulots d’étranglement actuels dans
l’analyse d’images EM?
LB: L’un des principaux goulots d’étranglement dans l’analyse
d’image EM est de croire qu’une routine de traitement donnée est reproductible,
peu importe qui a travaillé sur l’extraction des données de l’image. Les
approches traditionnelles nécessitent généralement de nombreuses étapes
manuelles qui incluent des choix faits par les utilisateurs en fonction de leurs
compétences et de leur expertise, ce qui peut conduire à des résultats
différents. Les nouveaux logiciels peuvent fournir un cadre hautement
automatisé qui place un flux de travail convenu et testé au centre du processus
d’analyse d’image, offrant ainsi une approche plus robuste et reproductible
pour atténuer les problèmes historiques de biais de l’utilisateur. Un autre
goulot d’étranglement majeur est de comprendre ce qui peut et ne peut pas être
extrait d’une image donnée. Des paramètres tels que la résolution d’image, la
quantité de bruit présente et la séparation des valeurs d’échelle de gris
nécessaires pour séparer avec précision les phases ou les caractéristiques
d’intérêt peuvent tous limiter ou affecter les résultats. Des données précises
issues du traitement d’image nécessitent des données d’image de qualité dès le
début. Comprendre les exigences du côté de l’acquisition d’image est essentiel
pour réussir à extraire ce que vous voulez via des techniques de traitement
d’image.
RM: Quels sont les défis uniques rencontrés dans la
conception de logiciels d’analyse pour les images EM?
LB: Le principal défi dans la création d’un logiciel
d’analyse d’image est d’équilibrer la facilité d’utilisation avec l’intégration
d’approches avancées. Le paysage des utilisateurs qui peuvent bénéficier de
l’analyse d’images est extrêmement varié, il peut donc être difficile de créer
un produit offrant de la valeur aux utilisateurs novices et expérimentés. Un
logiciel de pointe fournira une variété d’approches de traitement d’image
avancées telles que l’IA, et une suite complète d’outils de segmentation
d’image avancés dans un package accessible qui permettra aux utilisateurs de
tous niveaux d’expérience de tirer le meilleur parti de leurs données.
RM: Une expertise est actuellement requise pour utiliser
correctement les boîtes à outils pour l’analyse d’images EM. Quand
l’automatisation rendra-t-elle l’analyse d’images EM accessible aux chercheurs,
même inexpérimentés?
LB: Il est difficile de répondre exactement «quand», mais
nous pensons que d’ici deux à trois ans, les technologies émergentes telles que
la machine et le Deep Learning auront suffisamment avancé pour nous permettre
d’affiner encore plus l’automatisation. De nombreuses applications d’analyse
d’images auront été abordées grâce à ces nouvelles techniques, et des solutions
automatisées efficaces seront disponibles pour de nombreuses tâches de routine.
En outre, de vastes collections de workflows d’analyse prédéfinis basés sur
l’IA ou sur des outils de traitement d’image traditionnels deviendront plus
largement disponibles, fournissant des modèles de «boutons-poussoirs» à des
experts en traitement non-image pour de nombreux cas d’utilisation spécifiques.
Cela dit, les outils logiciels automatisés disponibles aujourd’hui aident déjà
les scientifiques à évaluer et à améliorer la qualité des données d’imagerie au
moment de l’acquisition, facilitant ainsi une analyse plus approfondie.
0 commentaire Laisser un commentaire