Combien Coûte - Nanomètre? - Vue Alternative

Table des matières:

Combien Coûte - Nanomètre? - Vue Alternative
Combien Coûte - Nanomètre? - Vue Alternative

Vidéo: Combien Coûte - Nanomètre? - Vue Alternative

Vidéo: Combien Coûte - Nanomètre? - Vue Alternative
Vidéo: ✅ Convert nanometer to meter - formula and example 2024, Mai
Anonim

Stepan Lisovsky, doctorant au MIPT, employé du département de nanométrologie et nanomatériaux, parle des principes de base de la nanométrologie et des fonctions de divers microscopes et explique pourquoi la taille des particules dépend de la façon dont elles sont mesurées.

Réflexion de référence

Pour commencer - sur la métrologie simple. En tant que discipline, elle aurait pu naître dans l'Antiquité, puis beaucoup se sont disputés au sujet de la mesure - de Pythagore à Aristote - mais ne s'est pas posée. La métrologie n'a pas réussi à faire partie de l'image scientifique du monde de cette époque à cause du même Aristote. Pendant de nombreux siècles à venir, il a établi la priorité d'une description qualitative des phénomènes sur une description quantitative. Tout n'a changé qu'à l'époque de Newton. La signification des phénomènes «selon Aristote» a cessé de satisfaire les scientifiques, et l'accent est passé - de la partie sémantique de la description à la partie syntaxique. En termes simples, il a été décidé de se pencher sur la mesure et le degré des interactions entre les choses et de ne pas essayer de comprendre leur essence même. Et cela s'est avéré beaucoup plus fructueux. Puis vint la plus belle heure de la métrologie.

La tâche la plus importante de la métrologie est d'assurer l'uniformité des mesures. L'objectif principal est de découpler le résultat de la mesure de tous les détails: l'heure, le lieu de la mesure, de qui mesure et comment il décide de le faire aujourd'hui. Par conséquent, il ne devrait rester que ce à quoi les choses appartiendront toujours et partout, quoi qu'il en soit, sa mesure objective, qui lui appartient en vertu de la réalité commune à tous. Comment arriver à la chose? Par son interaction avec l'appareil de mesure. Pour cela, il faut une méthode de mesure unifiée, ainsi qu'une norme, la même pour tous.

Nous avons donc appris à mesurer - tout ce qui reste, c'est que toutes les autres personnes dans le monde mesurent de la même manière que nous. Cela exige qu'ils utilisent tous la même méthode et les mêmes normes. Les gens ont rapidement compris les avantages pratiques de l'introduction d'un système unique de mesures et ont accepté de commencer à négocier. Le système métrique de mesures est apparu, qui s'est progressivement étendu à presque le monde entier. En Russie, d'ailleurs, le mérite d'introduire un support métrologique appartient à Dmitri Mendeleev.

Image
Image

Le résultat de la mesure, en plus de la valeur réelle de la grandeur, est également une approche exprimée en unités de mesure. Ainsi, un mètre mesuré ne deviendra jamais un Newton, et un ohm ne deviendra jamais un tesla. Autrement dit, des quantités différentes impliquent une nature différente de la mesure, mais, bien entendu, ce n'est pas toujours le cas. Un mètre de fil se révèle être un mètre à la fois en termes de caractéristiques spatiales, en termes de conductivité, et en termes de masse de la substance qu'il contient. Une grandeur est impliquée dans différents phénomènes, ce qui facilite grandement le travail d'un métrologue. Même l'énergie et la masse se sont avérées équivalentes dans une certaine mesure, donc la masse des particules supermassives est mesurée en termes d'énergie nécessaire pour les créer.

Vidéo promotionelle:

En plus de la valeur de la quantité et de l'unité de sa mesure, il existe plusieurs facteurs plus importants que vous devez connaître pour chaque mesure. Tous sont contenus dans une technique de mesure spécifique choisie pour le cas dont nous avons besoin. Tout y est défini: les échantillons standards, la classe de précision des instruments et même les qualifications des chercheurs. Sachant fournir tout cela, en fonction de la méthodologie, nous pouvons effectuer des mesures correctes. En fin de compte, l'application de la technique nous donne des dimensions garanties de l'erreur de mesure, et l'ensemble du résultat de la mesure est réduit à deux nombres: la valeur et son erreur, avec lesquelles les scientifiques travaillent habituellement.

Mesurer l'invisible

La nanométrologie fonctionne selon presque les mêmes lois. Mais il y a quelques nuances qui ne peuvent être ignorées. Pour les comprendre, vous devez comprendre les processus du nanomonde et comprendre quelle est en fait leur caractéristique. En d'autres termes, quelle est la particularité de la nanotechnologie.

Nous devons commencer, bien sûr, par les dimensions: un nanomètre par mètre équivaut à peu près à un Chinois dans la population chinoise. Cette échelle (inférieure à 100 nm) permet toute une série de nouveaux effets. Ici, les effets de la physique quantique, y compris le tunneling et l'interaction avec les systèmes moléculaires, l'activité biologique et la compatibilité, et une surface surdéveloppée, dont le volume (plus précisément la couche proche de la surface) est comparable au volume total du nanoobjet lui-même. Ces propriétés sont un trésor d'opportunités pour le nanotechnologue et en même temps, la malédiction du nanométrologue. Pourquoi?

Le fait est qu'en raison de la présence d'effets spéciaux, les nanoobjets nécessitent des approches complètement nouvelles. Ils ne peuvent pas être vus optiquement au sens classique en raison de la limitation fondamentale de la résolution qui peut être obtenue. Parce qu'il est strictement lié à la longueur d'onde du rayonnement visible (vous pouvez utiliser des interférences et ainsi de suite, mais tout cela est déjà exotique). Il existe plusieurs solutions de base à ce problème.

Tout a commencé avec un projecteur auto-électronique (1936), qui a ensuite été modifié en un auto-ionique (1951). Le principe de son fonctionnement est basé sur le mouvement rectiligne d'électrons et d'ions sous l'action d'une force électrostatique dirigée de la cathode nanométrique vers l'écran anodique des dimensions macroscopiques dont nous avons déjà besoin. L'image que nous observons à l'écran se forme au niveau ou à proximité de la cathode en raison de certains processus physiques et chimiques. Il s'agit tout d'abord de l'extraction des électrons de champ de la structure atomique de la cathode et de la polarisation des atomes du gaz "d'imagerie" près de la pointe de la cathode. Une fois formée, l'image sous la forme d'une certaine distribution d'ions ou d'électrons est projetée sur l'écran, où elle se manifeste par les forces de fluorescence. De cette manière élégante, vous pouvez regarder la nanostructure des pointes en certains métaux et semi-conducteurs,mais l'élégance de la solution ici est liée à des restrictions trop strictes sur ce que nous pouvons voir, de sorte que ces projecteurs ne sont pas devenus très populaires.

Une autre solution était le sens littéral de la surface, réalisé pour la première fois en 1981 sous la forme d'un microscope à sonde à balayage, qui a reçu le prix Nobel en 1986. Comme vous pouvez le deviner d'après son nom, la surface à examiner est scannée avec une sonde, qui est une aiguille pointue.

Microscope à sonde à balayage

Image
Image

© Institut Max Planck de recherche sur le solide

Une interaction se produit entre la pointe et la structure de la surface, qui peut être déterminée avec une grande précision même par la force agissant sur la sonde, même par la déviation de la sonde, même par le changement de la fréquence (phase, amplitude) des oscillations de la sonde. L'interaction initiale, qui détermine la capacité d'étudier presque n'importe quel objet, c'est-à-dire l'universalité de la méthode, est basée sur la force répulsive résultant du contact et sur les forces de van der Waals à longue portée. Il est possible d'utiliser d'autres forces, et même le courant tunnel émergent, cartographiant la surface non seulement en termes de localisation spatiale à la surface des nanoobjets, mais également de leurs autres propriétés. Il est important que la sonde elle-même soit à l'échelle nanométrique, sinon la sonde ne balaiera pas la surface,et la surface est une sonde (en vertu de la troisième loi de Newton, l'interaction est déterminée par les deux objets et, en un sens, symétriquement). Mais dans l'ensemble, cette méthode s'est avérée à la fois universelle et possédant le plus large éventail de possibilités, elle est donc devenue l'une des principales dans l'étude des nanostructures. Son principal inconvénient est qu'il est extrêmement chronophage, surtout par rapport aux microscopes électroniques.

Les microscopes électroniques, en passant, sont également des microscopes à sonde, seul un faisceau d'électrons focalisé y sert de sonde. L'utilisation d'un système de lentilles le rend conceptuellement similaire à l'optique, mais non sans différences majeures. D'abord et avant tout: un électron a une longueur d'onde plus courte qu'un photon, en raison de sa massivité. Bien entendu, les longueurs d'onde n'appartiennent ici pas aux particules, l'électron et le photon, mais caractérisent le comportement des ondes qui leur correspondent. Autre différence importante: l'interaction des corps avec les photons et avec les électrons est assez différente, bien qu'elle ne soit pas dénuée de caractéristiques communes. Dans certains cas, les informations obtenues à partir de l'interaction avec les électrons sont encore plus significatives que de l'interaction avec la lumière - cependant, la situation inverse n'est pas rare.

Image
Image

Et la dernière chose à laquelle il faut faire attention est la différence des systèmes optiques: si pour la lumière les lentilles sont traditionnellement des corps matériels, alors pour les faisceaux d'électrons ce sont des champs électromagnétiques, ce qui donne une plus grande liberté de manipulation des électrons. C'est le "secret" des microscopes électroniques à balayage, l'image sur laquelle, même si elle semble avoir été obtenue dans un microscope optique conventionnel, est réalisée uniquement pour la commodité de l'opérateur, mais est obtenue à partir d'une analyse informatique des caractéristiques de l'interaction d'un faisceau d'électrons avec un raster séparé (pixel) sur échantillons qui sont ensuite scannés. L'interaction d'électrons avec un corps permet de cartographier une surface en termes de relief, de composition chimique et même de propriétés de luminescence. Les faisceaux d'électrons sont capables de traverser des échantillons minces,qui vous permet de voir la structure interne de ces objets - jusqu'aux couches atomiques.

Ce sont les principales méthodes pour distinguer et étudier la géométrie des objets à l'échelle nanométrique. Il y en a d'autres, mais ils fonctionnent avec des systèmes entiers de nanoobjets, calculant leurs paramètres statistiquement. Voici la diffractométrie des rayons X des poudres, qui vous permet de connaître non seulement la composition de phase de la poudre, mais aussi quelque chose sur la distribution de taille des cristaux; et l'ellipsométrie, qui caractérise l'épaisseur des couches minces (ce qui est irremplaçable dans la création de l'électronique, dans laquelle l'architecture des systèmes est créée principalement en couches); et des méthodes de sorption de gaz pour l'analyse d'une surface spécifique. Le langage peut être rompu avec les noms de certaines méthodes: diffusion dynamique de la lumière, spectroscopie électroacoustique, relaxométrie par résonance magnétique nucléaire (cependant, on l'appelle simplement relaxométrie RMN).

Mais ce n'est pas tout. Par exemple, une charge peut être transférée à une nanoparticule se déplaçant dans l'air, puis le champ électrostatique peut être activé et, en fonction de la façon dont la particule dévie, sa taille aérodynamique peut être calculée (sa force de frottement contre l'air dépend de la taille de la particule). À propos, de manière similaire, la taille des nanoparticules est déterminée dans la méthode déjà mentionnée de diffusion dynamique de la lumière, seule la vitesse du mouvement brownien est analysée, et également indirectement, à partir des fluctuations de la diffusion de la lumière. Le diamètre des particules hydrodynamiques est obtenu. Et il existe plus d'une de ces méthodes «intelligentes».

Une telle abondance de méthodes qui semblent mesurer la même chose - la taille, a un détail intéressant. La valeur de la taille d'un seul et même nano-objet diffère souvent, parfois même parfois.

Quelle taille est correcte?

Il est temps de rappeler la métrologie ordinaire: les résultats de mesure, en plus de la valeur mesurée réelle, sont également définis par la précision de la mesure et la méthode par laquelle la mesure a été effectuée. En conséquence, la différence des résultats peut être expliquée à la fois par une précision différente et par la nature différente des valeurs mesurées. La thèse sur la nature différente des différentes tailles d'une même nanoparticule peut sembler sauvage, mais elle l'est. La taille d'une nanoparticule en termes de comportement en dispersion aqueuse n'est pas la même que sa taille en termes d'adsorption des gaz à sa surface et n'est pas la même que sa taille en termes d'interaction avec un faisceau d'électrons dans un microscope. Sans parler du fait que pour les méthodes statistiques, il est impossible non plus de parler d'une certaine taille, mais seulement d'une valeur qui caractérise la taille. Mais malgré ces différences (ou même grâce à elles), tous ces résultats peuvent être considérés comme également vrais, en disant juste un peu sur différentes choses, en regardant sous des angles différents. Mais ces résultats ne peuvent être comparés que du point de vue de l'adéquation de la dépendance à leur égard dans certaines situations: pour prédire le comportement d'une nanoparticule dans un liquide, il est plus adéquat d'utiliser la valeur du diamètre hydrodynamique, etc.

Tout ce qui précède est vrai pour la métrologie conventionnelle, et même pour tout enregistrement de faits, mais cela est souvent négligé. On peut dire qu'il n'y a pas de faits plus vrais et moins vrais, plus cohérents avec la réalité et moins (sauf peut-être contrefaçon), mais il n'y a que des faits qui sont plus et des faits moins adéquats pour une utilisation dans une situation particulière, ainsi que basés sur de plus en moins l'interprétation correcte pour cela. Les philosophes l'ont bien appris depuis l'époque du positivisme: tout fait est théoriquement chargé.