Qui, Comment Et Pourquoi Traite Les Images De L'espace - Vue Alternative

Table des matières:

Qui, Comment Et Pourquoi Traite Les Images De L'espace - Vue Alternative
Qui, Comment Et Pourquoi Traite Les Images De L'espace - Vue Alternative
Anonim

Les photos de l'espace, publiées sur le site de la NASA et d'autres agences spatiales, attirent souvent l'attention de ceux qui doutent de leur authenticité - les critiques trouvent des traces de retouche, de retouche ou de manipulation de la couleur dans les images. Cela a été le cas depuis le début de la «conspiration lunaire», et maintenant les photos prises non seulement par les Américains, mais aussi par les Européens, les Japonais, les Indiens ont été mises en doute. Nous proposons de comprendre pourquoi les images spatiales sont traitées et si elles peuvent, malgré cela, être considérées comme authentiques.

Afin d'évaluer correctement la qualité des images satellites que nous voyons sur le Web, il est nécessaire de prendre en compte deux facteurs importants. L'un d'eux est lié à la nature de l'interaction entre les agences et le grand public, l'autre est dicté par les lois physiques.

Relations publiques

L'imagerie spatiale est l'un des moyens les plus efficaces de vulgariser le travail des missions de recherche dans l'espace proche et lointain. Cependant, tout le personnel n'est pas immédiatement à la disposition des médias.

Les images obtenues à partir de l'espace peuvent être grossièrement divisées en trois groupes: «brutes» (brutes), scientifiques et publiques. Les fichiers bruts ou originaux des vaisseaux spatiaux sont parfois disponibles pour tout le monde, et parfois non. Par exemple, les images prises par les rovers Curiosity et Opportunity ou par le satellite de Saturne Cassini sont publiées en temps quasi réel afin que tout le monde puisse les voir en même temps que les scientifiques qui étudient Mars ou Saturne. Les photos brutes de la Terre depuis l'ISS sont téléchargées sur un serveur séparé de la NASA. Les astronautes les remplissent de milliers et personne n'a le temps de les prétraiter. La seule chose qui leur est ajoutée sur Terre est le géoréférencement pour faciliter la recherche.

Dans le cas de Messenger, New Horizons ou Dawn, les choses sont différentes. Les images brutes obtenues à partir de ces appareils ne sont pas publiées immédiatement après réception, mais sont diffusées avec un retard de plusieurs semaines, mois voire années. Cela est nécessaire pour que les scientifiques travaillant sur des projets pertinents puissent analyser les données en toute sécurité et, en cas de découverte, les signaler d'abord lors de conférences.

Les fichiers avec le personnel scientifique ont souvent un format spécifique qui n'est compris que par des programmes ou applications spéciaux. Ces fichiers contiennent une grande quantité d'informations sur les circonstances de la prise de vue (heure, position de l'engin spatial, position du sujet, angle d'éclairage, caractéristiques de prise de vue, etc.). Ces informations, sans être classifiées, sont si inintéressantes pour la plupart des passionnés d'astronautique qu'elles sont généralement publiées dans des endroits qui conviennent aux scientifiques, mais effraient les étrangers avec une interface complexe. Ces sites ou serveurs FTP du domaine public sont des archives NASA PDS, ESA PSA, JAXA. Même la Chine a publié des images de la Lune sur le site Web de son Académie des sciences (dont le serveur plante périodiquement). Lorsque le précédent satellite météorologique russe "Electro-L" était en train d'effectuer des levés, des images de celui-ci pouvaient être trouvées sur le serveur NTsOMZ;il n'y a aucune image du nouveau satellite dans le domaine public. Seules les images préliminaires peuvent être visualisées à partir des satellites de télédétection, et les images elles-mêmes devront être commandées sur le géoportail de Roscosmos.

Vidéo promotionelle:

Mais généralement, les prises de vue publiques jointes aux communiqués de presse de la NASA et d'autres agences spatiales sont critiquées pour leur retouche, car ce sont elles qui attirent l'attention des internautes en premier lieu. Et si vous voulez, vous pouvez en trouver beaucoup. Et la manipulation des couleurs:

Photo de la plate-forme d'atterrissage du rover Spirit dans le domaine visible de la lumière et avec la capture du proche infrarouge
Photo de la plate-forme d'atterrissage du rover Spirit dans le domaine visible de la lumière et avec la capture du proche infrarouge

Photo de la plate-forme d'atterrissage du rover Spirit dans le domaine visible de la lumière et avec la capture du proche infrarouge.

Et superposez plusieurs photos:

Image
Image
La Terre s'élève au-dessus du cratère lunaire de Compton
La Terre s'élève au-dessus du cratère lunaire de Compton

La Terre s'élève au-dessus du cratère lunaire de Compton.

Et manipulations avec des images coupées (copier-coller):

Image
Image
Copiez-collez des traces sur une image composite de la Terre
Copiez-collez des traces sur une image composite de la Terre

Copiez-collez des traces sur une image composite de la Terre.

Et même des retouches directes, avec effacement de certaines parties de l'image. La motivation de la NASA dans le cas de toutes ces manipulations est si simple que tout le monde n'est pas prêt à le croire: c'est plus beau.

Mais la vérité est que la noirceur sans fond de l'espace semble plus impressionnante lorsqu'elle n'est pas gênée par des débris sur l'objectif et des particules chargées sur le film. Un cadre de couleur est, en effet, plus attrayant que le noir et blanc. Une photo panoramique vaut mieux qu'une seule photo. Dans le même temps, il est important que dans le cas de la NASA, vous puissiez presque toujours trouver les images sources et les comparer les unes avec les autres. Par exemple, la version originale (AS17-134-20384) et la version imprimée (GPN-2000-001137) de cette image d'Apollo 17, qui est citée comme la preuve principale de la retouche photo lunaire:

Une des images de la mission Apollo 17
Une des images de la mission Apollo 17

Une des images de la mission Apollo 17.

Une version en surbrillance de l'image originale
Une version en surbrillance de l'image originale

Une version en surbrillance de l'image originale.

Une version en surbrillance de l'image publiée
Une version en surbrillance de l'image publiée

Une version en surbrillance de l'image publiée.

Ou trouvez le "selfie stick" du rover, qui a "disparu" lors de la création de son autoportrait:

Image
Image
Instantané de curiosité daté du 14 janvier 2015, sol 868
Instantané de curiosité daté du 14 janvier 2015, sol 868

Instantané de curiosité daté du 14 janvier 2015, sol 868.

Physique de la photographie numérique

En règle générale, ceux qui reprochent aux agences spatiales de manipuler la couleur, d'utiliser des filtres ou de publier des photographies en noir et blanc «à l'ère des progrès numériques» ignorent les processus physiques de l'imagerie numérique. Ils pensent que si un smartphone ou un appareil photo émet immédiatement des cadres couleur, alors le vaisseau spatial devrait en être d'autant plus capable, et ils ne savent même pas quelles opérations complexes sont nécessaires pour qu'une image couleur frappe immédiatement l'écran.

Expliquons la théorie de la photographie numérique: la matrice d'un appareil numérique est en fait une batterie solaire. Il y a de la lumière - il y a du courant, pas de lumière - pas de courant. Seule la matrice n'est pas une seule batterie, mais de nombreuses petites batteries - pixels, à partir de chacune desquelles la sortie de courant est lue séparément. L'optique concentre la lumière sur une matrice photo et l'électronique lit l'intensité de la libération d'énergie de chaque pixel. À partir des données obtenues, une image est construite dans des nuances de gris - du courant nul dans l'obscurité au maximum dans la lumière, c'est-à-dire qu'à la sortie, elle se révèle être en noir et blanc. Pour le rendre coloré, vous devez appliquer des filtres de couleur. Il s'avère, assez curieusement, que des filtres de couleur sont présents dans chaque smartphone et chaque appareil photo numérique du magasin le plus proche! (Pour certains, cette information est triviale, mais, selon l'expérience de l'auteur, pour beaucoup, elle se révélera être une nouvelle.) Dans le cas de l'équipement photographique conventionnel, une alternance de filtres rouge, vert et bleu est utilisée, qui sont alternativement superposées sur des pixels individuels de la matrice - c'est ce que l'on appelle le filtre Bayer.

Un filtre bayer est à moitié vert, tandis que le rouge et le bleu représentent un quart de la surface
Un filtre bayer est à moitié vert, tandis que le rouge et le bleu représentent un quart de la surface

Un filtre bayer est à moitié vert, tandis que le rouge et le bleu représentent un quart de la surface.

La NASA n'est pas du tout chargée de fournir de belles photographies pour les communiqués de presse et les médias. Les caméras des engins spatiaux sont principalement des instruments techniques ou scientifiques qui aident à contrôler ces engins spatiaux ou à obtenir des informations sur l'espace. Nous en avons déjà parlé en détail dans l'article «Comment les planètes sont étudiées à l'aide de la lumière».

Ici, nous allons répéter: les caméras de navigation produisent des images en noir et blanc parce que ces fichiers pèsent moins, et aussi parce que la couleur n'y est tout simplement pas nécessaire. Les caméras scientifiques peuvent extraire plus d'informations sur l'espace que l'œil humain ne peut en percevoir, et par conséquent, une gamme plus large de filtres de couleur est utilisée pour elles:

Matrice et tambour de filtre de l'instrument OSIRIS à Rosetta
Matrice et tambour de filtre de l'instrument OSIRIS à Rosetta

Matrice et tambour de filtre de l'instrument OSIRIS à Rosetta.

L'utilisation d'un filtre proche infrarouge, qui n'est pas visible à l'œil, au lieu de rouge, a conduit à la rougeur de Mars dans de nombreuses images qui sont allées aux médias. Toutes les explications sur la gamme infrarouge n'ont pas été réimprimées, ce qui a donné lieu à une discussion séparée, dont nous avons également discuté dans le document "De quelle couleur est Mars".

Cependant, le rover Curiosity dispose d'un filtre Bayer, qui lui permet de filmer dans une couleur familière à nos yeux, bien qu'un ensemble séparé de filtres de couleur soit également inclus avec l'appareil photo.

L'utilisation de filtres séparés est plus pratique pour choisir les plages de lumière dans lesquelles vous voulez regarder l'objet. Mais si cet objet se déplace rapidement, sa position change dans les images dans différentes plages. Dans les images Electro-L, cela était perceptible sur les nuages rapides, qui avaient le temps de se déplacer en quelques secondes pendant que le satellite changeait le filtre. Sur Mars, cela s'est produit lors de la prise de couchers de soleil depuis le rover Spirit et Opportunity - ils n'ont pas de filtre Bayer:

Sunset, filmé par "Spirit" en 489 sol. Superposer des images prises avec des filtres à 753 535 et 432 nanomètres
Sunset, filmé par "Spirit" en 489 sol. Superposer des images prises avec des filtres à 753 535 et 432 nanomètres

Sunset, filmé par "Spirit" en 489 sol. Superposer des images prises avec des filtres à 753 535 et 432 nanomètres.

Sur Saturne, Cassini a des difficultés similaires:

Les lunes de Saturne Titan (arrière) et Rhea (avant) dans les images de Cassini
Les lunes de Saturne Titan (arrière) et Rhea (avant) dans les images de Cassini

Les lunes de Saturne Titan (arrière) et Rhea (avant) dans les images de Cassini.

Au point de Lagrange, DSCOVR rencontre la même situation:

Transit lunaire à travers le disque terrestre dans l'image DSCOVR le 16 juillet 2015
Transit lunaire à travers le disque terrestre dans l'image DSCOVR le 16 juillet 2015

Transit lunaire à travers le disque terrestre dans l'image DSCOVR le 16 juillet 2015.

Pour obtenir une belle photo de ce cliché, adaptée à une diffusion dans les médias, il faut travailler dans un éditeur d'images.

Il existe un autre facteur physique que tout le monde ne connaît pas: les images en noir et blanc ont une résolution et une clarté supérieures à celles des couleurs. Ce sont les images dites panchromatiques, qui incluent toutes les informations lumineuses entrant dans la caméra, sans filtrer aucune partie de celle-ci. Par conséquent, de nombreuses caméras satellites «longue portée» ne tournent qu'en panchrome, ce qui signifie pour nous des cadres en noir et blanc. Une telle caméra LORRI est installée sur New Horizons, une caméra NAC sur le satellite lunaire LRO. En fait, tous les télescopes sont filmés en panchrome, sauf si des filtres sont spécifiquement utilisés. ("La NASA cache la vraie couleur de la lune" est son origine.)

Une caméra "couleur" multispectrale, équipée de filtres et ayant une résolution beaucoup plus faible, peut être attachée à une caméra panchromatique. Dans le même temps, ses images couleur peuvent être superposées à des images panchromatiques, ce qui nous permet d'obtenir des images couleur haute résolution. Cette méthode est souvent utilisée lors de l'arpentage de la Terre. Si vous le savez, vous pouvez voir dans certains cadres un halo typique, qui laisse un cadre de couleur flou:

Pluton dans l'imagerie New Horizons
Pluton dans l'imagerie New Horizons

Pluton dans l'imagerie New Horizons.

C'est grâce à cette superposition que le cadre très impressionnant de la Terre au-dessus de la Lune a été créé, qui est donné ci-dessus à titre d'exemple de superposition de différentes images.

Souvent, vous devez recourir aux outils des éditeurs graphiques lorsque vous devez nettoyer un cadre avant de le publier. L'idée de l'impeccabilité de la technologie spatiale n'est pas toujours justifiée, donc les déchets sur les caméras spatiales sont une chose courante. Par exemple, la caméra MAHLI du rover Curiosity est tout simplement sale, sinon vous ne pouvez pas dire:

L'un des panoramas pris par Curiosity avec le Mars Hand Lens Imager (MAHLI) dans Sol 1401
L'un des panoramas pris par Curiosity avec le Mars Hand Lens Imager (MAHLI) dans Sol 1401

L'un des panoramas pris par Curiosity avec le Mars Hand Lens Imager (MAHLI) dans Sol 1401.

Sorinka dans le télescope solaire STEREO-B a donné naissance à un mythe distinct à propos d'une station spatiale extraterrestre volant constamment au-dessus du pôle nord du soleil:

Image
Image

Même dans l'espace, les particules chargées ne sont pas rares, qui laissent leurs traces sur la matrice sous forme de points ou de rayures séparés. Plus l'exposition est longue, plus il reste de traces, de la "neige" apparaît sur les cadres, ce qui n'a pas l'air très présentable dans les médias, ils essaient donc aussi de le nettoyer (lire: "photoshop") avant publication:

Image
Image

Par conséquent, nous pouvons dire: oui, les images de la NASA «photoshoppées» depuis l'espace. Photoshop de l'ESA. Roskosmos "photoshop". ISRO "photoshop". JAXA "photoshoppé" … Non seulement "photoshoppé" est l'Agence spatiale nationale de la Zambie. Donc, si quelqu'un n'est pas satisfait des images de la NASA, vous pouvez toujours utiliser ses images spatiales sans aucun signe de traitement.

Vitaly Egorov

Recommandé: