Souviens-toi De Tout. L'évolution De La Mémoire Informatique - Vue Alternative

Table des matières:

Souviens-toi De Tout. L'évolution De La Mémoire Informatique - Vue Alternative
Souviens-toi De Tout. L'évolution De La Mémoire Informatique - Vue Alternative

Vidéo: Souviens-toi De Tout. L'évolution De La Mémoire Informatique - Vue Alternative

Vidéo: Souviens-toi De Tout. L'évolution De La Mémoire Informatique - Vue Alternative
Vidéo: Les mémoires 2024, Juin
Anonim

Dans les temps anciens - c'était il y a près de 80 ans, à l'aube de la technologie informatique - la mémoire des appareils informatiques était généralement divisée en trois types. Primaire, secondaire et externe. Désormais, personne n'utilise cette terminologie, bien que la classification elle-même existe à ce jour. Seule la mémoire principale est maintenant appelée disque dur opérationnel, secondaire - interne, et la mémoire externe est déguisée en toutes sortes de disques optiques et de lecteurs flash.

Avant de commencer un voyage dans le passé, comprenons la classification ci-dessus et comprenons à quoi sert chaque type de mémoire. Un ordinateur représente des informations sous la forme d'une séquence de bits - des chiffres binaires avec des valeurs de 1 ou 0. L'unité d'information universelle généralement acceptée est un octet, généralement composé de 8 bits. Toutes les données utilisées par l'ordinateur occupent un certain nombre d'octets. Par exemple, un fichier de musique typique est de 40 millions de bits - 5 millions d'octets (ou 4,8 mégaoctets). Le processeur central ne peut pas fonctionner sans un dispositif de mémoire élémentaire, car tout son travail se réduit à recevoir, traiter et réécrire en mémoire. C'est pourquoi le légendaire John von Neumann (nous avons mentionné son nom plus d'une fois dans une série d'articles sur les mainframes) a proposé une structure indépendante à l'intérieur de l'ordinateur,où toutes les données nécessaires seraient stockées.

La classification de la mémoire interne divise également le support selon le principe de vitesse (et d'énergie). La mémoire primaire rapide (accès aléatoire) est aujourd'hui utilisée pour stocker les informations critiques auxquelles le processeur accède le plus souvent. Il s'agit du noyau du système d'exploitation, des fichiers exécutables des programmes en cours d'exécution, des résultats intermédiaires des calculs. Le temps d'accès est minime, à peine quelques nanosecondes.

La mémoire principale communique avec un contrôleur situé soit à l'intérieur du processeur (dans les derniers modèles de CPU), soit en tant que puce séparée sur la carte mère (pont nord). Le prix de la RAM est relativement élevé, en plus, il est volatile: ils ont éteint l'ordinateur ou ont accidentellement retiré le cordon d'alimentation de la prise - et toutes les informations ont été perdues. Par conséquent, tous les fichiers sont stockés dans la mémoire secondaire - sur des plateaux de disque dur. Les informations ici ne sont pas effacées après une panne de courant et le prix par mégaoctet est très bas. Le seul inconvénient des disques durs est la faible vitesse de réaction, elle se mesure déjà en millisecondes.

Au fait, un fait intéressant. À l'aube du développement des ordinateurs, la mémoire primaire n'était pas séparée de la mémoire secondaire. L'unité de traitement principale était très lente et la mémoire ne donnait pas d'effet de goulot d'étranglement. Les données en ligne et persistantes étaient stockées dans les mêmes composants. Plus tard, lorsque la vitesse des ordinateurs a augmenté, de nouveaux types de supports de stockage sont apparus.

Retour au passé

L'un des principaux composants des premiers ordinateurs étaient les commutateurs électromagnétiques, développés par le célèbre scientifique américain Joseph Henry en 1835, alors que personne ne rêvait même d'ordinateurs. Le mécanisme simple se composait d'un noyau métallique enroulé de fil, de raccords en fer mobiles et de quelques contacts. Le développement d'Henry a formé la base du télégraphe électrique de Samuel Morse et Charles Whitstone.

Vidéo promotionelle:

Image
Image

Le premier ordinateur basé sur des commutateurs est apparu en Allemagne en 1939. L'ingénieur Konrad Süs les a utilisés pour créer la logique système de l'appareil Z2. Malheureusement, la voiture n'a pas vécu longtemps et ses plans et photographies ont été perdus lors des bombardements de la Seconde Guerre mondiale. Le prochain appareil informatique Sius (sous le nom de Z3) est sorti en 1941. C'était le premier ordinateur contrôlé par le programme. Les principales fonctions de la machine ont été réalisées avec 2000 interrupteurs. Konrad allait transférer le système vers des composants plus modernes, mais le gouvernement a fermé le financement, estimant que les idées de Sius n'avaient pas d'avenir. Comme son prédécesseur, le Z3 a été détruit lors des bombardements alliés.

Les interrupteurs électromagnétiques ont fonctionné très lentement, mais le développement de la technologie ne s'est pas arrêté. Le deuxième type de mémoire pour les premiers systèmes informatiques était les lignes à retard. L'information était transportée par des impulsions électriques, qui étaient converties en ondes mécaniques et déplacées à faible vitesse à travers le mercure, un cristal piézoélectrique ou une bobine magnétorésistive. Il y a une onde - 1, il n'y a pas d'onde - 0. Des centaines et des milliers d'impulsions pourraient traverser le matériau conducteur par unité de temps. À la fin de son trajet, chaque onde a été reconvertie en une impulsion électrique et envoyée au début - voici l'opération de mise à jour la plus simple pour vous.

La ligne à retard a été développée par l'ingénieur américain John Presper Eckert. L'ordinateur EDVAC, introduit en 1946, contenait deux blocs de mémoire avec 64 lignes à retard à base de mercure (5,5 Ko selon les normes modernes). À cette époque, c'était plus que suffisant pour le travail. La mémoire secondaire était également présente dans EDVAC - les résultats des calculs ont été enregistrés sur bande magnétique. Un autre système, UNIVAC 1, sorti en 1951, utilisait 100 blocs basés sur des lignes à retard et avait une conception complexe avec de nombreux éléments physiques pour stocker les données.

La mémoire de la ligne à retard ressemble plus au moteur de l'hyperespace d'un vaisseau spatial. C'est difficile à imaginer, mais un tel colosse ne pourrait stocker que quelques bits de données
La mémoire de la ligne à retard ressemble plus au moteur de l'hyperespace d'un vaisseau spatial. C'est difficile à imaginer, mais un tel colosse ne pourrait stocker que quelques bits de données

La mémoire de la ligne à retard ressemble plus au moteur de l'hyperespace d'un vaisseau spatial. C'est difficile à imaginer, mais un tel colosse ne pourrait stocker que quelques bits de données!

Les enfants de Bobek

Deux inventions assez importantes dans le domaine des supports de données sont restées dans les coulisses de nos recherches. Les deux ont été réalisés par Andrew Bobek, un employé talentueux des Bell Labs. Le premier développement, la mémoire dite twistor, pourrait être une excellente alternative à la mémoire à noyau magnétique. Elle a largement répété ce dernier, mais au lieu d'anneaux de ferrite pour le stockage des données, elle a utilisé une bande magnétique. La technologie présente deux avantages importants. Premièrement, la mémoire de torsion pourrait simultanément écrire et lire des informations à partir d'un certain nombre de torsions. De plus, il était facile de mettre en place une production automatique. Bell Labs espérait que cela réduirait considérablement le prix de la mémoire twistor et occuperait un marché prometteur.

Image
Image

Le développement a été financé par l'US Air Force, et la mémoire devait devenir une cellule fonctionnelle importante des missiles Nike Sentinel. Malheureusement, le travail sur les torsions a pris beaucoup de temps et la mémoire basée sur les transistors est apparue au premier plan. La capture du marché n'a pas eu lieu.

«Pas de chance la première fois, tellement chanceux la seconde», pensa Bell Labs. Au début des années 70, Andrew Bobek a introduit la mémoire à bulles non volatiles. Il était basé sur un film magnétique mince qui contenait de petites régions magnétisées (bulles) qui stockaient des valeurs binaires. Après un certain temps, la première cellule compacte d'une capacité de 4096 bits est apparue - un appareil mesurant un centimètre carré avait la capacité d'une bande entière avec des noyaux magnétiques.

De nombreuses entreprises se sont intéressées à l'invention et au milieu des années 70, tous les principaux acteurs du marché ont repris le développement dans le domaine de la mémoire à bulles. La structure non volatile a fait des bulles un remplacement idéal pour la mémoire primaire et secondaire. Mais même ici, les plans des Bell Labs ne se sont pas réalisés - les disques durs bon marché et la mémoire à transistors bloquaient l'oxygène de la technologie des bulles.

Le vide est notre tout

À la fin des années 40, la logique système des ordinateurs s'est déplacée vers des tubes à vide (ce sont aussi des tubes électroniques ou des arbres thermo-ioniques). Avec eux, la télévision, les appareils de reproduction du son, les ordinateurs analogiques et numériques ont reçu un nouvel élan de développement.

Les tubes à vide ont survécu dans la technologie à ce jour. Ils sont particulièrement appréciés des audiophiles. On pense que le circuit d'amplification basé sur des tubes à vide est un cran au-dessus des analogues modernes en termes de qualité sonore
Les tubes à vide ont survécu dans la technologie à ce jour. Ils sont particulièrement appréciés des audiophiles. On pense que le circuit d'amplification basé sur des tubes à vide est un cran au-dessus des analogues modernes en termes de qualité sonore

Les tubes à vide ont survécu dans la technologie à ce jour. Ils sont particulièrement appréciés des audiophiles. On pense que le circuit d'amplification basé sur des tubes à vide est un cran au-dessus des analogues modernes en termes de qualité sonore.

Sous la mystérieuse phrase «tube à vide» se trouve un élément assez simple de structure. Il ressemble à une lampe à incandescence ordinaire. Le filament est enfermé dans un espace sans air et, lorsqu'il est chauffé, il émet des électrons qui tombent sur une plaque métallique chargée positivement. Un flux d'électrons est généré à l'intérieur de la lampe sous tension. Le tube à vide peut passer ou bloquer (phases 1 et 0) le courant qui le traverse, agissant comme un composant électronique des ordinateurs. Pendant le fonctionnement, les tubes à vide deviennent très chauds, ils doivent être refroidis intensivement. Mais ils sont beaucoup plus rapides que les commutateurs antédiluviens.

La mémoire primaire basée sur cette technologie est apparue en 1946-1947, lorsque les inventeurs Freddie Williams et Tom Kilburn ont introduit la pipe Williams-Kilburn. La méthode de stockage des données était très ingénieuse. Dans certaines conditions, un point lumineux est apparu sur le tube, ce qui a légèrement chargé la surface occupée. La zone autour du point a acquis une charge négative (on l'appelait un «puits d'énergie»). Un nouveau point pourrait être placé dans le «puits» ou laissé sans surveillance - alors le point d'origine disparaîtrait rapidement. Ces transformations ont été interprétées par le contrôleur de mémoire comme des phases binaires 1 et 0. La technologie était très populaire. La mémoire à tube Williams-Kilburn a été installée sur les ordinateurs Ferranti Mark 1, IAS, UNIVAC 1103, IBM 701, IBM 702 et Standards Western Automatic Computer (SWAC).

En parallèle, des ingénieurs de la Radio Corporation of America sous la direction du scientifique Vladimir Zvorykin développaient leur propre tube, appelé sélectron. Selon l'idée des auteurs, le séléktron était censé contenir jusqu'à 4096 bits d'information, soit quatre fois plus que le tube Williams-Kilburn. On a estimé qu'à la fin de 1946, environ 200 sélectrons seraient produits, mais la production s'est avérée très coûteuse.

Jusqu'au printemps 1948, la Radio Corporation of America n'a pas sorti un seul sélecteur, mais les travaux sur le concept se sont poursuivis. Les ingénieurs ont repensé le tube et une version plus petite de 256 bits est maintenant disponible. Les mini-sélectrons étaient plus rapides et plus fiables que les tubes Williams-Kilburn, mais coûtaient 500 $ chacun. Et c'est en production de masse! Les sélecteurs, cependant, ont réussi à entrer dans la machine informatique - en 1953, la société RAND a sorti un ordinateur sous le drôle de nom JOHNNIAC (en l'honneur de John von Neumann). Des sélecteurs réduits de 256 bits ont été installés dans le système et la mémoire totale était de 32 octets.

Outre les tubes à vide, certains ordinateurs de l'époque utilisaient une mémoire à tambour, inventée par Gustav Tauscek en 1939. La conception simple impliquait un grand cylindre métallique revêtu d'un alliage ferromagnétique. Les têtes de lecture, contrairement aux disques durs modernes, ne se déplaçaient pas sur la surface du cylindre. Le contrôleur de mémoire a attendu que les informations passent sous les têtes de lui-même. La mémoire à tambour a été utilisée dans l'ordinateur Atanasov-Berry et dans certains autres systèmes. Malheureusement, ses performances étaient très faibles.

La Séléktron n’était pas destinée à conquérir le marché de l’informatique - des composants électroniques d'apparence soignée sont restés en train de ramasser la poussière dans la poubelle de l'histoire. Et ceci malgré les caractéristiques techniques exceptionnelles
La Séléktron n’était pas destinée à conquérir le marché de l’informatique - des composants électroniques d'apparence soignée sont restés en train de ramasser la poussière dans la poubelle de l'histoire. Et ceci malgré les caractéristiques techniques exceptionnelles

La Séléktron n’était pas destinée à conquérir le marché de l’informatique - des composants électroniques d'apparence soignée sont restés en train de ramasser la poussière dans la poubelle de l'histoire. Et ceci malgré les caractéristiques techniques exceptionnelles.

Tendances modernes

Pour le moment, le marché de la mémoire primaire est régi par la norme DDR. Plus précisément, sa deuxième génération. La transition vers la DDR3 aura lieu très prochainement - il reste à attendre l'apparition de chipsets bon marché supportant le nouveau standard. La standardisation généralisée a rendu le segment de mémoire trop ennuyeux à décrire. Les fabricants ont cessé d'inventer de nouveaux produits uniques. Tout le travail consiste à augmenter la fréquence de fonctionnement et à installer un système de refroidissement sophistiqué.

Image
Image

La stagnation technologique et les étapes d'évolution timides se poursuivront jusqu'à ce que les fabricants atteignent la limite des capacités du silicium (c'est à partir de laquelle sont fabriqués les circuits intégrés). Après tout, la fréquence du travail ne peut pas être augmentée à l'infini.

Cependant, il y a un problème ici. Les performances des puces DDR2 existantes sont suffisantes pour la plupart des applications informatiques (les programmes scientifiques complexes ne comptent pas). L'installation de modules DDR3 fonctionnant à 1066 MHz et plus ne conduit pas à une augmentation tangible de la vitesse.

Star Trek vers le futur

Le principal inconvénient de la mémoire, et de tous les autres composants basés sur des tubes à vide, était la génération de chaleur. Les tuyaux devaient être refroidis avec des radiateurs, de l'air et même de l'eau. De plus, un chauffage constant réduisait considérablement le temps de fonctionnement - les tubes se dégradaient de la manière la plus naturelle. À la fin de leur durée de vie, ils ont dû être constamment réglés et éventuellement modifiés. Pouvez-vous imaginer combien d'efforts et d'argent il en coûte pour entretenir les systèmes informatiques?!

Texture étrange sur la photo - c'est une mémoire à noyau magnétique. Voici une structure visuelle de l'un des réseaux avec des fils et des anneaux de ferrite. Pouvez-vous imaginer combien de temps vous avez dû passer pour trouver un module non fonctionnel parmi eux?
Texture étrange sur la photo - c'est une mémoire à noyau magnétique. Voici une structure visuelle de l'un des réseaux avec des fils et des anneaux de ferrite. Pouvez-vous imaginer combien de temps vous avez dû passer pour trouver un module non fonctionnel parmi eux?

Texture étrange sur la photo - c'est une mémoire à noyau magnétique. Voici une structure visuelle de l'un des réseaux avec des fils et des anneaux de ferrite. Pouvez-vous imaginer combien de temps vous avez dû passer pour trouver un module non fonctionnel parmi eux?

Puis vint le temps des réseaux avec des anneaux de ferrite très rapprochés - une invention des physiciens américains An Wang et Wei-Dong Wu, modifiée par des étudiants sous la direction de Jay Forrester de la Massachusetts University of Technology (MIT). Les fils de connexion traversaient les centres des anneaux à un angle de 45 degrés (quatre pour chaque anneau dans les premiers systèmes, deux dans les systèmes plus avancés). Sous tension, les fils magnétisent des anneaux de ferrite, dont chacun peut stocker un bit de données (aimanté - 1, démagnétisé - 0).

Jay Forrester a développé un système dans lequel les signaux de commande pour plusieurs cœurs étaient envoyés sur quelques fils seulement. En 1951, une mémoire basée sur des noyaux magnétiques (un analogue direct de la mémoire vive moderne) a été libérée. Plus tard, il a pris sa place légitime dans de nombreux ordinateurs, y compris les premières générations de mainframes de DEC et IBM. Comparé à ses prédécesseurs, le nouveau type de mémoire n'avait pratiquement aucun inconvénient. Sa fiabilité était suffisante pour fonctionner dans des engins militaires et même spatiaux. Après le crash de la navette Challenger, qui a entraîné la mort de sept de ses membres d'équipage, les données de l'ordinateur de bord, enregistrées dans la mémoire avec des noyaux magnétiques, sont restées intactes et intactes.

La technologie a été progressivement améliorée. Les billes de ferrite ont diminué de taille, la vitesse de travail a augmenté. Les premiers échantillons fonctionnaient à une fréquence d'environ 1 MHz, le temps d'accès était de 60 000 ns - au milieu des années 70, il était tombé à 600 ns.

Chérie, j'ai réduit notre mémoire

Le prochain bond en avant dans le développement de la mémoire informatique est venu lorsque les circuits intégrés et les transistors ont été inventés. L'industrie a emprunté la voie de la miniaturisation des composants tout en augmentant leurs performances. Au début des années 1970, l'industrie des semi-conducteurs maîtrisait la production de microcircuits hautement intégrés - des dizaines de milliers de transistors s'adaptent désormais dans une zone relativement restreinte. Des puces mémoire d'une capacité de 1 Kbit (1024 bits), de petites puces pour calculatrices et même les premiers microprocesseurs sont apparus. Une véritable révolution s'est produite.

Les fabricants de mémoire de nos jours sont plus préoccupés par l'apparence de leurs produits - toutes les mêmes normes et caractéristiques sont prédéterminées dans des commissions comme JEDEC
Les fabricants de mémoire de nos jours sont plus préoccupés par l'apparence de leurs produits - toutes les mêmes normes et caractéristiques sont prédéterminées dans des commissions comme JEDEC

Les fabricants de mémoire de nos jours sont plus préoccupés par l'apparence de leurs produits - toutes les mêmes normes et caractéristiques sont prédéterminées dans des commissions comme JEDEC.

Le Dr Robert Dennard d'IBM a apporté une contribution particulière au développement de la mémoire primaire. Il a développé la première puce basée sur un transistor et un petit condensateur. En 1970, le marché a été stimulé par Intel (qui était apparu juste deux ans plus tôt) avec l'introduction de la puce mémoire 1Kb i1103. Deux ans plus tard, ce produit est devenu la puce de mémoire à semi-conducteur la plus vendue au monde.

À l'époque du premier Apple Macintosh, le bloc de RAM occupait une énorme barre (sur la photo ci-dessus), alors que le volume ne dépassait pas 64 Ko
À l'époque du premier Apple Macintosh, le bloc de RAM occupait une énorme barre (sur la photo ci-dessus), alors que le volume ne dépassait pas 64 Ko

À l'époque du premier Apple Macintosh, le bloc de RAM occupait une énorme barre (sur la photo ci-dessus), alors que le volume ne dépassait pas 64 Ko.

Les microcircuits hautement intégrés ont rapidement remplacé les anciens types de mémoire. Avec la transition vers le niveau de développement suivant, les gros ordinateurs centraux ont cédé la place aux ordinateurs de bureau. La mémoire principale à cette époque était finalement séparée de la secondaire, elle prenait la forme de puces séparées d'une capacité de 64, 128, 256, 512 Kbit et même 1 Mbit.

Enfin, les puces de mémoire principales ont été déplacées des cartes mères vers des bandes séparées, ce qui a grandement facilité l'installation et le remplacement des composants défectueux. Les fréquences ont commencé à augmenter, les temps d'accès ont diminué. Les premières puces SDRAM dynamiques synchrones sont apparues en 1993, introduites par Samsung. Les nouveaux microcircuits fonctionnaient à 100 MHz, le temps d'accès était de 10 ns.

À partir de ce moment, la marche victorieuse de la SDRAM a commencé et, en 2000, ce type de mémoire avait évincé tous les concurrents. La commission JEDEC (Joint Electron Device Engineering Council) a repris la définition des standards sur le marché RAM. Ses participants ont élaboré des spécifications uniformes pour tous les fabricants, des fréquences approuvées et des caractéristiques électriques.

L'évolution ultérieure n'est pas si intéressante. Le seul événement significatif a eu lieu en 2000, lorsque la RAM standard DDR SDRAM est apparue sur le marché. Il a fourni deux fois la bande passante de la SDRAM conventionnelle et a préparé le terrain pour une croissance future. La DDR a été suivie en 2004 par la norme DDR2, qui est toujours la plus populaire.

Troll de brevet

Dans le monde informatique moderne, l'expression Patent Troll fait référence aux entreprises qui gagnent de l'argent grâce à des poursuites judiciaires. Ils motivent cela par le fait que d'autres entreprises ont violé leurs droits d'auteur. Le développeur de mémoire Rambus relève entièrement de cette définition.

Depuis sa création en 1990, Rambus concède sa technologie à des tiers. Par exemple, ses contrôleurs et ses puces de mémoire se trouvent dans la Nintendo 64 et la PlayStation 2. L'heure la plus belle de Rambus est survenue en 1996, quand Intel a conclu un accord avec Intel pour utiliser les slots RDRAM et RIMM dans ses produits.

Au début, tout s'est déroulé comme prévu. Intel a mis à sa disposition une technologie de pointe et Rambus s'est contenté d'un partenariat avec l'un des plus grands acteurs de l'industrie informatique. Malheureusement, le prix élevé des modules RDRAM et des chipsets Intel a mis fin à la popularité de la plate-forme. Les principaux fabricants de cartes mères ont utilisé des chipsets et des cartes VIA avec des connecteurs pour la SDRAM ordinaire.

Rambus s'est rendu compte qu'à ce stade, il a perdu le marché de la mémoire et a commencé sa longue partie avec les brevets. La première chose qu'elle a rencontrée était un nouveau développement JEDEC - la mémoire DDR SDRAM. Rambus l'a attaquée, accusant les créateurs de violation du droit d'auteur. Pendant un certain temps, la société a reçu des redevances en espèces, mais le prochain procès impliquant Infineon, Micron et Hynix a tout remis à sa place. Le tribunal a reconnu que les développements technologiques dans le domaine de la DDR SDRAM et SDRAM n'appartiennent pas à Rambus.

Depuis lors, le nombre total de réclamations de Rambus contre les principaux fabricants de RAM a dépassé toutes les limites imaginables. Et il semble que ce mode de vie convienne assez bien à l'entreprise.