Page en chantier
[https://www.youtube.com/watch?v=x9t9kLNbWJ4] 12 février 2023
Par cocadmin
Avertissement : Attribuer le titre de "transistor" - réservé pour le semi-conducteur - à des tubes à vide - des "lampes (de radio)" en France - nuit gravement à la qualité de la vidéo.
En effet, au début, ce ne sont pas des transistors mais des tubes à vide (1904 pour la première lampe diode). Les transistors sont apparus plus tard (1947). La vulgarisation c'est bien mais attention aux termes employés.
À part ce (gros) détail, la vidéo est un résumé rapide mais plutôt clair de l'histoire du hardware informatique. C'est comme un voyage dans l'Histoire de l'Informatique. C'est passionnant et très bien monté.
Quelques points complémentaires n'apparaissant pas dans le PDF :
Selon des internautes
1904. La première lampe diode remonte au début du XXe siècle (Fleming, UK) et permettait de redresser des courants alternatifs.
1906. La première triode (à tube), susceptible d'amplifier un signal, de commander et moduler un courant, a été inventée par Lee de Forest.
1941. Création du premier ordinateur programmable en calcul binaire et à virgule flottante qui a vraiment fonctionné : le Z3, par Konrad Zuse, ingénieur allemand. https://fr.wikipedia.org/wiki/Konrad_Zuse
1942. Allan Turing craque Enigma. Les aspects historiques de l'informatique sont passionnants et antérieurs aux développements américains, par exemple Colossus, développé en Grande-Bretagne pour faciliter le décryptage des messages codés par les machines allemandes Enigma.
1946. L’Américain J. von Neumann imagine le traitement séquentiel des données, développe le concept de programme enregistré et décrit l’architecture des ordinateurs. (Vu dans le PDF)
1947. Invention du cristal de semi-conducteur dopé (transistor). Dans le PDF "1947, décembre : découverte du transistor dans les laboratoires de la Bell Telephone, semi-conducteur permettant de diminuer très notablement la durée du trajet parcouru par les impulsions électriques dans 1 circuit, de dissiper par conséquent beaucoup moins de chaleur".
Note sur la vidéo : Attention aux confusions entre tube sous vide, ceux que vous nous montrez à 1:48 (redresseur EZ80, double triodes 12AU7 ou ECC82, EL84 pentode, à droite etc etc), et transistors. Ces derniers, au germanium, ont été "découverts" par un groupe de chercheur Américain de la Cie Bell NY (par Bardeen et Brattain) en toute fin 1947 et 3 de ces chercheurs ont reçu le prix Nobel de physique en 1956.
1948. Marque déposée "Transistor", uniquement avec des semi-conducteurs. Shockley est à la base de la jonction bipolaire.
1954. Le transistor commence à être vraiment utilisé.
1960. Invention à Paris du "tout premier circuit intégré" en Silicium sur Saphir artificiel. Il y a eu au moins un brevet. C'était au départ une simple diode, d'un millimètre de côté. C'était financé, les recherches, par des Anglais, et peut être aussi par des Américains. Toutes les précédentes tentatives, c'était avec effectivement du Germanium.
NB. Le PDF mentionne : "1958 : circuit intégré inventé par Jack Kilby, ingénieur américain employé depuis cette année-là chez Texas Instruments (figurait alors parmi les firmes électroniques engagées dans le mouvement de miniaturisation et de standardisation lancé par les militaires ; prééminence notable en devenant la 1ère entreprise du monde à fabriquer à grande échelle des transistors au silicium). Marque le début des calculatrices de la 3ème génération, de dimensions et coût réduits considérablement, débouchant dès lors sur l’apparition des... calculettes (courant des années 1960)"
Un témoignage. Ça commence avec les diodes, qu'on appelait valves et ensuite les tétrodes, pentodes. Personne n'a nommé les lampes transistors, puisque ces derniers n'avaient pas encore été inventés. Le dernier kit d'amplificateur musical à lampe que j'ai construit avait un transistor en entrée. Quand il fallut souder ce composant, c'était à la fois inquiétant à cause de tous les bruits qui l'entouraient, mystérieux et révolutionnaire. (internaute oc4362)
Une information. Les Russes avaient à une époque produit des micro tubes qui étaient tellement petits qu'ils ne nécessitaient pas de filament de chauffage, cette technologie étant apparue après l'invention des transistors au germanium , elle n'est jamais sortie de l'URSS et n'a pas perduré.
Le long exposé d'un internaute (très bien fait) à propos de la vidéo et de l'histoire de "l'ordinateur"
C'est sympa comme vidéo, mais un peu léger, si je peux me permettre. Pour commencer, difficile de faire une "histoire" de l'ordinateur sans commencer avec au moins la Pascaline (de Blaise Pascal - XVIIe siècle) et surtout, ensuite (XIXe siècle), la vraie naissance théorique avec la machine de Babbage. Et l'apparition d'Ada Lovelace qui en comprend l'utilité et va, littéralement, écrire le premier programme de l'histoire : encore une fois, c'est une femme qui est pionnière. Le langage de programmation Ada est d'ailleurs nommé en son hommage. Passer sous silence Colossus, la machine anglaise de la seconde guerre mondiale, et nous mettre l'ENIAC comme motivation US contre l'URSS en période de guerre froide, c'est se tromper aussi dans le timing et négliger qu'à la fin de la guerre, seuls les USA ont la bombe Atomique. L'armée de femmes qui calculent, ça ne date pas de la seconde guerre mondiale - historiquement les maths étaient parmi les rares choses que les femmes pouvaient apprendre, et c'est ainsi que plein de petites mains silencieuses faisaient les calculs de beaucoup de scientifiques de renom. J'ai même entendu que c'était déjà le cas pour la découverte et prédiction de Neptune, les calculs de Le Verrier auraient été faits par ces petites mains. Mais, ne pas expliquer l'origine du mot "ordinateur" est dommageable, à mon avis. IBM France avait besoin d'un nom français, et le responsable publicité a demandé à Jacques Perret, professeur à La Sorbonne, de trouver un mot. Ordinateur est ainsi né, signifiant "le grand ordonnateur", celui qui est l'ordre et qui fait l'ordre : Dieu, en somme. M. Perret a considéré que la confusion avec Dieu ne pourrait pas se faire. Ça, c'était en 1955. Pour la loi de Moore, attention aussi : il a corrigé sa "loi" assez tôt, donc celle que nous connaissons, un peu retravaillé, est en fait déjà une seconde version, moins "optimiste" que la première. Parler d'Intel sans parler de Fairchild Semi-conductor est aussi dommageable : les créateurs d'Intel sont tous partis de cette société, où ils se sont rencontrés et ont eut leur vision. Quant à la première puce d'Intel et l'idée qui va avec, ne pas raconter comment ils en sont venus à faire ça et pour quel besoin (des calculatrices pour un fabricant Japonais) *, c'est rater le point d'inflexion de l'histoire. C'est ça qui démontre que l'idée est bonne, et c'est cet argent qui lance Intel. Voilà, c'est pas faux, mais léger. Y a des trous importants pour "l'histoire du tout premier ordinateur". Mais c'est sympa tout de même de faire ce type de vidéo. * Dans le PDF "1970 : l’Américain Gilbert Hyatt découvre le microprocesseur qui deviendra la puce."
De la vulgarisation, à propos de la vidéo
Franchement cocadmin a fait une version ultra simplifiée pour être clair, et sur les transistors on aura du mal à trouver plus simple comme explication car c'est un domaine très complexe en constante et rapide évolution.
Pour une "version longue", il faut creuser - le dopage du silicium et les jonctions N et P des transistors (ou comment on fait un transistors physiquement et comment il marche électriquement) - la construction des 'gates' comment on fait des 'and' 'not' 'or' 'nor' (comment faire des opérations logiques en électronique) - le calcul en binaire et les bits/octets (comment on calcul et stock de l'information physiquement) - les puces génériques (comment on créé une puce générique et qu'est ce que générique)...
Et ça, ce n'est que la partie transistor, après, il faut ajouter l'écran, les disques durs, disquettes, CD... Ce qui est difficile, c'est qu'un ordi est la conjonction de centaines de savoir-faire et de progrès scientifiques, comprendre le summum de l'intelligence humaine compressée dans un si petit objet vaut cependant bien le coup !
Voir Parties d'ordinateur
Des "tubes à vides"
N’utilisez pas le terme de transistor pour des tubes à vide
Les transistors sont forcément des semi-conducteurs, c’est leur définition. Préférez le terme de composant ou de circuit ; on utilise le terme de circuit logique, qu’il soit à tube ou à semi-conducteur. Le terme de transistor est apparu lors de l'invention des semi-conducteurs, la diode tout d'abord puis le transistor ensuite (1947), technique consistant à doper en électrons des matériaux comme le silicium, l’arsenic le germanium, alors que le tube à vide utilise le principe de thermo-ionique c.-à-d. la libération d'électrons par la chaleur.
Le tube à vide, notamment utilisé dans le poste radio de salon, pourrait être utilisé comme un transistor à effet de champs, la grille faisant office de mur électronique que l'on affaiblissait pour le rendre passant ou que l'on renforçait pour le rendre non passant. Mais un tube reste un tube, appelé en électronique "tube thermo-ionique". Il est aussi à l'origine des circuits MOSFET. Mais c'est bien loin de la physique du solide et notamment des semi-conducteurs.
À propos de l'ENIAC
Le premier "ordinateur" utilise les tubes à vide
Il y a le tube à vide qui est un amplificateur analogique, pour la réalisation d'un ampli audio par exemple, et le transistor, c'est à peu près la même chose, mais réalisé avec du semi-conducteur. Le transistor a remplacé le tube au fil des ans. Ces deux types de composants amplifient de façon plus ou moins linéaire un signal d'entrée. Deux états particuliers sont utilisés en logique (contrairement en analogique). C'est l'état ON ou OFF. Effectivement, on peut réaliser des portes logiques CÂBLÉES. La multiplication de ces portes logiques permet de réaliser des choses plus importantes comme effectivement l'ENIAC. Ce "premier ordinateur" n'est pas du tout programmable. Les opérations nécessaires aux calculs balistiques sont câblées. Et en fait les premières personnes qui manipulent cette machine se contentent de "rentrer" les paramètres nécessaires aux calculs. La programmabilité impose de la mémoire et du séquençage, ce qui n'est pas du tout le cas de l'ENIAC.
L'ENIAC utilisait des tubes (les 6SN7 ?). C'est ce qui explique sa taille et son manque de fiabilité. Puisque les tubes à vide grillent assez souvent. L'ENIAC contenait uniquement des tubes à vide, des résistances, des diodes, des relais et des condensateurs. S'il est vrai que les besoins en calcul pour établir les tables d'artilleries ou pour les bombardiers ont largement contribué à la création de l'ENIAC, celui-ci a vite été détourné pour les calculs nécessaires à l'élaboration des premières bombes atomiques. À ce sujet, est recommandée la lecture (en anglais) du bouquin de Georges Dyson Turing's Cathedral.
Il est également impensable de ne pas mentionner John Von Neuman (1946) dans l'aventure des premiers ordinateurs (et des premières bombes)
De même, Grace Hopper (1906-1992), mathématicienne pionnière de l'informatique et amiral de la Marine américaine, qui a travaillé sur un dispositif nommé Automatic Sequence Controlled Calculator qui permettait de planifier des trajectoires de vol pour les fusées et a finalement été utilisé par les scientifiques du Projet Manhattan pour construire la bombe atomique.
Anecdote. À la fin de la Seconde Guerre mondiale, elle [Grace Hopper] quitte le service actif de la marine, mais continue de travailler au développement des ordinateurs Harvard Mark II puis Harvard Mark III. De cette époque date l’anecdote d'une panne de Mark II, due à un petit insecte pris dans un relais. Nous devrions peut-être remercier Grace Hopper pour la vulgarisation du mot « bug » quand un vrai insecte, bug en anglais, a été trouvé dans l’ordinateur sur lequel elle travaillait, et qui ralentissait ses processus !