Petite histoire de l'informatique
- Fiche de cours
- Quiz
- Profs en ligne
- Videos
- Application mobile
Objectif
Connaître
l’évolution de l’informatique de
l’origine de l’ordinateur jusqu’à
nos jours.
1. Qu’est-ce que l’informatique ?
Le terme « informatique » est
utilisé pour la première fois en 1962 par
Philippe
Dreyfus pour désigner le
traitement automatique de
l’information.
Ce nouveau mot vient de l’assemblage de deux mots « information » et « automatique ».
En 1967, l'Académie française définit l’informatique comme « la Science du traitement rationnel, notamment à l'aide de machines automatiques, de l'information, considérée comme le support de connaissances dans les domaines scientifique, économique et social. »
Ce nouveau mot vient de l’assemblage de deux mots « information » et « automatique ».
En 1967, l'Académie française définit l’informatique comme « la Science du traitement rationnel, notamment à l'aide de machines automatiques, de l'information, considérée comme le support de connaissances dans les domaines scientifique, économique et social. »
2. A l’origine de l’ordinateur
a. Un besoin de calculer
A l’origine de l’ordinateur, on retrouve une
très longue série d’inventions dont
les premières datent du 3e
millénaire avant notre ère. Les
bouliers ou
abaques sont
utilisés dès le 7e siècle
av. J.-C. en Mésopotamie. Les Grecs auront des
calculateurs analogues.
Au fil des siècles, le but des hommes sera de calculer de plus en plus vite et en minimisant le plus possible la marge d’erreur. C’est de ce besoin de calculer que naissent les premières machines à calculer.
Au fil des siècles, le but des hommes sera de calculer de plus en plus vite et en minimisant le plus possible la marge d’erreur. C’est de ce besoin de calculer que naissent les premières machines à calculer.
b. Les machines à calculer
En 1642, Blaise
Pascal crée une
machine capable d’additionner et de
soustraire : la Pascaline. Elle
est créée spécifiquement pour le
père de Blaise Pascal, qui était percepteur
d’impôts.
En 1673, Leibniz qui s’est inspiré de la Pascaline invente une machine capable de multiplier et de diviser.
Dès 1820, les premiers calculateurs mécaniques sont fabriqués. Ils ont alors 4 fonctions :
• addition,
• soustraction,
• multiplication,
• division.
En 1834, Charles Babbage s’inspire du métier à tisser de Jacquard pour élaborer une machine qui, à l’aide de cartes perforées, évalue les différentes fonctions.
A partir de 1885, les calculateurs sont dotés de clavier et avec la découverte de l’électricité, des moteurs électriques remplacent les manivelles.
En 1673, Leibniz qui s’est inspiré de la Pascaline invente une machine capable de multiplier et de diviser.
Dès 1820, les premiers calculateurs mécaniques sont fabriqués. Ils ont alors 4 fonctions :
• addition,
• soustraction,
• multiplication,
• division.
En 1834, Charles Babbage s’inspire du métier à tisser de Jacquard pour élaborer une machine qui, à l’aide de cartes perforées, évalue les différentes fonctions.
A partir de 1885, les calculateurs sont dotés de clavier et avec la découverte de l’électricité, des moteurs électriques remplacent les manivelles.
3. Les premiers ordinateurs modernes
a. Les ordinateurs programmables
Pendant la première partie du 20e
siècle, l’avancée des
mathématiques permet de donner un nouveau
souffle à la recherche informatique.
Celle-ci aboutit à partir de 1938 à la naissance du premier ordinateur programmable qui utilise le binaire : le Z3, créé par l’Allemand Konrad Zuse. Cet ordinateur réalise une multiplication en 4 secondes en moyenne.
En 1943, Howard Aiken met en place en collaboration avec IBM le premier calculateur électromécanique : Mark I. C’est une machine qui pèse 5 tonnes et mesure 17 m de long et 2,5 m en hauteur. Cette machine calcule 5 fois plus vite que l’homme.
Ces ordinateurs aux tailles gigantesques comme leurs successeurs sont tout d’abord utilisés à des fins militaires pour le décryptage et les calculs balistiques.
Celle-ci aboutit à partir de 1938 à la naissance du premier ordinateur programmable qui utilise le binaire : le Z3, créé par l’Allemand Konrad Zuse. Cet ordinateur réalise une multiplication en 4 secondes en moyenne.
En 1943, Howard Aiken met en place en collaboration avec IBM le premier calculateur électromécanique : Mark I. C’est une machine qui pèse 5 tonnes et mesure 17 m de long et 2,5 m en hauteur. Cette machine calcule 5 fois plus vite que l’homme.
Ces ordinateurs aux tailles gigantesques comme leurs successeurs sont tout d’abord utilisés à des fins militaires pour le décryptage et les calculs balistiques.
b. Les ordinateurs à lampes
En 1943, l’ENIAC devient le
premier ordinateur ne comportant plus aucune
pièce mécanique. Il est
composé de 18 000 lampes et s’étend
sur plus 160 m2. Il sera utilisé pour
mettre au point la bombe H.
Alors que l’ENIAC n’était programmable que manuellement, l’EDVAC permet la mémorisation. L’EDVAC est une réelle innovation en 1946 puisqu’il permet de mémoriser 1024 mots en mémoire centrale et 20 000 en mémoire magnétique.
L’apparition du transistor en 1948 révolutionne l’informatique permettant ainsi de fabriquer des ordinateurs moins encombrants et qui consomment moins d’électricité. Le transistor est un amplificateur et un interrupteur de courant électrique.
Alors que l’ENIAC n’était programmable que manuellement, l’EDVAC permet la mémorisation. L’EDVAC est une réelle innovation en 1946 puisqu’il permet de mémoriser 1024 mots en mémoire centrale et 20 000 en mémoire magnétique.
L’apparition du transistor en 1948 révolutionne l’informatique permettant ainsi de fabriquer des ordinateurs moins encombrants et qui consomment moins d’électricité. Le transistor est un amplificateur et un interrupteur de courant électrique.
4. Du micro-ordinateur à la nano-technologie
a. Les années 1950-1960 : la
reconnaissance de l’informatique.
Les années 1950 voient apparaître de
nouveaux langages de
programmation mais surtout la
naissance des circuits
intégrés. Le
circuit intégré relie plusieurs transistors
sans utiliser de fil électrique. Il permet ainsi
de réduire encore la taille et le coût de
l’ordinateur.
Dans les années 1960, la société IBM qui avait travaillé en étroite relation avec le département de Défense américain ouvre l’informatique et l’utilisation de l’ordinateur à la vie civile.
A la même époque, l’informatique devient une discipline à part entière. Des départements sont ouverts dans plusieurs universités aux États-Unis. C’est la reconnaissance de l’informatique comme science.
Dans les années 1960, la société IBM qui avait travaillé en étroite relation avec le département de Défense américain ouvre l’informatique et l’utilisation de l’ordinateur à la vie civile.
A la même époque, l’informatique devient une discipline à part entière. Des départements sont ouverts dans plusieurs universités aux États-Unis. C’est la reconnaissance de l’informatique comme science.
b. La micro-informatique
Dans les années 1970, les théories et les
découvertes informatiques continuent. Des
systèmes d’exploitation comme
UNIX sont
créés.
A partir de 1975, l’industrie des logiciels se développe. Aujourd’hui il existe trois grands systèmes d’exploitation :
• Windows compatible PC
• Mac OS compatible Apple.
• Linux (compatible Apple et PC).
Le premier microprocesseur est créé en 1971 par Intel.
C’est aussi à cette époque que le micro-ordinateur personnel fait son apparition. Le premier micro-ordinateur personnel est créé par les fondateurs d’Apple Computer, Steve Jobs et Steve Wosniak. Apple naît en 1977.
IBM de son côté crée en 1981 son premier PC.
L’ordinateur rentre alors dans les foyers et on parle pour les années 1980 d’informatique familiale.
Parallèlement, l’apparition des jeux sur ordinateur rend l’informatique conviviale.
Les avancées technologiques s’accélèrent considérablement dans les années 1990.
Aujourd’hui, la micro-informatique se développe à un rythme très rapide. Avec la miniaturisation des composants matériels, on parle de nano-technologie.
A partir de 1975, l’industrie des logiciels se développe. Aujourd’hui il existe trois grands systèmes d’exploitation :
• Windows compatible PC
• Mac OS compatible Apple.
• Linux (compatible Apple et PC).
Le premier microprocesseur est créé en 1971 par Intel.
C’est aussi à cette époque que le micro-ordinateur personnel fait son apparition. Le premier micro-ordinateur personnel est créé par les fondateurs d’Apple Computer, Steve Jobs et Steve Wosniak. Apple naît en 1977.
IBM de son côté crée en 1981 son premier PC.
L’ordinateur rentre alors dans les foyers et on parle pour les années 1980 d’informatique familiale.
Parallèlement, l’apparition des jeux sur ordinateur rend l’informatique conviviale.
Les avancées technologiques s’accélèrent considérablement dans les années 1990.
Aujourd’hui, la micro-informatique se développe à un rythme très rapide. Avec la miniaturisation des composants matériels, on parle de nano-technologie.
L'essentiel
L'histoire de l'informatique est fortement
liée à celle des
mathématiques.
A partir de la Seconde guerre mondiale, l'informatique sert à des fins militaires. Les ordinateurs inventés sont alors gigantesques.
Les avancées technologiques vont s'accélérant au cours des années 1970 et 1980 : de la création du microprocesseur à la nano-technologie. Cela permet une démocratisation de l'informatique qui s'introduit dans les foyers.
A partir de la Seconde guerre mondiale, l'informatique sert à des fins militaires. Les ordinateurs inventés sont alors gigantesques.
Les avancées technologiques vont s'accélérant au cours des années 1970 et 1980 : de la création du microprocesseur à la nano-technologie. Cela permet une démocratisation de l'informatique qui s'introduit dans les foyers.
Vous avez obtenu75%de bonnes réponses !