Menu

> Informatique

Histoire de l’informatique

Définition de l'informatique

Le mot informatique a été créé vers 1960 à partir des mots "information" et "automatique". C'est la science qui s'occupe du traitement automatique de l'information par l'utilisation de machines souvent appelées "ordinateur".

Depuis l'antiquité

Depuis des milliers d'années, l'Homme utilise des outils pour l'aider à effectuer ses calculs, par exemple avec un boulier. Même si les machines évoluent, il faut toujours effectuer une action manuelle pour réaliser le calcul.

En 1642, Blaise Pascal commercialise la Pascaline, une machine mécanique qui permet de faire des calculs simples.

En 1801, la programmation connait ses prémices grâce à Joseph Marie Jacquard et ses métiers à tisser mécaniques programmables en utilisant des cartes perforées. Ce procédé sera amélioré et utilisé à la fin du siècle pour effectuer le recensement américain par Hermann Hollerith, qui deviendra plus tard le fondateur d'IBM.

A l'informatique moderne

En 1945, le premier ordinateur, l'ENIAC pour "Electronic Numerator Integrator and Computer", voit le jour. Plusieurs grandes évolutions sont à noter :

  • c'est une machine électronique, il n'y a plus de rouages mécaniques
  • l'information est transportée grâce aux électrons, plus rapides
  • on peut programmer cette machine, qui sera alors automatique

Cet ordinateur pèse 30 tonnes et occupe une surface de 100 m².

L'expression "bug informatique" vient de cette époque, où les tubes qui transportaient l'information étaient assez grands, certains insectes pouvaient entrer dedans et cela pouvait fausser les résultats. Le mot anglais bug signifie insecte en Français.
une vidéo de présentation de ce premier ordinateur
vous n'êtes pas obligé de regarder la vidéo jusqu'au bout

Pendant quelques temps, les circuits électroniques ne sont que de simples lampes, mais en 1948, le transistor est inventé et va accélérer le développement des ordinateurs.

Dans les années 1950, c'est au tour de l'industrie du logiciel d'émerger, certains langages de programmation évolués apparaissent et rendent les ordinateurs beaucoup plus faciles à programmer. Les algorithmes sont toujours plus sophistiqués.

A la micro-informatique

Dans les années 1960, les circuits intégrés sont fabriqués à base de silicium qui permet la miniaturisation des composants.

En 1971, Intel sort le premier microprocesseur (Intel 4004), il contient 2300 transistors et exécute 60 000 instructions par seconde.

En 1981, IBM lance le premier ordinateur personnel, appelé PC pour "Personnal Computer". C'est une révolution car tout logiciel écrit sur un PC est compatible avec un autre PC.

En 1984, Apple sort Macintosh, qui permet d'avoir une interface graphique au lieu des lignes de commande, on peut également utiliser une souris. Un an après, la première version de Windows s'en inspire pour rendre les PC plus pratiques et plus conviviaux.

Quelques années plus tard, c'est au tour des ordinateurs portables de faire leur apparition.

A l'ère du numérique

En 1969, le réseau ARPANET voit le jour. A l'origine un projet du département de la Défense des Etats-Unis, il sera déployé pour permettre la liaison entre 2 universités, c'est l'ancêtre d'internet.

De l'Arpanet à Internet
Vidéo de la Cité des sciences et de l'Industrie et le Palais de la découverte

Depuis 1995, la démocratisation d'internet a permis aux outils d'être de plus en plus utilisés, en remplacement du courrier et du téléphone. S'en est suivi l'apparition des logiciels libres, des réseaux sociaux et des outils collaboratifs.

Aujourd'hui, l'informatique fait partie intégrante de la quasi-totalité des appareils électroniques et est devenu indispensable dans notre vie.