Histoire de l’informatique : Qui était le créateur de ce domaine ?

13 février 2026

Homme âgé avec lunettes examine un ancien ordinateur dans un bureau vintage

Aucune commission n’a jamais osé attribuer la paternité exclusive de l’informatique à un seul nom. Les grands récits aiment les héros solitaires, mais ici, ce sont les avancées collectives, les idées en cascade et les rivalités fécondes qui ont propulsé cette discipline. Le domaine s’est bâti sur des inventions qui se sont croisées, parfois affrontées, toujours enrichies, redéfinissant sans cesse ce que signifie « calculer » et « automatiser l’information ».

Le mot « informatique » n’entre en scène qu’au milieu du XXe siècle, bien après les premières expériences de machines et de concepts fondateurs. Sur ce long chemin, on croise des mathématiciens, des ingénieurs, des logiciens, des inventeurs et des chercheurs, chacun laissant une empreinte singulière. Leurs apports, rassemblés, forment un véritable réseau d’idées et d’innovations.

Des origines antiques aux premières machines : comment l’idée de calcul a traversé les siècles

Remonter le fil de l’histoire informatique, c’est quitter les circuits imprimés pour retrouver le besoin ancestral de compter, de classer, de garder trace. Bien avant les langages binaires, à l’époque de la préhistoire, des marques gravées sur des os servent déjà à enregistrer le temps ou les réserves. Les tablettes d’argile sumériennes, les bouliers venus d’Asie : chaque époque invente ses outils pour dompter l’information.

Peu à peu, le calcul prend son indépendance face à la main humaine. Les premières machines mécaniques voient le jour. Au XVIIe siècle, Blaise Pascal imagine une machine à additionner, la « Pascaline ». Gottfried Wilhelm Leibniz perfectionne l’idée avec un dispositif capable de réaliser des multiplications. Mais c’est avec l’arrivée du métier à tisser Jacquard, au début du XIXe siècle, que la notion de programmation s’invite dans le débat. Les cartes perforées introduisent une logique nouvelle : celle d’instruire une machine, amorçant l’ère du code et de l’automatisation.

Cette réflexion sur la manipulation de l’information ne se limite pas à la technique. Elle traverse la philosophie, la linguistique, la science. Robert Ligonnière, historien, éclaire comment l’information cesse d’être un simple souvenir ou un objet matériel : elle devient une matière à traiter, à transformer, à manipuler. Ce tournant prépare l’émergence des premiers calculateurs électroniques au XXe siècle. L’informatique prend alors son envol, portée par l’idée que la machine peut dépasser la main et la mémoire humaines.

Qui peut vraiment être considéré comme le créateur de l’informatique ?

Difficile de désigner un seul « inventeur » de l’informatique. Mais certains noms résonnent avec force. Charles Babbage, savant britannique visionnaire, conçoit dès 1837 la machine analytique, l’ancêtre rêvé de nos ordinateurs. Cet appareil, pensé pour exécuter tout calcul imaginable, ne verra pas le jour, faute de technologies adaptées et de financements. Pourtant, son architecture, unité de calcul, mémoire, contrôle, inspire durablement les générations suivantes.

À ses côtés, Ada Lovelace, mathématicienne hors norme, écrit les premiers algorithmes destinés à cette machine. Elle pressent que la programmation ne se limite pas aux chiffres, mais peut orchestrer des symboles, du texte, des idées. Sa vision dépasse largement les attentes de son époque.

Le XXe siècle étoffe la liste. Alan Turing, figure majeure, formalise la notion de machine universelle. Sa fameuse « machine de Turing » pose les bases de la science informatique, notamment dans le contexte de la Seconde Guerre mondiale. John von Neumann, quant à lui, propose une architecture qui structure encore aujourd’hui la conception des ordinateurs, avec une organisation rigoureuse de la mémoire et du traitement des instructions.

Pierre Mounier-Kuhn, historien, le rappelle : la naissance de l’informatique n’est pas le fruit d’un geste isolé. Elle résulte d’un ensemble de visions, d’expériences, de ruptures. Derrière chaque avancée, une équipe, un croisement de compétences, un dialogue entre chercheurs, ingénieurs et inventeurs. L’histoire de l’informatique, c’est celle d’une construction collective, patiente, passionnée.

Portraits de pionniers : figures marquantes et inventions clés

De l’algorithme à la révolution du code

Certains visages ont laissé une trace indélébile dans l’histoire informatique. Ada Lovelace s’impose comme une éclaireuse, grâce à ses écrits visionnaires sur la machine analytique de Babbage. Elle conçoit des méthodes de programmation bien avant l’heure, posant ainsi les jalons du métier de développeur et du langage informatique.

À partir des années 1940, l’arrivée des premiers ordinateurs bouleverse la donne. Grace Hopper, officier et informaticienne, façonne le langage COBOL et développe le tout premier compilateur. Son travail permet de démocratiser la programmation, facilitant le dialogue entre l’humain et la machine, et annonce l’interface homme-machine que nous connaissons.

Voici quelques figures et inventions qui ont marqué durablement le développement de l’informatique :

  • Douglas Engelbart, avec l’invention de la souris et des interfaces interactives, ouvre la voie à des micro-ordinateurs plus accessibles et ergonomiques.
  • Donald Knuth repense de fond en comble la programmation avec son ouvrage « The Art of Computer Programming », qui influence plusieurs générations de codeurs.
  • Tim Berners-Lee, au sein du CERN, imagine le World Wide Web, donnant naissance à une nouvelle façon de partager et d’accéder à l’information à l’échelle planétaire.

De grandes entreprises comme IBM, Intel, Xerox ou Microsoft jouent elles aussi un rôle moteur, en développant logiciels et matériels. Steve Jobs, s’appuyant sur le travail de ses équipes, popularise l’interface graphique et transforme l’usage de l’ordinateur individuel. Chacune de ces avancées relie invention technique et bouleversement industriel, dessinant une histoire faite de ruptures et d’audaces.

Groupe de personnes autour d un vieux ordinateur dans un laboratoire universitaire

L’informatique aujourd’hui : héritages, évolutions et perspectives

L’informatique a franchi les frontières du calcul pur et de la simple machine. Elle s’est imposée comme un support incontournable du savoir et un moteur de mutation dans tous les secteurs. Avec le temps, l’information circule à une vitesse et à une échelle inédites, portée par Internet et l’interconnexion mondiale. Les grandes villes, du continent américain à l’Europe, se retrouvent liées par une trame numérique qui rebat les cartes de la communication.

Les progrès de l’intelligence artificielle ouvrent un nouveau chapitre. Les algorithmes apprennent, prédisent, proposent. Dans le monde professionnel, les données prennent une valeur stratégique, et la recherche européenne cherche à s’affirmer face au leadership américain. Les systèmes d’exploitation se diversifient, du logiciel libre aux solutions propriétaires, dessinant un paysage mouvant où s’affrontent visions et intérêts.

Les usages quotidiens, eux aussi, se transforment. Les machines ne se contentent plus d’obéir : elles orientent, influencent, questionnent nos choix et nos sociétés. Les débats sur la souveraineté numérique, la gestion des données et la régulation d’Internet s’intensifient, révélant de nouveaux enjeux collectifs. La France, comme le reste de l’Europe, entend jouer son rôle dans cette aventure, naviguant entre traditions, vigilance et innovations à venir.

De l’os gravé de la préhistoire aux réseaux neuronaux, l’informatique trace un sillon qui ne cesse de s’élargir. L’histoire n’est pas figée : elle s’écrit chaque jour, à la croisée des savoirs, des inventions et des choix de société. Qui signera le prochain chapitre ?

D'autres actualités sur le site