Chronologie de l’apparition des nombres : des entiers naturels aux nombres complexes
Lorsque les sociétés ont commencé à échanger, à partager et à comparer des quantités, la notion de nombre s’est élargie. Les fractions et les nombres rationnels sont apparus pour exprimer des parts, des rapports et des proportions. Plus tard, la découverte de grandeurs impossibles à mesurer par des fractions — comme la diagonale du carré — a profondément bouleversé la pensée mathématique, introduisant les nombres irrationnels et remettant en cause l’idée que toute mesure puisse s’exprimer sous forme rationnelle.
Avec le développement de la géométrie, de la physique et de l’analyse, la nécessité de décrire le continu a conduit à la formalisation des nombres réels, qui unifient rationnels et irrationnels dans un même cadre cohérent. Mais là encore, de nouvelles limites sont apparues : certaines équations algébriques, pourtant bien posées, ne possédaient aucune solution dans ce cadre. La résolution de ces équations a conduit, non sans résistances, à l’introduction des nombres complexes, longtemps qualifiés d’« imaginaires » avant d’être pleinement intégrés aux mathématiques.
Chacune de ces extensions du champ numérique a suscité débats, doutes et oppositions philosophiques. Les nombres négatifs ont été jugés dépourvus de sens, les irrationnels ont été perçus comme une menace pour l’harmonie mathématique, et les complexes ont été considérés comme de simples artifices de calcul. Pourtant, à chaque étape, ces nouveaux nombres se sont imposés parce qu’ils permettaient de résoudre des problèmes concrets tout en ouvrant des perspectives théoriques inédites.
Cette chronologie propose de retracer, de manière progressive et structurée, cette longue construction de la notion de nombre. Elle met en lumière les problèmes qui ont motivé chaque extension, les contextes historiques dans lesquels elles sont apparues et les conséquences durables qu’elles ont eues sur les mathématiques et les sciences. L’objectif est de donner une vue d’ensemble, depuis les premiers nombres utilisés pour compter jusqu’aux structures algébriques modernes, afin de comprendre comment la notion de nombre s’est transformée au fil du temps.
Étape 1 — Les entiers naturels : compter et ordonner le monde
Les premières traces de comptage remontent à la Préhistoire, bien avant l’apparition de l’écriture. Des os gravés, des encoches sur du bois ou de la pierre témoignent d’une nécessité fondamentale : garder la mémoire des quantités. Compter permettait de suivre un troupeau, d’évaluer des réserves de nourriture ou de rythmer le temps à travers des cycles naturels.
Avec la naissance des grandes civilisations antiques — en Mésopotamie, en Égypte, en Inde ou en Chine — les entiers naturels deviennent des outils structurés. Ils servent à recenser des populations, mesurer des terres, lever des impôts et organiser le commerce. Les systèmes de numération se diversifient : systèmes additifs, positionnels ou mixtes, chacun adapté aux besoins administratifs et culturels de la société qui l’utilise.
À ce stade, les nombres ne sont pas encore pensés comme des objets abstraits indépendants du réel. Un nombre désigne toujours « un nombre de choses ». Il n’existe pas encore de zéro au sens moderne, ni de réflexion théorique sur la nature du nombre. Les entiers naturels sont avant tout des instruments pratiques, intimement liés à l’action et à l’observation.




Cependant, les limites de ce premier ensemble apparaissent rapidement. Les entiers naturels ne permettent ni d’exprimer un partage équitable, ni de représenter une absence ou une dette, ni de comparer des grandeurs continues. Ces difficultés vont conduire, étape par étape, à l’introduction de nouveaux types de nombres.
Étape 2 — Les nombres rationnels : partager, mesurer et comparer
Les entiers naturels permettent de compter des objets, mais ils deviennent insuffisants dès qu’il s’agit de partager une quantité ou de mesurer une grandeur. Comment exprimer une demi-récolte, un tiers de terrain ou une ration égale pour plusieurs personnes lorsque la division ne tombe pas juste ? Ces problèmes concrets ont conduit très tôt à l’introduction de fractions, bien avant toute réflexion abstraite sur les nombres.
Dès l’Antiquité, les civilisations mésopotamiennes et égyptiennes utilisent des fractions pour gérer les échanges, les surfaces agricoles et les constructions. En Égypte antique, les fractions unitaires jouent un rôle central dans les calculs, tandis que les Babyloniens développent une arithmétique sophistiquée fondée sur un système sexagésimal, particulièrement adapté aux mesures et aux proportions.
Avec les mathématiques grecques, les nombres rationnels acquièrent un statut plus théorique. Ils servent à comparer des grandeurs, à exprimer des rapports et à formaliser des raisonnements géométriques. Toutefois, ces nombres restent étroitement liés à l’idée de mesure : un nombre est rationnel s’il correspond à une fraction de l’unité, c’est-à-dire à un rapport entre deux entiers.



Malgré leur puissance, les nombres rationnels vont eux aussi révéler leurs limites. Certaines grandeurs géométriques fondamentales ne peuvent être exprimées par aucune fraction d’entiers. Cette découverte, profondément déstabilisante pour les mathématiciens de l’Antiquité, ouvrira la voie à une nouvelle rupture conceptuelle.
Étape 3 — Les nombres irrationnels : la crise de la mesure
Alors que les nombres rationnels semblaient suffire pour décrire les rapports et les mesures, une difficulté majeure apparaît dans le cadre de la géométrie grecque. En étudiant le carré, les mathématiciens constatent que la longueur de sa diagonale ne peut être exprimée comme une fraction de la longueur du côté. Autrement dit, il n’existe pas de nombres entiers \( p \) et \( q \) tels que \( \left(\dfrac{p}{q}\right)^2 = 2 \).
Cette découverte, traditionnellement associée aux pythagoriciens, constitue une véritable rupture intellectuelle. Elle remet en cause l’idée, profondément ancrée, selon laquelle toute grandeur est mesurable par des rapports d’entiers. La démonstration de l’irrationalité de \( \sqrt{2} \) marque ainsi l’apparition d’une nouvelle catégorie de nombres, qui échappe au cadre rationnel.
Les nombres irrationnels ne sont pas d’abord pensés comme des nombres au sens arithmétique, mais comme des grandeurs géométriques. Ils sont associés à des segments, des diagonales, des longueurs continues, plutôt qu’à des quantités discrètes. Cette distinction entre le discret et le continu devient centrale dans la pensée mathématique antique.
Contexte mathématique
·
Source (Wikimedia Commons)
Pendant longtemps, ces grandeurs irrationnelles restent difficiles à intégrer dans une théorie unifiée des nombres. Elles coexistent avec les rationnels sans cadre algébrique commun, ce qui freine le développement de méthodes générales de calcul. Il faudra attendre bien plus tard, avec la formalisation du continu, pour que rationnels et irrationnels soient réunis dans un même ensemble cohérent.
Étape 4 — Les nombres réels : décrire le continu
Après la découverte des nombres irrationnels, les mathématiques antiques se trouvent face à une difficulté majeure : il existe désormais deux types de grandeurs, les rationnelles et les irrationnelles, sans structure commune permettant de les manipuler de manière uniforme. Les Grecs traitent ces objets principalement à l’aide de la géométrie, en distinguant soigneusement les nombres (discrets) et les grandeurs (continues).
Il faut attendre l’époque moderne pour que cette séparation soit progressivement remise en question. Avec le développement de la physique, de la mécanique et de la géométrie analytique, la nécessité de décrire le mouvement, les variations et les phénomènes continus devient centrale. Les nombres doivent désormais représenter des positions, des vitesses, des longueurs ou des aires qui varient de façon continue.
Aux XVIIᵉ et XVIIIᵉ siècles, l’essor de l’analyse mathématique conduit à l’utilisation systématique de quantités réelles, souvent définies de manière intuitive à l’aide de courbes, de limites et de processus infinis. Cependant, cette approche reste longtemps fondée sur l’intuition géométrique et physique, sans définition rigoureuse de ce qu’est exactement un nombre réel.
Ce n’est qu’au XIXᵉ siècle que les mathématiciens proposent des constructions rigoureuses de \( \mathbb{R} \), notamment à partir des nombres rationnels, afin de formaliser l’idée de continuité. Les nombres réels deviennent alors un ensemble complet, dans lequel toute suite convergente possède une limite, fournissant le cadre indispensable de l’analyse moderne.
La définition rigoureuse au XIXᵉ siècle : compléter \( \mathbb{Q} \)
Au XIXᵉ siècle, dans le cadre de l’« arithmétisation de l’analyse », l’objectif devient de fonder l’analyse sur l’arithmétique des rationnels. L’idée centrale est que \( \mathbb{Q} \) est trop « troué » pour représenter le continu : il existe des suites de rationnels qui se rapprochent indéfiniment d’une valeur sans jamais atteindre un rationnel. Pour rendre cette intuition rigoureuse, on construit \( \mathbb{R} \) comme une complétion de \( \mathbb{Q} \).
Dans cette approche, un rationnel \( r \in \mathbb{Q} \) correspond à la coupure où \( A=\{q\in\mathbb{Q}\mid q<r\} \) et \( B=\{q\in\mathbb{Q}\mid q\ge r\} \). Un irrationnel apparaît lorsque la coupure ne correspond à aucun rationnel : elle « coupe » \( \mathbb{Q} \) en un point qui n’est pas un rapport d’entiers.
Malgré cette unification, une nouvelle limite apparaît : certaines équations algébriques, pourtant simples en apparence, ne possèdent toujours aucune solution dans \( \mathbb{R} \). Cette difficulté ouvrira la voie à une dernière extension majeure du champ numérique.
Étape 5 — Les nombres complexes : dépasser les limites du réel
Malgré la construction rigoureuse des nombres réels au XIXᵉ siècle, certaines équations algébriques simples restent sans solution. L’exemple le plus emblématique est l’équation \( x^2+1=0 \), qui ne possède aucune solution réelle, puisque le carré d’un nombre réel est toujours positif ou nul. Ce type de difficulté révèle une limite fondamentale de \( \mathbb{R} \) en tant que cadre algébrique.
L’apparition des nombres complexes est pourtant antérieure à leur fondement théorique. Dès le XVIᵉ siècle, dans le contexte de la résolution des équations cubiques, des expressions faisant intervenir des racines carrées de nombres négatifs apparaissent au cours des calculs, même lorsque la solution finale est réelle. Ces objets sont d’abord considérés comme des artifices formels, manipulés par nécessité plutôt que par conviction.
Au XVIIIᵉ siècle, une notation se stabilise avec l’introduction de l’unité imaginaire \( i \), caractérisée par la relation \( i^2=-1 \). Cette écriture permet de représenter les nouveaux nombres sous la forme \( a+ib \), avec \( a,b\in\mathbb{R} \), et rend les calculs algébriques plus systématiques. Toutefois, cette relation reste longtemps perçue comme une convention opératoire plutôt que comme une définition rigoureuse.
La clarification décisive intervient au XIXᵉ siècle, lorsque les mathématiciens cessent de chercher une interprétation « mystérieuse » de \( \sqrt{-1} \) et adoptent une approche structurelle. On construit alors un ensemble muni de lois algébriques cohérentes dans lequel un élément vérifiant \( i^2=-1 \) existe naturellement.
$$ (a,b)+(c,d)=(a+c,\;b+d), $$
$$ (a,b)\times(c,d)=(ac-bd,\;ad+bc). $$
L’élément \( (0,1) \) est noté \( i \), et l’on a alors \( i^2=(-1,0) \).
Dans cette construction, les nombres réels s’identifient naturellement aux couples de la forme \( (a,0) \), ce qui permet d’écrire \( a=(a,0) \) et en particulier \( -1=(-1,0) \). La relation \( i^2=-1 \) n’est donc plus un postulat, mais une conséquence directe des lois définissant \( \mathbb{C} \).
Les nombres complexes achèvent ainsi la chronologie des extensions numériques fondamentales. Ils ne servent plus seulement à résoudre des équations abstraites : ils deviennent indispensables en analyse, en géométrie, en physique et en ingénierie, notamment pour décrire des phénomènes oscillatoires, des rotations et des ondes.
À partir du XIXᵉ siècle, avec le développement de la théorie des nombres et surtout de la théorie des corps, la question n’est plus seulement de savoir quels nombres sont nécessaires pour mesurer ou calculer, mais quels nombres doivent être construits pour comprendre la structure des équations. On ne se contente plus d’un ensemble unique : on étudie des extensions de \( \mathbb{Q} \), de \( \mathbb{R} \) ou de \( \mathbb{C} \), adaptées à des problèmes précis.
Cette nouvelle perspective conduit à l’apparition de nombreux autres ensembles de nombres : corps algébriques, corps finis, nombres \( p \)-adiques, extensions transcendantes, chacun répondant à des questions spécifiques en arithmétique, en algèbre ou en géométrie. Dans ce cadre, un « nombre » n’est plus défini par son lien avec la mesure ou le calcul concret, mais par sa place dans une structure algébrique.
Ainsi, la chronologie qui mène des entiers naturels aux nombres complexes ne constitue pas une fin, mais une première grande histoire de la notion de nombre. Elle montre comment les mathématiques ont progressivement élargi leurs objets pour répondre à des limites successives. Les théories modernes des nombres et des corps prolongent cette dynamique, en révélant que le concept de nombre est fondamentalement ouvert, et qu’il continue d’évoluer avec les questions que les mathématiciens se posent.