Chronologie de l’apparition des nombres : des entiers naturels aux nombres complexes

Des premiers nombres utilisés pour compter aux structures algébriques modernes, cette chronologie retrace l’élargissement progressif de la notion de nombre. Elle montre comment chaque nouvel ensemble est né pour répondre aux limites du précédent, ouvrant la voie à une compréhension toujours plus profonde des mathématiques.

Lire l'article

Chronologie de l’apparition des nombres : des entiers naturels aux nombres complexes

L’histoire des nombres s’inscrit dans une histoire beaucoup plus large : celle des besoins humains, des sociétés et des idées. Les premiers nombres ne sont pas nés d’une réflexion abstraite, mais de la nécessité de compter des objets, de mesurer des surfaces, d’organiser des échanges commerciaux ou de fixer des repères temporels. Pendant des millénaires, les entiers naturels ont suffi pour répondre à ces usages élémentaires, mais ils ont rapidement montré leurs limites dès lors que les activités humaines se sont complexifiées.

Lorsque les sociétés ont commencé à échanger, à partager et à comparer des quantités, la notion de nombre s’est élargie. Les fractions et les nombres rationnels sont apparus pour exprimer des parts, des rapports et des proportions. Plus tard, la découverte de grandeurs impossibles à mesurer par des fractions — comme la diagonale du carré — a profondément bouleversé la pensée mathématique, introduisant les nombres irrationnels et remettant en cause l’idée que toute mesure puisse s’exprimer sous forme rationnelle.

Avec le développement de la géométrie, de la physique et de l’analyse, la nécessité de décrire le continu a conduit à la formalisation des nombres réels, qui unifient rationnels et irrationnels dans un même cadre cohérent. Mais là encore, de nouvelles limites sont apparues : certaines équations algébriques, pourtant bien posées, ne possédaient aucune solution dans ce cadre. La résolution de ces équations a conduit, non sans résistances, à l’introduction des nombres complexes, longtemps qualifiés d’« imaginaires » avant d’être pleinement intégrés aux mathématiques.

Chacune de ces extensions du champ numérique a suscité débats, doutes et oppositions philosophiques. Les nombres négatifs ont été jugés dépourvus de sens, les irrationnels ont été perçus comme une menace pour l’harmonie mathématique, et les complexes ont été considérés comme de simples artifices de calcul. Pourtant, à chaque étape, ces nouveaux nombres se sont imposés parce qu’ils permettaient de résoudre des problèmes concrets tout en ouvrant des perspectives théoriques inédites.

Cette chronologie propose de retracer, de manière progressive et structurée, cette longue construction de la notion de nombre. Elle met en lumière les problèmes qui ont motivé chaque extension, les contextes historiques dans lesquels elles sont apparues et les conséquences durables qu’elles ont eues sur les mathématiques et les sciences. L’objectif est de donner une vue d’ensemble, depuis les premiers nombres utilisés pour compter jusqu’aux structures algébriques modernes, afin de comprendre comment la notion de nombre s’est transformée au fil du temps.

Étape 1 — Les entiers naturels : compter et ordonner le monde

Les entiers naturels sont les premiers nombres utilisés par l’humanité pour compter. Ils permettent d’énumérer des objets, de comparer des quantités et d’établir un ordre. On les note aujourd’hui \( \mathbb{N}=\{0,1,2,3,\dots\} \), mais cette écriture est le résultat d’une très longue évolution historique.

Les premières traces de comptage remontent à la Préhistoire, bien avant l’apparition de l’écriture. Des os gravés, des encoches sur du bois ou de la pierre témoignent d’une nécessité fondamentale : garder la mémoire des quantités. Compter permettait de suivre un troupeau, d’évaluer des réserves de nourriture ou de rythmer le temps à travers des cycles naturels.

Avec la naissance des grandes civilisations antiques — en Mésopotamie, en Égypte, en Inde ou en Chine — les entiers naturels deviennent des outils structurés. Ils servent à recenser des populations, mesurer des terres, lever des impôts et organiser le commerce. Les systèmes de numération se diversifient : systèmes additifs, positionnels ou mixtes, chacun adapté aux besoins administratifs et culturels de la société qui l’utilise.

À ce stade, les nombres ne sont pas encore pensés comme des objets abstraits indépendants du réel. Un nombre désigne toujours « un nombre de choses ». Il n’existe pas encore de zéro au sens moderne, ni de réflexion théorique sur la nature du nombre. Les entiers naturels sont avant tout des instruments pratiques, intimement liés à l’action et à l’observation.


Os d’Ishango (entailles de comptage préhistorique)

Os d’Ishango — traces anciennes de comptage (entailles). Contexte historique · Source (Wikimedia Commons)

Tablette babylonienne Plimpton 322 (numération cunéiforme)

Tablette babylonienne (Plimpton 322) — exemple d’écriture numérique en cunéiforme. Contexte · Source (Wikimedia Commons)

Papyrus mathématique de Rhind (Égypte antique)

Papyrus mathématique de Rhind — calculs et numération de l’Égypte antique. Contexte · Source (Wikimedia Commons)

Schéma d’abaque romain (abacus)

Abaque romain — calcul et comptage avant la notation moderne. Abaque (général) · Source (Wikimedia Commons)
Historiquement, les entiers naturels précèdent toute autre forme de nombres : ils naissent du besoin de compter, non du besoin de calculer.

Cependant, les limites de ce premier ensemble apparaissent rapidement. Les entiers naturels ne permettent ni d’exprimer un partage équitable, ni de représenter une absence ou une dette, ni de comparer des grandeurs continues. Ces difficultés vont conduire, étape par étape, à l’introduction de nouveaux types de nombres.

Étape 2 — Les nombres rationnels : partager, mesurer et comparer

Les nombres rationnels sont les nombres qui peuvent s’écrire sous la forme \( \dfrac{p}{q} \), où \( p \) et \( q \) sont des entiers et \( q \neq 0 \). On les note \( \mathbb{Q} \). Ils apparaissent historiquement pour répondre à des situations de partage, de mesure et de proportion.

Les entiers naturels permettent de compter des objets, mais ils deviennent insuffisants dès qu’il s’agit de partager une quantité ou de mesurer une grandeur. Comment exprimer une demi-récolte, un tiers de terrain ou une ration égale pour plusieurs personnes lorsque la division ne tombe pas juste ? Ces problèmes concrets ont conduit très tôt à l’introduction de fractions, bien avant toute réflexion abstraite sur les nombres.

Dès l’Antiquité, les civilisations mésopotamiennes et égyptiennes utilisent des fractions pour gérer les échanges, les surfaces agricoles et les constructions. En Égypte antique, les fractions unitaires jouent un rôle central dans les calculs, tandis que les Babyloniens développent une arithmétique sophistiquée fondée sur un système sexagésimal, particulièrement adapté aux mesures et aux proportions.

Avec les mathématiques grecques, les nombres rationnels acquièrent un statut plus théorique. Ils servent à comparer des grandeurs, à exprimer des rapports et à formaliser des raisonnements géométriques. Toutefois, ces nombres restent étroitement liés à l’idée de mesure : un nombre est rationnel s’il correspond à une fraction de l’unité, c’est-à-dire à un rapport entre deux entiers.


Papyrus mathématique de Rhind (Égypte antique)

Papyrus mathématique de Rhind — source majeure pour les fractions et les calculs en Égypte antique (dont la table \(2/n\)). Contexte (Wikipedia) · Fichier (Wikimedia Commons)

Fractions égyptiennes : fractions de l’Œil d’Horus

Fractions égyptiennes (Œil d’Horus) — représentation hiéroglyphique traditionnelle de fractions unitaires (ex. \( \tfrac12, \tfrac14, \tfrac18 \), etc.). Contexte (Eye of Horus) · Fichier (Wikimedia Commons)

Tablette babylonienne YBC 7289 (numération sexagésimale)

Tablette YBC 7289 — exemple célèbre de calcul babylonien en base 60 (sexagésimal), montrant une approximation de \( \sqrt{2} \). Contexte (Babylonian mathematics) · Fichier (Wikimedia Commons)

Tablette babylonienne YBC 7289 (recto/verso)

YBC 7289 (recto/verso) — vue plus complète de la tablette et de ses inscriptions cunéiformes, utile pour illustrer l’écriture et la pratique du calcul. Catégorie (Wikimedia Commons) · Fichier (Wikimedia Commons)
Historiquement, les nombres rationnels prolongent naturellement les entiers : ils permettent de résoudre les problèmes de partage, mais restent ancrés dans une vision « mesurable » du monde.

Malgré leur puissance, les nombres rationnels vont eux aussi révéler leurs limites. Certaines grandeurs géométriques fondamentales ne peuvent être exprimées par aucune fraction d’entiers. Cette découverte, profondément déstabilisante pour les mathématiciens de l’Antiquité, ouvrira la voie à une nouvelle rupture conceptuelle.

Étape 3 — Les nombres irrationnels : la crise de la mesure

Les nombres irrationnels sont des nombres réels qui ne peuvent pas s’écrire sous la forme \( \dfrac{p}{q} \), avec \( p,q \in \mathbb{Z} \) et \( q \neq 0 \). Ils apparaissent historiquement lorsqu’on découvre que certaines grandeurs géométriques ne sont mesurables par aucune fraction d’entiers.

Alors que les nombres rationnels semblaient suffire pour décrire les rapports et les mesures, une difficulté majeure apparaît dans le cadre de la géométrie grecque. En étudiant le carré, les mathématiciens constatent que la longueur de sa diagonale ne peut être exprimée comme une fraction de la longueur du côté. Autrement dit, il n’existe pas de nombres entiers \( p \) et \( q \) tels que \( \left(\dfrac{p}{q}\right)^2 = 2 \).

Cette découverte, traditionnellement associée aux pythagoriciens, constitue une véritable rupture intellectuelle. Elle remet en cause l’idée, profondément ancrée, selon laquelle toute grandeur est mesurable par des rapports d’entiers. La démonstration de l’irrationalité de \( \sqrt{2} \) marque ainsi l’apparition d’une nouvelle catégorie de nombres, qui échappe au cadre rationnel.

Les nombres irrationnels ne sont pas d’abord pensés comme des nombres au sens arithmétique, mais comme des grandeurs géométriques. Ils sont associés à des segments, des diagonales, des longueurs continues, plutôt qu’à des quantités discrètes. Cette distinction entre le discret et le continu devient centrale dans la pensée mathématique antique.


Diagonale du carré et irrationalité de racine de 2

La diagonale du carré et \( \sqrt{2} \) — Représentation géométrique classique montrant que la diagonale d’un carré de côté 1 a pour longueur \( \sqrt{2} \), nombre qui ne peut être exprimé comme une fraction d’entiers.
Contexte mathématique
·
Source (Wikimedia Commons)
Historiquement, l’irrationnel n’est pas seulement un nouveau type de nombre : il révèle une limite fondamentale de la mesure rationnelle.

Pendant longtemps, ces grandeurs irrationnelles restent difficiles à intégrer dans une théorie unifiée des nombres. Elles coexistent avec les rationnels sans cadre algébrique commun, ce qui freine le développement de méthodes générales de calcul. Il faudra attendre bien plus tard, avec la formalisation du continu, pour que rationnels et irrationnels soient réunis dans un même ensemble cohérent.

Étape 4 — Les nombres réels : décrire le continu

Les nombres réels constituent l’ensemble qui regroupe les nombres rationnels et irrationnels. On les note \( \mathbb{R} \). Ils permettent de décrire aussi bien des quantités discrètes que des grandeurs continues, et fournissent un cadre unifié pour la mesure, la géométrie et l’analyse.

Après la découverte des nombres irrationnels, les mathématiques antiques se trouvent face à une difficulté majeure : il existe désormais deux types de grandeurs, les rationnelles et les irrationnelles, sans structure commune permettant de les manipuler de manière uniforme. Les Grecs traitent ces objets principalement à l’aide de la géométrie, en distinguant soigneusement les nombres (discrets) et les grandeurs (continues).

Il faut attendre l’époque moderne pour que cette séparation soit progressivement remise en question. Avec le développement de la physique, de la mécanique et de la géométrie analytique, la nécessité de décrire le mouvement, les variations et les phénomènes continus devient centrale. Les nombres doivent désormais représenter des positions, des vitesses, des longueurs ou des aires qui varient de façon continue.

Aux XVIIᵉ et XVIIIᵉ siècles, l’essor de l’analyse mathématique conduit à l’utilisation systématique de quantités réelles, souvent définies de manière intuitive à l’aide de courbes, de limites et de processus infinis. Cependant, cette approche reste longtemps fondée sur l’intuition géométrique et physique, sans définition rigoureuse de ce qu’est exactement un nombre réel.

Pendant longtemps, les nombres réels sont utilisés avant d’être définis : leur efficacité précède leur fondement théorique.

Ce n’est qu’au XIXᵉ siècle que les mathématiciens proposent des constructions rigoureuses de \( \mathbb{R} \), notamment à partir des nombres rationnels, afin de formaliser l’idée de continuité. Les nombres réels deviennent alors un ensemble complet, dans lequel toute suite convergente possède une limite, fournissant le cadre indispensable de l’analyse moderne.

La définition rigoureuse au XIXᵉ siècle : compléter \( \mathbb{Q} \)

Au XIXᵉ siècle, dans le cadre de l’« arithmétisation de l’analyse », l’objectif devient de fonder l’analyse sur l’arithmétique des rationnels. L’idée centrale est que \( \mathbb{Q} \) est trop « troué » pour représenter le continu : il existe des suites de rationnels qui se rapprochent indéfiniment d’une valeur sans jamais atteindre un rationnel. Pour rendre cette intuition rigoureuse, on construit \( \mathbb{R} \) comme une complétion de \( \mathbb{Q} \).

Une coupure de Dedekind est une partition de \( \mathbb{Q} \) en deux ensembles non vides \( A \) et \( B \) tels que \( A \cup B=\mathbb{Q} \), \( A \cap B=\varnothing \), tout élément de \( A \) est strictement inférieur à tout élément de \( B \), et \( A \) n’a pas de plus grand élément. Chaque coupure représente un unique nombre réel, rationnel ou irrationnel, et l’ensemble des coupures constitue \( \mathbb{R} \).

Dans cette approche, un rationnel \( r \in \mathbb{Q} \) correspond à la coupure où \( A=\{q\in\mathbb{Q}\mid q<r\} \) et \( B=\{q\in\mathbb{Q}\mid q\ge r\} \). Un irrationnel apparaît lorsque la coupure ne correspond à aucun rationnel : elle « coupe » \( \mathbb{Q} \) en un point qui n’est pas un rapport d’entiers.

Une autre construction consiste à définir \( \mathbb{R} \) comme l’ensemble des classes d’équivalence de suites de Cauchy rationnelles. Deux suites de Cauchy \( (a_n) \) et \( (b_n) \) sont identifiées si \( a_n-b_n \to 0 \). Cette construction formalise l’idée qu’un réel est une « limite » définie par un processus rationnel, même lorsque cette limite n’est pas rationnelle.

Malgré cette unification, une nouvelle limite apparaît : certaines équations algébriques, pourtant simples en apparence, ne possèdent toujours aucune solution dans \( \mathbb{R} \). Cette difficulté ouvrira la voie à une dernière extension majeure du champ numérique.

Étape 5 — Les nombres complexes : dépasser les limites du réel

Les nombres complexes forment un ensemble noté \( \mathbb{C} \), qui prolonge les nombres réels en introduisant une solution aux équations algébriques insolubles dans \( \mathbb{R} \). Historiquement, ils apparaissent lorsqu’on accepte d’élargir la notion de nombre au-delà du cadre de la mesure réelle.

Malgré la construction rigoureuse des nombres réels au XIXᵉ siècle, certaines équations algébriques simples restent sans solution. L’exemple le plus emblématique est l’équation \( x^2+1=0 \), qui ne possède aucune solution réelle, puisque le carré d’un nombre réel est toujours positif ou nul. Ce type de difficulté révèle une limite fondamentale de \( \mathbb{R} \) en tant que cadre algébrique.

L’apparition des nombres complexes est pourtant antérieure à leur fondement théorique. Dès le XVIᵉ siècle, dans le contexte de la résolution des équations cubiques, des expressions faisant intervenir des racines carrées de nombres négatifs apparaissent au cours des calculs, même lorsque la solution finale est réelle. Ces objets sont d’abord considérés comme des artifices formels, manipulés par nécessité plutôt que par conviction.

Au XVIIIᵉ siècle, une notation se stabilise avec l’introduction de l’unité imaginaire \( i \), caractérisée par la relation \( i^2=-1 \). Cette écriture permet de représenter les nouveaux nombres sous la forme \( a+ib \), avec \( a,b\in\mathbb{R} \), et rend les calculs algébriques plus systématiques. Toutefois, cette relation reste longtemps perçue comme une convention opératoire plutôt que comme une définition rigoureuse.

Historiquement, les nombres complexes sont utilisés bien avant d’être compris : leur efficacité algébrique précède leur légitimation conceptuelle.

La clarification décisive intervient au XIXᵉ siècle, lorsque les mathématiciens cessent de chercher une interprétation « mystérieuse » de \( \sqrt{-1} \) et adoptent une approche structurelle. On construit alors un ensemble muni de lois algébriques cohérentes dans lequel un élément vérifiant \( i^2=-1 \) existe naturellement.

On définit \( \mathbb{C}=\mathbb{R}^2 \) muni des lois \( + \) et \( \times \) définies par
$$ (a,b)+(c,d)=(a+c,\;b+d), $$
$$ (a,b)\times(c,d)=(ac-bd,\;ad+bc). $$
L’élément \( (0,1) \) est noté \( i \), et l’on a alors \( i^2=(-1,0) \).

Dans cette construction, les nombres réels s’identifient naturellement aux couples de la forme \( (a,0) \), ce qui permet d’écrire \( a=(a,0) \) et en particulier \( -1=(-1,0) \). La relation \( i^2=-1 \) n’est donc plus un postulat, mais une conséquence directe des lois définissant \( \mathbb{C} \).

Les nombres complexes achèvent ainsi la chronologie des extensions numériques fondamentales. Ils ne servent plus seulement à résoudre des équations abstraites : ils deviennent indispensables en analyse, en géométrie, en physique et en ingénierie, notamment pour décrire des phénomènes oscillatoires, des rotations et des ondes.

Cette chronologie pourrait sembler s’achever naturellement avec les nombres complexes, puisqu’ils permettent de résoudre toute équation polynomiale à coefficients réels ou complexes. Pourtant, s’arrêter à \( \mathbb{C} \) donnerait une vision incomplète de l’histoire des nombres. Les complexes ne constituent pas un point final, mais un seuil à partir duquel la notion même de nombre change de nature.

À partir du XIXᵉ siècle, avec le développement de la théorie des nombres et surtout de la théorie des corps, la question n’est plus seulement de savoir quels nombres sont nécessaires pour mesurer ou calculer, mais quels nombres doivent être construits pour comprendre la structure des équations. On ne se contente plus d’un ensemble unique : on étudie des extensions de \( \mathbb{Q} \), de \( \mathbb{R} \) ou de \( \mathbb{C} \), adaptées à des problèmes précis.

Cette nouvelle perspective conduit à l’apparition de nombreux autres ensembles de nombres : corps algébriques, corps finis, nombres \( p \)-adiques, extensions transcendantes, chacun répondant à des questions spécifiques en arithmétique, en algèbre ou en géométrie. Dans ce cadre, un « nombre » n’est plus défini par son lien avec la mesure ou le calcul concret, mais par sa place dans une structure algébrique.

Ainsi, la chronologie qui mène des entiers naturels aux nombres complexes ne constitue pas une fin, mais une première grande histoire de la notion de nombre. Elle montre comment les mathématiques ont progressivement élargi leurs objets pour répondre à des limites successives. Les théories modernes des nombres et des corps prolongent cette dynamique, en révélant que le concept de nombre est fondamentalement ouvert, et qu’il continue d’évoluer avec les questions que les mathématiciens se posent.