$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Méthode de Newton, et approximation de racine de 2 par la méthode d'Héron d'Alexandrie

De nombreux problèmes d'économie, de mathématiques ou de physique se concluent par la résolution d'une équation $f(x)=0$. Bien souvent, il n'est pas possible de résoudre exactement cette équation, et on cherche une valeur approchée de la solution (ou des solutions). Newton a proposé une méthode générale pour obtenir une telle approximation. L'idée est de remplacer la courbe représentative de la fonction par sa tangente.

On part d'un point $x_0$ de l'intervalle de définition de $f$, et on considère la tangente à la courbe représentative de $f$ en $(x_0,f(x_0))$. Soit $x_1$ l'abscisse de l'intersection de la tangente avec l'axe des abscisses. Puisque la tangente est proche de la courbe, on peut espérer que $x_1$ donne une meilleure estimation d'une solution de l'équation $f(x)=0$ que $x_0$. On recommence alors le procédé à partir de $x_1$, et on construit par récurrence une suite $(x_n)$ définie par :

Sous de bonnes hypothèses sur $f$, assez restrictives, $(x_n)$ converge vers la solution de $f(x)=0$, et la convergence est très rapide : supergéométrique.
Voici un exemple d'énoncé que l'on peut obtenir:

Théorème : Soit $f:[a,b]->\mathbb R$ de classe $\mathcal C^2$, avec $f(a)>0$, $f(b)<0$, $f'$ et $f''$ gardent le même signe sur $[a,b]$ sans s'annuler. Alors l'équation $f(x)=0$ possède une unique racine $c$ dans $[a,b]$. En outre, posons $x_0=b$ si $f'f''>0$, $x_0=a$ sinon, et définissons $(x_n)$ par récurrence en posant: $$x_{n+1}=x_n-\frac{f(x_n)}{f'(x_n)}.$$ Alors la suite $(x_n)$ converge vers $c$. En outre, on a l'estimation suivante de l'erreur: $$|x_n-c|\leq (M|x_0-c|)^{2^n}$$ où $M$ ne dépend que de $f$, $f'$ et $f''$.

Ex : Calcul de racine 2 par la méthode d'Héron d'Alexandrie

La première application de la méthode de Newton remonte à Héron d'Alexandrie, mathématicien grec du Ier siècle après JC. Elle permet le calcul de valeurs approchées de $\sqrt 2$, qui est l'unique solution de $x^2-2=0$ Avec $x_0=2$, la méthode de Newton donne la suite $$x_{n+1}=\frac 12\left(x_n+\frac 2{x_n}\right).$$ La figure dynamique suivante vous montre à quel point la convergence est rapide!


La méthode de Newton est parfois aussi appelée méthode de Newton-Raphson. En fait, Newton dévoile cette méthode dans Method of Fluxions, ouvrage publié en 1736 (après sa mort). Cette méthode était aussi décrite par Joseph Raphson dans Analysis Aequationum en 1690. Toutefois, il semble que la partie de Method of Fluxionsqui nous concerne avait été en fait écrite en 1671. Cependant, Newton et Raphson ne l'appliquent qu'à des polynômes. Sa forme générale est due à Simpson, en 1740.
Consulter aussi...