$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Méthode de Lagrange (ou fausse position)

La méthode de Lagrange, ou méthode de la fausse position, est une méthode pour trouver une valeur approchée de la solution d'une équation $f(x)=0$. Elle consiste en le principe suivant. On suppose que $f:[a,b]\to\mathbb R$ est continue, que $f(a)<0$ et que $f(b)>0$. On considère les points $A(a,f(a))$ et $B(b,f(b))$ situés sur la courbe représentative $\mathcal C$ de $f$. On construit une suite $(x_n)$ de réels à l'aide de points $A_n$ de $\mathcal C$. Pour cela, on pose $A_0=A$ et on construit $A_{n+1}$ en traçant la droite $(A_nB)$ qui rencontre l'axe $(Ox)$ en un point d'abscisse $x_n+1$. Le point $A_{n+1}$ est le point de $\mathcal C$ d'abscisse $x_{n+1}$ :

Autrement dit, la suite $(x_n)$ vérifie l'équation de récurrence $$x_{n+1}=x_n-\frac{b-x_n}{f(b)-f(x_n)}f(x_n).$$ Sous de bonnes hypothèses (par exemple, si $f$ est croissante convexe), on prouve que la suite $(x_n)$ converge vers une solution de $f(x)=0$ dans l'intervalle $[a,b]$, et que de plus la convergence est géométrique.

Ainsi présentée, cette méthode est mise en défaut si par exemple le réel $x_1$ est de l'autre côté de la racine. C'est le cas si on suppose que $f$ est croissante et concave. On peut adapter la méthode précédente pour qu'elle fonctionne même dans ce cas en procédant comme avec la méthode de dichotomie. Partant de deux points $A_n(a_n,f(a_n))$ et $B_n(b_n,f(b_n))$ avec $f(a_n)<0$ et $f(b_n)>0$, on construit le point d'intersection de la droite $(A_nB_n)$ et de l'axe des abscisses. Ce point a pour abscisse $c_n$ et on regarde la valeur de $f(c_n)$.

  • si $f(c_n)<0$, alors on pose $A_{n+1}=(c_n,f(c_n))$ et $B_{n+1}=B_n$;
  • si $f(c_n)>0$, alors on pose $A_{n+1}=A_n$ et $B_{n+1}=(c_n,f(c_n))$.

Sous des hypothèses assez faibles ($f$ strictement croissante et de classe $C^2$), on prouve la convergence de la suite $(x_n)$ vers l'unique solution notée $\alpha$ de $f(x)=0$. De plus, la convergence est très rapide. En notant $$\phi=\frac{1+\sqrt 5}2$$ le nombre d'or, alors on peut prouver que $$\lim_{n\to+\infty}\frac{|x_{n+1}-\alpha|}{|x_n-\alpha|^\phi}\textrm{ existe.}$$ C'est une convergence superlinéaire plus rapide que la convergence géométrique de la méthode de dichotomie, mais un peu moins rapide que la convergence quadratique de la méthode de Newton....

Cette méthode, et ses variantes, porte de nombreux noms. On peut la trouver dans les livres sous le nom de méthode de Lagrange, méthode des sécantes, méthode de la fausse position, regula falsi, méthode des parties proportionnelles, méthode d'interpolation linéaire... Elle étend la classique méthode de la fausse position des problèmes arithmétiques.
Consulter aussi...