$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Méthode de Lagrange (ou fausse position)

  La méthode de Lagrange, ou méthode de la fausse position, est une méthode pour trouver une valeur approchée de la solution d'une équation f(x)=0. Elle consiste en le principe suivant. On suppose que f:[a,b]->R est continue, que f(a)<0 et que f(b)>0. On considère les points A(a,f(a)) et B(b,f(b)) situés sur la courbe représentative C de f. On construit une suite (xn) de réels à l'aide de points An de C. Pour cela, on pose A0=A et on construit An+1 en traçant la droite (AnB) qui rencontre l'axe (Ox) en un point d'abscisse xn+1. Le point An+1 est le point de C d'abscisse xn+1 :

  Autrement dit, la suite (xn) vérifie l'équation de récurrence :
Sous de bonnes hypothèses (par exemple, si f est croissante convexe), on prouve que la suite (xn) converge vers une solution de f(x)=0 dans l'intervalle [a,b], et que de plus la convergence est géométrique.

  Ainsi présentée, cette méthode est mise en défaut si par exemple le réel x1 est de l'autre côté de la racine. C'est le cas si on suppose que f est croissante et concave. Une variante de la méthode précédente est de construire xn+1 non pas seulement à l'aide de xn et de b, mais à l'aide des deux points précédents, xn et xn-1. Autrement dit, la suite est cette fois définie par
Sous des hypothèses assez faible (f strictement croissante, C2 et la racine est simple), on prouve la convergence de la suite (xn) vers l'unique solution notée de f(x)=0. De plus, la convergence est très rapide. En notant
le nombre d'or, alors on peut prouver que
existe. C'est une convergence superlinéaire plus rapide que la convergence géométrique de la méthode de dichotomie, mais un peu moins rapide que la convergence quadratique de la méthode de Newton....

Cette méthode, et ses variantes, porte de nombreux noms. On peut la trouver dans les livres sous le nom de méthode de Lagrange, méthode des sécantes, méthode de la fausse position, regula falsi, méthode des parties proportionnelles, méthode d'interpolation linéaire...
Consulter aussi...