Polynôme de Hurwitz

Un polynôme de Hurwitz, ainsi nommé en l'honneur du mathématicien allemand Adolf Hurwitz, est un polynôme d’une variable à coefficients réels dont les racines sont toutes à partie réelle strictement négative. De tels polynômes jouent un rôle important dans la théorie des équations différentielles linéaires à coefficients constants ainsi qu'en automatique, pour l’analyse de la stabilité des systèmes dynamiques. Le critère de Routh-Hurwitz, détaillé plus bas, permet de tester cette stabilité. Il a été obtenu indépendamment par le mathématicien anglais Edward Routh en 1875[1] et par Hurwitz en 1895[2] et a été amélioré en 1914 par les mathématiciens français Liénard et Chipart dont le test de stabilité (également détaillé plus bas) est probablement le plus simple et le plus efficace[3]. L'intérêt pour ces différents critères a été relancé dans les années 1980 par le théorème de Kharitonov (en). Le lecteur pourra trouver quelques éléments historiques aux articles Automatique et Stabilité de Lyapunov. Le Critère de Jury (en) est l'équivalent du critère de Routh-Hurwitz pour les systèmes à temps discret.

Propriétés

Considérons un polynôme de degré n {\displaystyle n} à coefficients réels et ses racines z i {\displaystyle z_{i}} réelles ou complexes (par couples de valeurs conjuguées dans ce cas). Les formes développée et factorisée sont les suivantes : P ( z ) = i = 0 n a i z i = a n i = 1 n ( z z i ) {\displaystyle P(z)=\sum _{i=0}^{n}a_{i}z^{i}=a_{n}\prod _{i=1}^{n}(z-z_{i})} .

Sans restreindre la généralité, supposons encore a n > 0 {\displaystyle a_{n}>0} .

On montre aisément les propriétés suivantes :

  1. Les coefficients d’un polynôme de Hurwitz sont > 0.
  2. Si P ( z ) {\displaystyle P(z)} possède une racine réelle ≥ 0, alors au moins un coefficient est ≤ 0.
  3. P ( z ) {\displaystyle P(z)} est de Hurwitz si et seulement si R ( z ) = z n P ( 1 z ) = i = 0 n a n i z i {\displaystyle R(z)=z^{n}P\left({\frac {1}{z}}\right)=\sum _{i=0}^{n}a_{n-i}\,z^{i}} l’est également.
  4. Pour n > 1, soit Q ( z ) {\displaystyle Q(z)} le polynôme de degré n(n-1)/2 dont les racines sont les sommes deux à deux des racines de P ( z ) {\displaystyle P(z)} , soit les z i + z j {\displaystyle z_{i}+z_{j}} avec i < j {\displaystyle i<j} . Alors P ( z ) {\displaystyle P(z)} est de Hurwitz si et seulement si les coefficients de P ( z ) {\displaystyle P(z)} et de Q ( z ) {\displaystyle Q(z)} sont > 0[4].
  5. Si les coefficients de Q ( z ) {\displaystyle Q(z)} sont > 0, P ( z ) {\displaystyle P(z)} n’est pas nécessairement de Hurwitz.

Preuves

  1. Il suffit de développer la forme factorisée pour le montrer (en utilisant le coefficient de Newton).
  2. Il suffit de constater que R ( z ) = a n i = 1 n ( 1 z z i ) {\displaystyle R(z)=a_{n}\prod _{i=1}^{n}(1-zz_{i})} .
  3. Au préalable, on vérifie que les coefficients de Q ( z ) {\displaystyle Q(z)} sont réels.
    • La nécessité se déduit de l’application de 1 pour P ( z ) {\displaystyle P(z)} et de sa preuve pour Q ( z ) {\displaystyle Q(z)} .
    • Pour la suffisance, on vérifie successivement à l’aide de 2 : a) les racines réelles de P ( z ) {\displaystyle P(z)} sont < 0 ; b) si une racine complexe de P ( z ) {\displaystyle P(z)} est à partie réelle ≥ 0, alors, en l’ajoutant à sa conjuguée, Q ( z ) {\displaystyle Q(z)} possède une racine réelle ≥ 0, ce qui est exclu.
  4. Un contre-exemple : P ( z ) = ( z 1 ) ( z + 2 ) 2 {\displaystyle P(z)=(z-1)(z+2)^{2}} et Q ( z ) = ( z + 4 ) ( z + 1 ) 2 {\displaystyle Q(z)=(z+4)(z+1)^{2}} .

Conditions supplémentaires

En plus de satisfaire la propriété 1 ci-dessus sur la positivité des coefficients, d’autres conditions sont nécessaires pour assurer qu’un polynôme est de Hurwitz :

  • n < 3 {\displaystyle n<3}  : pas d'autre condition[5]
  • n = 3 {\displaystyle n=3}  : ajouter a 1 a 2 a 0 a 3 > 0   {\displaystyle a_{1}a_{2}-a_{0}a_{3}>0\ }
  • n = 4 {\displaystyle n=4}  : ajouter a 2 a 3 a 1 a 4 > a 3 2 a 0 a 1   {\displaystyle a_{2}a_{3}-a_{1}a_{4}>{\frac {a_{3}^{2}a_{0}}{a_{1}}}\ } qui s’écrit aussi a 1 a 2 a 0 a 3 > a 1 2 a 4 a 3   {\displaystyle a_{1}a_{2}-a_{0}a_{3}>{\frac {a_{1}^{2}a_{4}}{a_{3}}}\ }
  • n > 4 {\displaystyle n>4}  : ajouter plus d’une condition (cf tableaux de Routh ci-dessous).

Remarques :

  • La condition pour n = 3 {\displaystyle n=3} se retient aisément par des considérations énergétiques (voir l'article filtre électrique linéaire).
  • La condition pour n = 4 {\displaystyle n=4} doit converger vers celle pour n = 3 {\displaystyle n=3} lorsque a 4 {\displaystyle a_{4}} est quasi nul[6].

Cas général : le théorème de Routh-Hurwitz

Critère de Routh

Ce tableau est une construction numérique basée sur les coefficients a i {\displaystyle a_{i}} du polynôme dont les éléments permettent de vérifier un critère donnant une condition nécessaire et suffisante pour que le polynôme soit de Hurwitz.

Bien que le concept conserve toute sa pertinence, le critère décrit ici a significativement perdu de son importance en pratique avec l’avènement des moyens de calcul rapide : pour un polynôme dont les coefficients sont connus, il est en effet préférable de déterminer numériquement ses racines (car elles donnent des indications nuancées sur la stabilité), au lieu de mettre en œuvre le critère ne permettant que de trancher.

Pour un polynôme de degré n, ce tableau est une matrice C {\displaystyle C} comportant n+1 lignes et au moins (n+1)/2 colonnes.

Les éléments des deux premières lignes C i , j {\displaystyle C_{i,j}} sont directement issues des coefficients, alors que les éléments des suivantes se déterminent par des calculs de déterminants :

  • La 1re ligne du tableau, indexée par z n {\displaystyle z^{n}} , comporte les coefficients a n {\displaystyle a_{n}} , a n 2 {\displaystyle a_{n-2}} , … soit C 1 , j = a n + 2 2 j . {\displaystyle C_{1,j}=a_{n+2-2j}.}
  • La 2e ligne du tableau, indexée par z n 1 {\displaystyle z^{n-1}} , comporte les coefficients a n 1 {\displaystyle a_{n-1}} , a n 3 {\displaystyle a_{n-3}} , … soit C 2 , j = a n + 1 2 j . {\displaystyle C_{2,j}=a_{n+1-2j}.}
  • Pour la ligne i, indexée par z n i {\displaystyle z^{n-i}} , les éléments satisfont la relation récurrente suivante : C i + 1 , j = C i 1 , j + 1   C i , 1 C i 1 , 1   C i , j + 1 C i , 1 . {\displaystyle C_{i+1,j}={\frac {C_{i-1,j+1}\ C_{i,1}-C_{i-1,1}\ C_{i,j+1}}{C_{i,1}}}.}

Lorsque cette relation fait référence à des éléments qui sont hors de la matrice (j trop grand), ces derniers sont remplacés par 0.

Ce procédé conduit au tableau suivant :

Tableau de Routh
z n {\displaystyle z^{n}} C 1 , 1 = a n   {\displaystyle C_{1,1}=a_{n}\ } C 1 , 2 = a n 2   {\displaystyle C_{1,2}=a_{n-2}\ } C 1 , 3 = a n 4   {\displaystyle C_{1,3}=a_{n-4}\ } C 1 , 4 = a n 6   {\displaystyle C_{1,4}=a_{n-6}\ }
z n 1 {\displaystyle z^{n-1}} C 2 , 1 = a n 1   {\displaystyle C_{2,1}=a_{n-1}\ } C 2 , 2 = a n 3   {\displaystyle C_{2,2}=a_{n-3}\ } C 2 , 3 = a n 5   {\displaystyle C_{2,3}=a_{n-5}\ } C 2 , 4 = a n 7   {\displaystyle C_{2,4}=a_{n-7}\ }
z n 2 {\displaystyle z^{n-2}} C 3 , 1 = 1 C 2 , 1 | C 1 , 1 C 1 , 2 C 2 , 1 C 2 , 2 | {\displaystyle C_{3,1}={\frac {-1}{C_{2,1}}}{\begin{vmatrix}C_{1,1}&C_{1,2}\\C_{2,1}&C_{2,2}\end{vmatrix}}} C 3 , 2 = 1 C 2 , 1 | C 1 , 1 C 1 , 3 C 2 , 1 C 2 , 3 | {\displaystyle C_{3,2}={\frac {-1}{C_{2,1}}}{\begin{vmatrix}C_{1,1}&C_{1,3}\\C_{2,1}&C_{2,3}\end{vmatrix}}} C 3 , 3 = 1 C 2 , 1 | C 1 , 1 C 1 , 4 C 2 , 1 C 2 , 4 | {\displaystyle C_{3,3}={\frac {-1}{C_{2,1}}}{\begin{vmatrix}C_{1,1}&C_{1,4}\\C_{2,1}&C_{2,4}\end{vmatrix}}}
z n 3 {\displaystyle z^{n-3}} C 4 , 1 = 1 C 3 , 1 | C 2 , 1 C 2 , 2 C 3 , 1 C 3 , 2 | {\displaystyle C_{4,1}={\frac {-1}{C_{3,1}}}{\begin{vmatrix}C_{2,1}&C_{2,2}\\C_{3,1}&C_{3,2}\end{vmatrix}}} C 4 , 2 = 1 C 3 , 1 | C 2 , 1 C 2 , 3 C 3 , 1 C 3 , 3 | {\displaystyle C_{4,2}={\frac {-1}{C_{3,1}}}{\begin{vmatrix}C_{2,1}&C_{2,3}\\C_{3,1}&C_{3,3}\end{vmatrix}}}
z n 4 {\displaystyle z^{n-4}} C 5 , 1 = 1 C 4 , 1 | C 3 , 1 C 3 , 2 C 4 , 1 C 4 , 2 | {\displaystyle C_{5,1}={\frac {-1}{C_{4,1}}}{\begin{vmatrix}C_{3,1}&C_{3,2}\\C_{4,1}&C_{4,2}\end{vmatrix}}}

Critère de Routh — En supposant ici encore que a n > 0 {\displaystyle a_{n}>0} , le polynôme est de Hurwitz si et seulement si les n+1 éléments de la première colonne sont tous > 0.

Remarque : Concernant les unités physiques dans le cas d’un système dynamique, celles de a i {\displaystyle a_{i}} sont [ T i ] {\displaystyle [T^{i}]} T {\displaystyle T} est le temps. Partant de C 1 , 1 {\displaystyle C_{1,1}} dont l’unité est [ T n ] {\displaystyle [T^{n}]} , chaque élément de la matrice C {\displaystyle C} est d’unité homogène, ce qui permet un contrôle sur le traitement numérique. L’unité de C i , j {\displaystyle C_{i,j}} étant [ T n + 3 i 2 j ] {\displaystyle [T^{n+3-i-2j}]} , on perd ainsi :

  • deux unités en progressant d’une colonne,
  • une unité en progressant d’une ligne.

Si l’un des éléments en première colonne est nul ( C i , 1 = 0 {\displaystyle C_{i,1}=0} ), le calcul des C i + 1 , 1 {\displaystyle C_{i+1,1}} est impossible et le cas est dit « singulier ». C'est par exemple le cas du polynôme

P ( z ) = z 4 + z 3 + 2 z 2 + 2 z + 1 {\displaystyle P(z)=z^{4}+z^{3}+2z^{2}+2z+1}

qui a deux paires de racines complexes conjuguées, l'une à partie réelle positive, l'autre à partie réelle négative. Le critère de Routh est une conséquence du théorème de Routh ci-dessous:

Théorème de Routh — Si le cas est non singulier ( C i , 1 0 , i = 1 , 2 , . . . {\displaystyle C_{i,1}\neq 0,i=1,2,...} ), P ( z ) {\displaystyle P(z)} n'a pas de racines imaginaires et le nombre de ses racines appartenant au demi-plan droit est égal à V ( { C 1 , 1 , C 2 , 1 , . . . , C n , 1 } ) {\displaystyle V\left(\left\{C_{1,1},C_{2,1},...,C_{n,1}\right\}\right)} V ( . ) {\displaystyle V\left(.\right)} désigne le nombre de changements de signe dans la suite finie entre parenthèses.

Remarque sur les singularités (1)

Une singularité C i , 1 = 0 {\displaystyle C_{i,1}=0} où les C i , j ( j = 2 , 3 , . . . ) {\displaystyle C_{i,j}(j=2,3,...)} sont non nuls est dite du « premier type ». On peut contourner ce type de singularité en remplaçant l'égalité C i , 1 = 0 {\displaystyle C_{i,1}=0} par C i , 1 = ε {\displaystyle C_{i,1}=\varepsilon } ε > 0 {\displaystyle \varepsilon >0} est une quantité « infiniment petite », puis en continuant les calculs (« méthode du ε {\displaystyle \varepsilon } de Routh »). S'il n'y a que des singularités de ce type, P ( z ) {\displaystyle P(z)} n'a pas de racines imaginaires et l'énoncé ci-dessus du théorème de Routh reste valable. La singularité du polynôme P ( z ) = z 4 + z 3 + 2 z 2 + 2 z + 1 {\displaystyle P(z)=z^{4}+z^{3}+2z^{2}+2z+1} est de ce type.

Le cas d'une singularité du « second type », c'est-à-dire qui n'est pas du premier type, est plus complexe. Une telle singularité se caractérise par le fait que toute une ligne de C i , j ( j = 1 , 2 , 3 , . . . ) {\displaystyle C_{i,j}\left(j=1,2,3,...\right)} est nulle. C'est le cas du polynôme

P ( z ) = z 10 + z 9 z 8 2 z 7 + z 6 + 3 z 5 + z 4 2 z 3 z 2 + z + 1 {\displaystyle P(z)=z^{10}+z^{9}-z^{8}-2z^{7}+z^{6}+3z^{5}+z^{4}-2z^{3}-z^{2}+z+1}

qui a une racine réelle < 0 {\displaystyle <0} , 2 paires de racines complexes à partie réelle < 0 {\displaystyle <0} , et 2 paires de racines complexes à partie réelle > 0 {\displaystyle >0} . C'est également le cas du polynôme

P ( z ) = z 6 + z 5 + 3 z 4 + 3 z 3 + 3 z 2 + 2 z + 1 {\displaystyle P(z)=z^{6}+z^{5}+3z^{4}+3z^{3}+3z^{2}+2z+1}

qui a 2 racines complexes conjuguées à partie réelle < 0 {\displaystyle <0} , 2 racines complexes conjuguées à partie réelle > 0 {\displaystyle >0} , et les deux racines imaginaires pures i , i {\displaystyle i,-i} .

Critère de Hurwitz

Les coefficients du polynôme permettent de définir une matrice explicitée dans l’article sur les déterminants de Hurwitz.

Considérons le polynôme

R ( z ) = i = 0 n a i z n i = a 0 z n + a 1 z n 1 + . . . . + a n {\displaystyle R\left(z\right)=\sum \limits _{i=0}^{n}a_{i}z^{n-i}=a_{0}z^{n}+a_{1}z^{n-1}+....+a_{n}}

où l'on suppose a 0 > 0 {\displaystyle a_{0}>0} sans perte de généralité. Dans certains ouvrages, plutôt que la matrice de Hurwitz associée à ce polynôme, on considère (de manière équivalente) sa transposée H {\displaystyle {\mathfrak {H}}} donnée par

H = [ a 1 a 0 0 0 0 a 3 a 2 a 1 a 0 0 a 5 a 4 a 3 a 2 0 a 4 a n 1 0 0 0 0 a n ] {\displaystyle {\mathfrak {H}}=\left[{\begin{array}{cccccc}a_{1}&a_{0}&0&0&\cdots &0\\a_{3}&a_{2}&a_{1}&a_{0}&&0\\a_{5}&a_{4}&a_{3}&a_{2}&&0\\\vdots &\vdots &\ddots &a_{4}&\ddots &\vdots \\&&&&\ddots &a_{n-1}\\0&0&0&0&\cdots &a_{n}\end{array}}\right]}

que l'on construit colonne par colonne en notant la particularité des diagonales. Le critère de Hurwitz peut s'énoncer comme suit :

Critère de Hurwitz — Le polynôme est de Hurwitz si et seulement si les n mineurs principaux

Δ i = | a 1 a 0 0 0 a 3 a 2 a 1 a 5 a 4 a 3 a i 1 a i | {\displaystyle \Delta _{i}=\left|{\begin{array}{cccccc}a_{1}&a_{0}&0&\cdots &0\\a_{3}&a_{2}&a_{1}&&\vdots \\a_{5}&a_{4}&a_{3}&\ddots &\\\vdots &\vdots &\vdots &\ddots &a_{i-1}\\\cdots &\cdots &\cdots &\cdots &a_{i}\end{array}}\right|}

( i = 1 , . . . , n ) {\displaystyle (i=1,...,n)} sont tous > 0 {\displaystyle >0} .

On a de plus le résultat suivant :

Lemme — Soit C i , 1 ( i = 1 , 2 , . . . ) {\displaystyle C_{i,1}\left(i=1,2,...\right)} les éléments de la première colonne du tableau de Routh de R ( z ) {\displaystyle R\left(z\right)} . Alors

Δ 1 = C 1 , 1 , Δ 2 = C 1 , 1 C 2 , 1 , . . . , Δ i = C 1 , 1 . . . C i , 1 {\displaystyle \Delta _{1}=C_{1,1},\Delta _{2}=C_{1,1}C_{2,1},...,\Delta _{i}=C_{1,1}...C_{i,1}} .

En utilisant le théorème de Routh, on en déduit le

Théorème de Routh-Hurwitz — Un cas est singulier si, et seulement si un de ces mineurs principaux Δ i {\displaystyle \Delta _{i}} ( i { 1 , . . . , n } ) {\displaystyle \left(i\in \left\{1,...,n\right\}\right)} est nul. Dans un cas non singulier, il n'y a pas de racines imaginaires pures et le nombre de racines à partie réelle > 0 {\displaystyle >0} est égal à

V ( { 1 , Δ 1 , Δ 2 Δ 1 , . . . , Δ n Δ n 1 } ) = V ( { 1 , Δ 1 , Δ 3 , . . . } ) + V ( { 1 , Δ 2 , Δ 4 , . . . } ) {\displaystyle V\left(\left\{1,\Delta _{1},{\frac {\Delta _{2}}{\Delta _{1}}},...,{\frac {\Delta _{n}}{\Delta _{n-1}}}\right\}\right)=V\left(\left\{1,\Delta _{1},\Delta _{3},...\right\}\right)+V\left(\left\{1,\Delta _{2},\Delta _{4},...\right\}\right)} .

V ( . ) {\displaystyle V\left(.\right)} désigne le nombre de changements de signe dans la suite finie entre parenthèses. Les cas singuliers du premier type sont ceux pour lesquels un seul des Δ i {\displaystyle \Delta _{i}} est nul. Ces cas peuvent être traités en adaptant la « méthode du ε {\displaystyle \varepsilon }  » de Routh.

La matrice de Hurwitz, ou de manière équivalente la matrice H {\displaystyle {\mathfrak {H}}} , est plus simple à déterminer que le tableau de Routh. Dans certains cas, néanmoins, le calcul des mineurs Δ i {\displaystyle \Delta _{i}} nécessiterait plus d'opérations, inconvénient qui pourrait être pallié par le critère ci-dessous :

Critère de Liénard et Chipart

Critère de Liénard et Chipart — Soit le polynôme R ( z ) {\displaystyle R(z)} ci-dessus où a i > 0 , i = 0 , 1 , . . . , n {\displaystyle a_{i}>0,i=0,1,...,n} . (i) L'une quelconque des deux conditions ci-dessous est nécessaire et suffisante pour que R ( z ) {\displaystyle R(z)} soit un polynôme de Hurwitz:

(1) Δ 1 > 0 , Δ 3 > 0 , . . . , Δ 2 k + 1 > 0 , . . . , {\displaystyle \Delta _{1}>0,\Delta _{3}>0,...,\Delta _{2k+1}>0,...,}

(2) Δ 2 > 0 , Δ 4 > 0 , . . . , Δ 2 k > 0 , . . . , {\displaystyle \Delta _{2}>0,\Delta _{4}>0,...,\Delta _{2k}>0,...,} .

(ii) Dans le cas non singulier, le nombre de racines de R ( z ) {\displaystyle R(z)} à partie réelle > 0 {\displaystyle >0} est égal à

2 V ( { 1 , Δ 1 , Δ 3 , . . . } ) = 2 V ( { 1 , Δ 2 , Δ 4 , . . . } ) {\displaystyle 2V\left(\left\{1,\Delta _{1},\Delta _{3},...\right\}\right)=2V\left(\left\{1,\Delta _{2},\Delta _{4},...\right\}\right)} .

(avec la notation déjà utilisée).

(iii) Dans un cas singulier du premier type, si l'une des suites finies ci-dessus ne prend pas la valeur 0, et si δ {\displaystyle \delta } désigne cette suite, le nombre de racines de R ( z ) {\displaystyle R(z)} à partie réelle > 0 {\displaystyle >0} est égal 2 V ( δ ) {\displaystyle 2V\left(\delta \right)} .

En conséquence, si les mineurs principaux d'ordre pair de la matrice de Hurwitz (ou, de manière équivalente, de H {\displaystyle {\mathfrak {H}}} ) sont tous > 0 {\displaystyle >0} , ceux d'ordre impair le sont aussi et réciproquement. Par ailleurs, si les a i {\displaystyle a_{i}} sont tous > 0 {\displaystyle >0} et l'une des suites finies ci-dessus ne prend pas la valeur 0 (suite notée δ {\displaystyle \delta } ), le nombre de racines à partie réelle > 0 {\displaystyle >0} de R ( z ) {\displaystyle R(z)} est nécessairement pair.

Remarque sur les singularités (2)

  • Le critère de Liénard et Chipart fait « disparaître » les singularités du premier type, sans qu'il soit nécessaire de recourir à la « méthode du ε {\displaystyle \varepsilon }  » de Routh. Si par exemple
R ( z ) = z 4 + z 3 + 2 z 2 + 2 z + 1 {\displaystyle R(z)=z^{4}+z^{3}+2z^{2}+2z+1} ,

on vérifie facilement que Δ 1 = 1 , Δ 2 = 0 , Δ 3 = Δ 4 = 1 {\displaystyle \Delta _{1}=1,\Delta _{2}=0,\Delta _{3}=\Delta _{4}=-1} . Donc δ = { 1 , Δ 1 , Δ 3 } = { 1 , 1 , 1 } {\displaystyle \delta =\left\{1,\Delta _{1},\Delta _{3}\right\}=\left\{1,1,-1\right\}} et le nombre de racines de R ( z ) {\displaystyle R(z)} à partie réelle > 0 {\displaystyle >0} est 2 V ( δ ) = 2 {\displaystyle 2V\left(\delta \right)=2} .

  • En revanche, les singularités du second type subsistent. Parmi celles-ci, on rencontre celles pour lesquelles le polynôme R ( z ) {\displaystyle R(z)} a des racines imaginaires (voir Gantmacher 1966, Chap. XV, §§ 4, 8). Soit par exemple
R ( z ) = z 3 + α z 2 + ω 2 z + α ω 2 {\displaystyle R(z)=z^{3}+\alpha z^{2}+\omega ^{2}z+\alpha \omega ^{2}} .

avec α ω 0 {\displaystyle \alpha \omega \neq 0} . On a Δ 1 = α , Δ 2 = Δ 3 = 0 {\displaystyle \Delta _{1}=\alpha ,\Delta _{2}=\Delta _{3}=0} , et l'on a donc une singularité du second type. On peut raisonner de la manière suivante : si l'on remplace z par z + η , η 0 {\displaystyle z+\eta ,\eta \neq 0} , on constate, en négligeant les termes en o ( η ) {\displaystyle o(\eta )} , que cette fois Δ 2 {\displaystyle \Delta _{2}} est du signe de η {\displaystyle \eta } , et que Δ 3 {\displaystyle \Delta _{3}} est du signe de η α {\displaystyle \eta \alpha } . On en déduit donc que le polynôme R ( z ) {\displaystyle R(z)} a pour racines α {\displaystyle -\alpha } et deux complexes imaginaires purs conjugués. On vérifie du reste que R ( z ) = ( z + α ) ( z 2 + ω 2 ) {\displaystyle R(z)=\left(z+\alpha \right)\left(z^{2}+\omega ^{2}\right)} .

Néanmoins, il existe des polynômes qui n'ont pas de racines imaginaires et qui présentent une singularité du second type (bien entendu, ces polynômes ne sont pas de Hurwitz). C'est par exemple le cas du polynôme

R ( z ) = 2 z 5 + 2 z 4 + z 3 + z 2 + 4 z + 4 {\displaystyle R(z)=2z^{5}+2z^{4}+z^{3}+z^{2}+4z+4}

qui a pour racines 1 {\displaystyle -1} , et des racines complexes conjuguées α ± i β {\displaystyle \alpha \pm i\beta } et α ± i β , α 0 {\displaystyle -\alpha \pm i\beta ,\alpha \neq 0} .

  • On peut déterminer le nombre de racines à partie réelle positive d'un polynôme quelconque (par exemple celui qui précède) grâce à un « tableau de Routh étendu », sans recourir à la « méthode du ε {\displaystyle \varepsilon }  » ni à aucun artifice de ce type[7].

Application aux équations différentielles

Considérons l’équation différentielle linéaire à coefficients constants suivante : j = 0 m b j y ( j ) ( t ) = 0. {\displaystyle \sum _{j=0}^{m}b_{j}\;y^{(j)}(t)=0.}

On dit que le point d'équilibre 0 est exponentiellement stable si, pour des conditions initiales quelconques, la solution converge exponentiellement vers 0 lorsque t tend vers l’infini.

Soit H ( p ) = j = 0 m b j p j {\displaystyle H(p)=\sum _{j=0}^{m}b_{j}\;p^{j}} le polynôme caractéristique de cette équation. D'après un théorème classique[8], la solution y ( t ) {\displaystyle y(t)} est une combinaison de termes du type t k i 1 e z i t {\displaystyle t^{k_{i}-1}e^{z_{i}t}} où les z i {\displaystyle z_{i}} sont les racines distinctes de H ( p ) {\displaystyle H(p)} et les k i {\displaystyle k_{i}} sont des entiers prenant toutes les valeurs entre 1 et l'ordre de multiplicité de la racine z i {\displaystyle z_{i}} . On en déduit la

Condition nécessaire et suffisante de stabilité exponentielle — Le point d'équilibre 0 est exponentiellement stable si et seulement si H ( p ) {\displaystyle H(p)} est un polynôme de Hurwitz.

Notes

  1. Routh 1877
  2. Hurwitz 1895
  3. Gantmacher 1966, Chap. XV.
  4. La détermination des coefficients de Q ( z ) {\displaystyle Q(z)} sans connaître les racines de P ( z ) {\displaystyle P(z)} peut être obtenue au moyen des relations entre coefficients et racines, mais reste un problème non trivial.
  5. Avec n = 2 {\displaystyle n=2} , c’est une évidence pour un physicien habitué au circuit RLC.
  6. Par contre, il faut connaître la situation de deux oscillateurs couplés avec injection de puissance pour retrouver l'inéquation ( a 2 a 1 ) / ( a 3 a 0 ) > 1 + k ( a 4 / a 0 ) ( a 1 / a 3 ) 2 , k = 1   {\displaystyle (a_{2}\,a_{1})/(a_{3}\,a_{0})>1+k(a_{4}/a_{0})(a_{1}/a_{3})^{2},k=1\ } .
  7. Benidir et Picinbono 1990
  8. N. Bourbaki, Fonctions d'une variable réelle, Hermann, 1976, n°IV.2.8.

Bibliographie

  • Messaoud Benidir et Michel Barret, Stabilité des filtres et des systèmes linéaires, Dunod, , 256 p. (ISBN 978-2-10-004432-0)
  • (en) Messaoud Benidir et Bernard Picinbono, « Extended Table for Eliminating the Singularities in Routh’s Array », IEEE Trans. on Automat. Control, vol. 35, no 2,‎ , p. 218-221
  • Felix Gantmacher, Théorie des matrices, tome 2, Dunod, (ISBN 978-2-87647-035-4)
  • (de) Adolf Hurwitz, « Bedingungen, unter welchen eine Gleichung nur Wurzeln mit negativen reellen Teilen besitzt », Mathematische Annalen, vol. 46,‎ , p. 273–285 (lire en ligne)
  • Liénard et Chipart, « Sur le signe de la partie réelle des racines d'une équation algébrique », J. Math. Pures et Appliquées, vol. 10, no 6,‎ , p. 391-346 (lire en ligne)
  • (en) Edward Routh, A treatise on the stability of a given state of motion, MacMillan, (lire en ligne)

Voir aussi

  • icône décorative Portail des mathématiques