Bases de Krylov préconditionnées

Exposé dans le cadre des Trois demi-journées de conférences sur le thème Algèbre Linéraire Appliqué, Laboratoire Analyse Appliquée-Optimisation, Université de Bourgogne, 1-2 Avril 1999.

Bernhard Beckermann
Laboratoire d'Analyse Numérique et d'Optimisation
UFR IEEA - Bâtiment M3
Université des Sciences et Technologies de Lille
F--59655 Villeneuve d'Ascq CEDEX
France
E-mail: bbecker@ano.univ-lille1.fr

Pour une large classe de méthodes itératives de résolution des grands systèmes linéaires A x = b, la différence entre deux iterées provient de l'espace de Krylov generé par les vecteurs de la forme r, A r, A^2 r, ... , A^n r. Pour mieux comprendre et pouvoir comparer la convergence de ces méthodes, il est utile d'obtenir une information sur le conditionnement des matrices de Krylov

K_n(A,r) = (r, A r, A^2 r, ... , A^n r)
ou encore
K_n(A,r) = (p_0(A) r, p_1(A) r, ... , p_n(A) r),
avec p_j un polynôme donne de degré j. A titre d'exemple, le choix des polynômes de Faber permet de comparer la vitesse de convergence des méthodes GMRES et Arnoldi-Faber (Starke et Varga, 1993).

Dans cet exposé, on discutera le cas des matrices A normales. Nous donnerons des estimations quasi optimales pour le conditionnement des matrices de Faber-Krylov. Ce résultat est illustré par des nombreux exemples. En particulier on discutera le conditionnement des matrices structurées comme les matrices de Hankel définies positives ou les matrices de Vandermonde aux abscisses réelles.

Bibliographie :


BB, 12 Fev 1999