Recherche Bernhard Beckermann

Go to Home Page Bernhard Beckermann
Go to Home Page ANO
Go to Home Page USTL 

Activités et projets en matiére de recherche

Par des méthodes analytiques, algébriques et algorithmiques, j'ai étudié plusieurs aspects des mathématiques appliquées, notamment en théorie de l'Approximation et de l'Algèbre linéaire numérique. Mes activités de recherche portent en particulier sur l'approximation rationnelle scalaire et matricielle et ses liens avec la théorie spectrale, la fiabilité et la stabilité numérique des algorithmes, le conditionnement des matrices structurées et sa connexion avec des problèmes de meilleure approximation. Dans la suite, certains de ces sujets sont plus détaillés. Également, quelques projets en matière de recherche sont développés.



Mots clefs et table de matières
 
  1. La stabilité numérique

  2. Méthodes de ``Look-ahead''
    Les moments modifiés
    Calcul ``semi-numérique''
    Perspectives
  3. Algèbre linéaire numérique et théorie du potentiel

  4. Conditionnement des matrices de Vandermonde et de Hankel
    Bases de Krylov
    Généralisations basées sur la théorie du potentiel
    Démonstration d'une conjecture de Rakhmanov
    Convergence des méthodes itératives pour le Laplacien
    Perspectives
  5. Polynômes matriciels

  6. Approximants rationnels matriciels
    Calcul sans fractions
    Formes normales des matrices polynomiales
    Mise en oeuvre dans MAPLE
    Calcul fiable des approximants rationnels scalaires
    Perspectives
  7. Opérateurs aux différences

  8. Applications aux systèmes dynamiques
    Caractérisation du spectre
    Convergence des approximants rationnelles
    Matrices de Toeplitz bandes
    Perspectives
  9. R.O.L.L.S.

1  La stabilité numérique

1.1  Méthodes de ``Look-ahead''

Dans le cadre de l'arithmétique en précision finie, la mise en uvre des méthodes pour calculer des approximants rationnels ou des polynômes orthogonaux pose des problèmes de stabilité numérique très importants. Ici on peut observer des parallèles avec quelques méthodes itératives pour résoudre des systèmes d'équations, par exemple la méthode de Lanczos. Cette méthode a donné, ces dernières années, lieu à de très nombreuses publications, notamment au Laboratoire d'Analyse Numérique et d'Optimisation de Lille par C. Brezinski. Le ``look-ahead'' ou saut au-dessus des problèmes instables est cependant souvent heuristique. Dans [ici], j'ai donné un critère de saut, en montrant que ce choix mène à un algorithme faiblement stable. Quelques premiers résultats ont été obtenus dans [ici] pour les généralisations matricielles ; ce sujet reste encore un objet de ma recherche actuelle.

1.2  Les moments modifiés

Une manipulation numériquement stable des polynômes orthogonaux est possible à partir des coefficients de la récurrence à trois termes associée. Souvent, ces coefficients peuvent être obtenus avec une grande précision par l'algorithme des moments modifiés, en utilisant un autre système de polynômes orthogonaux connu. Avec mon étudiant en thèse E. Bourreau, nous avons étudié le conditionnement de certaines applications non-linéaires sous-jacentes. Ainsi nous avons pu donner des critères analytiques pour un choix du système de référence [ici]. Actuellement, nous travaillons sur une généralisation de moments modifiés vectoriels - un élément essentiel dans la résolution numérique de certains systèmes dynamiques non-linéaires discrets.

1.3  Calcul ``semi-numérique''

Ces dernières années, de nombreux chercheurs en calcul formel ont utilisé des éléments d'Analyse Numérique dans le domaine du calcul ``semi-numérique''. Dans les applications comme la théorie du contrôle ou la théorie du signal, les données sont seulement connues avec une précision finie. Ici il est nécessaire d'étudier la sensibilité des outils classiques en calcul formel par rapport aux perturbations des données, comme par exemple le pgcd ou les bases de Gröbner. Dans ce domaine encore peu développé, nous avons proposé une méthode efficace et numériquement stable du type ``look-ahead'' pour tester si deux polynômes ``numériques'' sont premiers entre eux [Ref1, Ref2].

1.4  Perspectives

La stabilité numérique reste un des critères les plus importants pour choisir une méthode de calcul adaptée à un problème mathématique donné. Effectivement, dans les applications on dispose en général de données entachées d'erreurs et donc une étude de stabilité s'impose pour pouvoir assurer une certaine précision de la réponse. Dans ce domaine souvent assez difficile, des possibilités de collaboration sont nombreuses. En particulier, il me semble très prometteur de renforcer la collaboration dans le domaine du calcul ``semi-num'erique'' car, dans les années à venir, les systèmes de calcul formel comme MAPLE serviront de plus en plus comme interface entre calcul symbolique et calcul numérique.

2  Algèbre linéaire et théorie du potentiel

2.1  Conditionnement des matrices de Vandermonde et de Hankel

Les matrices possédant une certaine structure - comme par exemple les matrices de Vandermonde avec des abscisses réelles, les matrices de Hankel définies positives et les matrices de Krylov (r, A r, A2 r, ... , An r) construites à partir d'une matrice symétrique A - sont considérées comme étant toujours très mal conditionnés, même si elles ont une taille modeste. Néanmoins, très peu de résultats théoriques sont connus dans ce contexte (voir par exemple les travaux de Gautschi sur les matrices de Vandermonde). Pour toutes ces matrices, il existe de nombreuses applications (collocation, polynômes orthogonaux, méthode de Lanczos, etc.), ce qui illustre l'importance de ce problème.

Dans ma thèse d'Habilitation [ici], je me suis intéressé à donner des bornes inférieures pour le conditionnement des éléments de ces classes particulières de matrices, bornes qui sont asymptotiquement atteintes. Dans ce contexte, j'ai, par exemple, obtenu des résultats pour la classe des matrices de Vandermonde avec des abscisses réelles et déterminé explicitement la configuration des abscisses qui minimise le conditionnement. Pour les autres deux classes des matrices décrites ci-dessus j'ai également établi une borne inférieure de la forme gn/n, atteinte à un facteur n4 près. Plusieurs généralisations de ces résultats sont étudiées. Quelques améliorations de ces estimations sont données dans [ici].

2.2  Bases de Krylov

Pour une large classe de méthodes itératives de résolution des grands systèmes linéaires A x = b, la différence entre deux itérés provient de l'espace de Krylov généré par les vecteurs de la forme r, A r, A2 r, ... , An r. Pour mieux comprendre et pouvoir comparer la convergence de ces méthodes, il est utile d'obtenir une information sur le conditionnement des matrices de Krylov modifiées
Kn(A,r) = (p0(A) r, p1(A) r, ... , pn(A) r),
avec pj un polynôme de degré j. Ici deux approches sont possibles : pour certaines méthodes (comme par exemple GMRES), les polynômes sont déterminés implicitement en fonction de A,r de sorte que Kn(A,r) soit orthogonale et la connaissance (approximative) de ces polynômes permettra de prédire le taux de convergence. Dans d'autres méthodes - par exemple celle d'Arnoldi-Chebyshev ou d'Arnoldi-Faber - l'utilisateur fixe les polynômes et le taux de convergence de l'algorithme dépendra du conditionnement de Kn(A,r).

Pour les matrices normales A, j'ai obtenu des estimations quasi-optimales pour le conditionnement des matrices de Faber-Krylov. Ce résultat permet de comparer la vitesse de convergence des méthodes GMRES et Arnoldi-Faber.

2.3  Généralisations basées sur la théorie du potentiel

Dans un projet de collaboration avec H. Stahl (Berlin, Allemagne) nous avons l'intention de donner des estimations pour le conditionnement de classes plus larges des matrices de Gram et de Krylov, en exploitant le lien avec la théorie du potentiel dans le plan complexe en présence d'un champ extérieur [ici].

L'approximation polynomiale au sens des moindres carrés était le sujet d'une collaboration avec E. Saff (Tampa, États Unis) [ici]. Pour mesurer l'erreur des approximants liée à une incertitude sur les données, nous avons mené une étude sur le conditionnement des matrices de Vandermonde généralisées avec une distribution donnée des abscisses (par exemple équidistante). Ici on se sert d'une généralisation récente de la théorie du potentiel dans le plan complexe en présence d'un champ extérieur où on ajoute encore une contrainte sur les mesures en considération.

2.4  Démonstration d'une conjecture de Rakhmanov

L'étude de l'asymptotique des polynômes orthogonaux a reçu une attention particulière pendant les quarante dernières années. Néanmoins ces méthodes ne sont plus applicables si la mesure d'orthogonalité admet un support discret. Une telle situation se présente dans des domaines d'applications importants, comme la théorie du codage ou les systèmes dynamiques de Toda.

Au début des années 90, Rakhmanov a proposé une méthode basée sur la théorie du potentiel complexe pour étudier l'asymptotique des polynômes orthogonaux discrets. Cependant, il restait des questions majeures sur des conditions de séparation des points du support. En travaillant sur la distribution des points de Fekete correspondants, j'ai pu résoudre deux conjectures de Rakhmanov dans ce domaine [ici].

2.5  Convergence des méthodes itératives pour le Laplacien

Dans la résolution du problème de Dirichlet en dimension 2 par la méthode des différences finies, on est amené à résoudre un grand système linéaire A x = b, avec A ayant une forme particulière (creuse, symétrique, définie positive). Ici on applique typiquement la méthode du gradient conjugué. Néanmoins les résultats théoriques connus sur la convergence sont basés sur le conditionnement (élevé) de A et ne prédisent pas bien le comportement de convergence observé expérimentalement ; ils sont de loin trop pessimistes. Ce phénomène peut être expliqué par la répartition non homogène du spectre de la matrice A.

Dans un projet de collaboration avec B. Fischer (Université médicale de Lübeck), on applique la théorie des polynômes orthogonaux discrets pour mieux décrire théoriquement le comportement de la convergence. Cette idée nous paraît très prometteuse également pour d'autres problèmes provenant d'une discrétisation des équations aux dérivées partielles. Ainsi on envisage d'étudier un problème de traitement d'images issu d'une application médicale modélisée à l'aide de l'équation de Navier-Lamé.

2.6  Perspectives

L'étude de la convergence et du préconditionnement des méthodes itératives de résolution des grands systèmes linéaires a donné, ces dernières années, lieu à de très nombreuses publications. Des développements récents dans la théorie du potentiel ont permis de mieux comprendre le conditionnement de certaines matrices structurées et le comportement asymptotique des polynômes orthogonaux discrets. Néanmoins, l'interaction entre ces domaines me semble pas encore suffisamment exploitée à ce jour. L'étude de cette interaction ouvre un vaste champ d'investigations pour les prochaines années. Un des buts serait de trouver une justification théorique pour le comportement de la convergence des méthodes itératives appliquées aux problèmes d'EDP.

3  Polynômes matriciels

3.1  Approximants rationnels matriciels

Depuis sept ans je collabore avec G. Labahn (Université de Waterloo au Canada et MAPLE Company). Nous avons étudié une approche d'uniformisation pour une grande catégorie de problèmes d'approximation du type Padé vectoriel ou matriciel (voir [Ref1, Ref2, Ref3]). En effet, ces travaux permettent de mieux comprendre le lien entre plusieurs concepts vectoriels différents en approximation (approximation de Hermite-Padé, approximation de Padé simultanée) et de généraliser quelques propriétés, par exemple la classification des cas singuliers ou les méthodes fiables de calcul [Ref1, Ref2]. Une application de notre travail mène aux formules d'inversion pour des matrices à structures particulières (avec des blocs du type Toeplitz ou Hankel, voir [ici]).

Notre coopération a été approfondie par les séjours de G. Labahn au Laboratoire ANO en mars 96 et mars 98, et par mon séjour à l'Université de Waterloo en juillet 97.

3.2  Calcul sans fractions

Comme sujet de recherche actuel, nous développons des algorithmes pour calculer ces approximants dans un cadre de calcul formel (par exemple, l'approximation d'une série à coefficients dans un anneau abstrait). Un tel problème se pose dans la factorisation des opérateurs différentiels (voir M. Van Hoeij) ou dans la résolution de grands systèmes linéaires à coefficients dans un corps fini (voir par exemple G. Villard). Ici on obtient la solution exacte du problème posé, mais l'efficacité d'une telle méthode est liée à la vitesse d'augmentation du nombre de chiffres des quantités intermédiaires. Ce problème classique en calcul formel est résolu par notre méthode FFFG (``élimination de Gauss rapide sans fractions'') où nous adaptons certains méthodes connues comme le calcul du pgcd sans fractions (voir [Ref1, Ref2]).

3.3  Formes normales des matrices polynomiales

Une tâche fondamentale en calcul formel est de trouver une forme normale (par exemple, d'Hermite ou de Popov) d'une matrice polynomiale. À titre d'exemple, notons le calcul du pgcd matriciel, avec des applications en théorie des systèmes. Dans ce domaine, le développement de méthodes sans fractions reste à ce jour encore un problème largement ouvert.

Dans un projet de collaboration avec G. Labahn et G. Villard (IMAG Grenoble), nous cherchons à adapter notre méthode FFFG au calcul des formes normales d'une matrice polynomiale à coefficients dans un anneau abstrait. Quelques premiers résultats prometteurs ont été obtenus dans [ici].

3.4  Mise en oeuvre dans MAPLE

Les algorithmes évoqués dans les paragraphes précédents seront intégrés dans un paquetage de la nouvelle édition du logiciel de calcul formel MAPLE.

3.5  Calcul fiable des approximants rationnels scalaires

Des méthodes efficaces pour calculer des approximants rationnels scalaires sont bien connues. Néanmoins ces méthodes ne sont plus applicables en présence de singularités. En collaboration avec C. Carstensen (Kiel), j'ai complété ces algorithmes, en donnant des règles particulières qui remplacent les règles de calcul ordinaires dans le cas de singularités. Ainsi j'ai défini les méthodes modifiées fiables pour la règle de la croix [Ref1, Ref2] et pour les fractions continues d'interpolation [Ref3].

3.6  Perspectives

Le calcul d'une forme normale d'un polynôme matriciel est une tâche fondamentale ; pourtant, de nombreuses questions restent ouvertes concernant la complexité et le calcul sans fractions. La collaboration avec G. Labahn (Waterloo) et G. Villard (Grenoble) a déjà permis d'obtenir des premiers résultats prometteurs dans ce domaine, elle devrait être poursuivie et renforcée. Comme application, nous voulons étudier la résolution des systèmes à coefficients dans un corps fini par les méthodes de type Lanczos par blocs où l'introduction des paramètres permet de contourner des sous-problèmes singuliers. À long terme, nous envisageons également à explorer des méthodes modulaires - cette technique est appliquée avec grand succès dans le calcul d'un pgcd scalaire.

4  Opérateurs aux différences

Les équations aux différences de la forme
an,n-s yn-s + an,n-s+1 yn-s+1 + ... + an,n+r yn+r = bn ,     n ³ 0 ,
avec y-s,...,y-1 donné et an,n-s ·an,n-s ¹ 0 peuvent être rencontrées dans de nombreux domaines des mathématiques appliquées. À titre d'exemple, notons la méthode des différences finies, l'approximation rationnelle, ou l'étude de certains systèmes dynamiques. Ces dernières années, une activité importante s'est développée dans ce domaine au Laboratoire d'Analyse Numérique et d'Optimisation de Lille. Elle se manifeste par les multiples séjours des chercheurs russes V. Kaliaguine, A. Aptekarev et V. Sorokin à Lille, par de nombreuses publications et par mon enseignement au DEA de Mathématiques. Nous avons étudié des propriétés de l'opérateur aux différences associé - représenté à l'aide de la matrice infinie bande (aj,k)j,k ³ 0.

4.1  Applications aux systèmes dynamiques

Un certain nombre de systèmes dynamiques non-linéaires discrets (Toda, Langmuir, Bogoyavlenskii) peut être représenté sous la forme de Lax [L\dot](t) = L(t) A(t) - A(t) L(t), avec A(t), L(t) des opérateurs aux différences. Pour étudier l'évolution en temps d'un tel système dynamique à partir des données initiales L(0), on cherche d'abord à déterminer certaines données spectrales caractéristiques de L(0). Ensuite l'évolution en temps de ces données spectrales est étudiée. Finalement, on essaie de reconstruire l'opérateur L(t) à partir des données spectrales au moment t. Pour les opérateurs auto-adjoints, ce passage aux données spectrales et vice versa est facilité par le théorème spectral. Néanmoins ces méthodes ne sont plus applicables en présence d'opérateurs non-symétriques. Actuellement, avec V. Kaliaguine, J. Van Iseghem, V. Sorokin, E. Bourreau et H. Zourhlal nous étudions quelques aspects de ce problème spectral.

4.2  Caractérisation du spectre

Motivé par les applications décrites ci-dessus, je me suis intéressé à étudier quelques aspects d'une théorie spectrale des opérateurs aux différences non-symétriques sur l'ensemble des suites de carré sommable. Ainsi j'ai donné par exemple une caractérisation équivalente de l'ensemble résolvant en fonction des numérateurs et dénominateurs des approximants de Padé de la fonction de Weyl matricielle associée [ici]. De plus, pour le cas particulier de trois diagonales, des critères simplifiés sont proposés pour caractériser certaines parties du spectre de l'opérateur [ici].

4.3  Convergence des approximants rationnelles

En collaboration avec V. Kaliaguine, nous avons montré de nouveaux théorèmes de convergence pour les fractions continues de type J, en précisant le comportement asymptotique des dénominateurs associés en fonction de l'ensemble résolvant de la matrice de Jacobi correspondante (voir [ici]). Des résultats de ce type étaient connus seulement pour l'approximation de certaines fonctions de Markov par les fractions continues de type J - ici l'opérateur est auto-adjoint et l'ensemble des singularités de la fonction coïncide avec le spectre de l'opérateur.

Cette nouvelle approche pour caractériser les domaines de convergence de la J-fraction continue d'une fonction régulière quelconque à l'aide des propriétés spectrales de l'opérateur associé me paraît très prometteuse : dans [ici] j'ai encore obtenu des résultats plus forts de convergence en capacité et/ou mesure dans l'ensemble résolvant. Il est envisageable d'étudier à nouveau la conjecture de Padé (ouverte depuis trente-cinq ans) dans ce contexte : j'ai montré que cette conjecture est valable pour le cas particulier d'un spectre dénombrable.

Les résultats mentionnés ci-dessus sont liés à une étude des opérateurs aux différences à trois diagonales, mais peu de résultats sont connus pour un nombre de diagonales supérieur à trois. Actuellement, avec V. Kaliaguine nous étudions de nouveaux théorèmes de convergence pour les approximants de Padé vectoriels et matriciels basés sur la théorie spectrale de ces opérateurs.

4.4  Matrices de Toeplitz bandes

Un cas particulier des opérateurs aux différences à coefficients périodiques - les matrices de Toeplitz par blocs bandes - est évoqué dans deux travaux en cours. Avec E. Bourreau, nous cherchons à caractériser des polynômes de type Chebyshev vectoriels. Ces polynômes peuvent servir comme système de référence dans un algorithme de moments modifiés vectoriels.

Dans un autre projet avec M. Eiermann (Freiberg, Allemagne), nous cherchons à comprendre comment varie le spectre si on ajoute à une ``grande'' matrice de Toeplitz bande une modification de ``petit'' rang. Un tel problème est rencontré par exemple dans la méthode des différences finies si on discrétise les conditions au bord.

4.5  Perspectives

Nos travaux sur les opérateurs aux différences ont permis d'obtenir des résultats novateurs dans plusieurs domaines. Ainsi on a pu établir à Lille l'existence d'une solution globale pour le système dynamique discret de Bogoyavlenskii pour une certaine classe de données initiales. Il me semble très intéressant de poursuivre cette approche.

Un élément important dans cette étude est de savoir si le spectre de l'opérateur est approché par le spectre des sous-matrices finies. Une question similaire se pose pour les résolvantes correspondantes. En effet, une théorie spectrale des opérateurs non-symétriques paraît être très peu développée. Récemment, j'ai obtenu quelques résultats montrant que la sous-classe des opérateurs aux différences bornés peut servir pour faire avancer une telle théorie ; ce sujet reste un objet de ma recherche actuelle.

Un des mes objectifs à long terme est de chercher un lien avec les méthodes itératives de résolution de grands systèmes linéaires non-symétriques. Effectivement, des quantités comme les valeurs de Ritz ou le pseudo-spectre semblent avoir une interprétation intéressante en termes d'opérateurs. Finalement, le cadre des opérateurs aux différences a permis et permettra encore d'obtenir des résultats intéressants de convergence des approximants rationnelles.


5  R.O.L.L.S.

Avec neuf instituts de sept pays européens, le Laboratoire d'Analyse Numérique et d'Optimisation a fondé un réseau, appelé ``R.O.L.L.S.'', financé par le programme ``Capital humain et mobilité'' de l'Union Européenne. Le but est d'étudier l'approximation rationnelle, les fonctions orthogonales et ses applications à la théorie des systèmes linéaires et à l'algèbre linéaire. Au début j'étais le responsable de la participation de l'Université de Hanovre à ce projet et depuis septembre 1993 je coopère au travail du groupe au Laboratoire d'Analyse Numérique et d'Optimisation de Lille.

Deux autres projets - une collaboration franco-espagnole entre le Laboratoire ANO et l'Université d'Almeria et un projet INTAS de coopération entre plusieurs partenaires universitaires de l'Europe de l'Ouest et de l'Est - sont en cours d'élaboration.


File translated from TEX by TTH, version 2.00.
On 22 Mar 1999, 22:22

bbecker@ano.univ-lille1.fr