Recherche Bernhard Beckermann
Go to Home Page Bernhard Beckermann
Go to Home Page ANO
Go to Home Page USTL
Activités et projets en matiére de recherche
Par des méthodes analytiques, algébriques et algorithmiques,
j'ai étudié plusieurs aspects des mathématiques appliquées,
notamment en théorie de l'Approximation et de l'Algèbre linéaire
numérique. Mes activités de recherche portent en particulier
sur l'approximation rationnelle scalaire et matricielle et ses liens avec
la théorie spectrale, la fiabilité et la stabilité
numérique des algorithmes, le conditionnement des matrices structurées
et sa connexion avec des problèmes de meilleure approximation. Dans
la suite, certains de ces sujets sont plus détaillés. Également,
quelques projets en matière de recherche sont développés.
Mots clefs et table de matières
-
La stabilité numérique
Méthodes de ``Look-ahead''
Les moments modifiés
Calcul ``semi-numérique''
Perspectives
-
Algèbre linéaire numérique
et théorie du potentiel
Conditionnement des matrices de Vandermonde et
de Hankel
Bases de Krylov
Généralisations basées sur
la théorie du potentiel
Démonstration d'une conjecture de Rakhmanov
Convergence des méthodes itératives
pour le Laplacien
Perspectives
-
Polynômes matriciels
Approximants rationnels matriciels
Calcul sans fractions
Formes normales des matrices polynomiales
Mise en oeuvre dans MAPLE
Calcul fiable des approximants rationnels scalaires
Perspectives
-
Opérateurs aux différences
Applications aux systèmes dynamiques
Caractérisation du spectre
Convergence des approximants rationnelles
Matrices de Toeplitz bandes
Perspectives
-
R.O.L.L.S.
1 La stabilité numérique
1.1 Méthodes de ``Look-ahead''
Dans le cadre de l'arithmétique en précision finie, la mise
en uvre des méthodes pour calculer des approximants rationnels ou
des polynômes orthogonaux pose des problèmes de stabilité
numérique très importants. Ici on peut observer des parallèles
avec quelques méthodes itératives pour résoudre des
systèmes d'équations, par exemple la méthode de Lanczos.
Cette méthode a donné, ces dernières années,
lieu à de très nombreuses publications, notamment au Laboratoire
d'Analyse Numérique et d'Optimisation de Lille par C. Brezinski.
Le ``look-ahead'' ou saut au-dessus des problèmes instables est
cependant souvent heuristique. Dans [ici],
j'ai donné un critère de saut, en montrant que ce choix mène
à un algorithme faiblement stable. Quelques premiers résultats
ont été obtenus dans [ici]
pour les généralisations matricielles ; ce sujet reste encore
un objet de ma recherche actuelle.
1.2 Les moments modifiés
Une manipulation numériquement stable des polynômes orthogonaux
est possible à partir des coefficients de la récurrence à
trois termes associée. Souvent, ces coefficients peuvent être
obtenus avec une grande précision par l'algorithme des moments modifiés,
en utilisant un autre système de polynômes orthogonaux connu.
Avec mon étudiant en thèse E. Bourreau, nous avons étudié
le conditionnement de certaines applications non-linéaires sous-jacentes.
Ainsi nous avons pu donner des critères analytiques pour un choix
du système de référence [ici].
Actuellement, nous travaillons sur une généralisation de
moments modifiés vectoriels - un élément essentiel
dans la résolution numérique de certains systèmes
dynamiques non-linéaires discrets.
1.3 Calcul ``semi-numérique''
Ces dernières années, de nombreux chercheurs en calcul formel
ont utilisé des éléments d'Analyse Numérique
dans le domaine du calcul ``semi-numérique''. Dans les applications
comme la théorie du contrôle ou la théorie du signal,
les données sont seulement connues avec une précision finie.
Ici il est nécessaire d'étudier la sensibilité des
outils classiques en calcul formel par rapport aux perturbations des données,
comme par exemple le pgcd ou les bases de Gröbner. Dans ce domaine
encore peu développé, nous avons proposé une méthode
efficace et numériquement stable du type ``look-ahead'' pour tester
si deux polynômes ``numériques'' sont premiers entre eux [Ref1,
Ref2].
1.4 Perspectives
La stabilité numérique reste un des critères les plus
importants pour choisir une méthode de calcul adaptée à
un problème mathématique donné. Effectivement, dans
les applications on dispose en général de données
entachées d'erreurs et donc une étude de stabilité
s'impose pour pouvoir assurer une certaine précision de la réponse.
Dans ce domaine souvent assez difficile, des possibilités de collaboration
sont nombreuses. En particulier, il me semble très prometteur de
renforcer la collaboration dans le domaine du calcul ``semi-num'erique''
car, dans les années à venir, les systèmes de calcul
formel comme MAPLE serviront de plus en plus comme interface entre calcul
symbolique et calcul numérique.
2 Algèbre linéaire et théorie
du potentiel
2.1 Conditionnement des matrices de Vandermonde
et de Hankel
Les matrices possédant une certaine structure - comme par exemple
les matrices de Vandermonde avec des abscisses réelles, les matrices
de Hankel définies positives et les matrices de Krylov (r, A r,
A2 r, ... , An r) construites à partir d'une
matrice symétrique A - sont considérées comme étant
toujours très mal conditionnés, même si elles ont une
taille modeste. Néanmoins, très peu de résultats théoriques
sont connus dans ce contexte (voir par exemple les travaux de Gautschi
sur les matrices de Vandermonde). Pour toutes ces matrices, il existe de
nombreuses applications (collocation, polynômes orthogonaux, méthode
de Lanczos, etc.), ce qui illustre l'importance de ce problème.
Dans ma thèse d'Habilitation [ici],
je me suis intéressé à donner des bornes inférieures
pour le conditionnement des éléments de ces classes particulières
de matrices, bornes qui sont asymptotiquement atteintes. Dans ce contexte,
j'ai, par exemple, obtenu des résultats pour la classe des matrices
de Vandermonde avec des abscisses réelles et déterminé
explicitement la configuration des abscisses qui minimise le conditionnement.
Pour les autres deux classes des matrices décrites ci-dessus j'ai
également établi une borne inférieure de la forme
gn/n,
atteinte à un facteur n4 près. Plusieurs généralisations
de ces résultats sont étudiées. Quelques améliorations
de ces estimations sont données dans [ici].
2.2 Bases de Krylov
Pour une large classe de méthodes itératives de résolution
des grands systèmes linéaires A x = b, la différence
entre deux itérés provient de l'espace de Krylov généré
par les vecteurs de la forme r, A r, A2 r, ... , An
r. Pour mieux comprendre et pouvoir comparer la convergence de ces méthodes,
il est utile d'obtenir une information sur le conditionnement des matrices
de Krylov modifiées
Kn(A,r) = (p0(A) r, p1(A)
r, ... , pn(A) r), |
|
avec pj un polynôme de degré j. Ici deux approches
sont possibles : pour certaines méthodes (comme par exemple GMRES),
les polynômes sont déterminés implicitement en fonction
de A,r de sorte que Kn(A,r) soit orthogonale et la connaissance
(approximative) de ces polynômes permettra de prédire le taux
de convergence. Dans d'autres méthodes - par exemple celle d'Arnoldi-Chebyshev
ou d'Arnoldi-Faber - l'utilisateur fixe les polynômes et le taux
de convergence de l'algorithme dépendra du conditionnement de Kn(A,r).
Pour les matrices normales A, j'ai obtenu des estimations quasi-optimales
pour le conditionnement des matrices de Faber-Krylov. Ce résultat
permet de comparer la vitesse de convergence des méthodes GMRES
et Arnoldi-Faber.
2.3 Généralisations basées
sur la théorie du potentiel
Dans un projet de collaboration avec H. Stahl (Berlin, Allemagne) nous
avons l'intention de donner des estimations pour le conditionnement de
classes plus larges des matrices de Gram et de Krylov, en exploitant le
lien avec la théorie du potentiel dans le plan complexe en présence
d'un champ extérieur [ici].
L'approximation polynomiale au sens des moindres carrés était
le sujet d'une collaboration avec E. Saff (Tampa, États Unis) [ici].
Pour mesurer l'erreur des approximants liée à une incertitude
sur les données, nous avons mené une étude sur le
conditionnement des matrices de Vandermonde généralisées
avec une distribution donnée des abscisses (par exemple équidistante).
Ici on se sert d'une généralisation récente de la
théorie du potentiel dans le plan complexe en présence d'un
champ extérieur où on ajoute encore une contrainte sur les
mesures en considération.
2.4 Démonstration d'une conjecture
de Rakhmanov
L'étude de l'asymptotique des polynômes orthogonaux a reçu
une attention particulière pendant les quarante dernières
années. Néanmoins ces méthodes ne sont plus applicables
si la mesure d'orthogonalité admet un support discret. Une telle
situation se présente dans des domaines d'applications importants,
comme la théorie du codage ou les systèmes dynamiques de
Toda.
Au début des années 90, Rakhmanov a proposé une
méthode basée sur la théorie du potentiel complexe
pour étudier l'asymptotique des polynômes orthogonaux discrets.
Cependant, il restait des questions majeures sur des conditions de séparation
des points du support. En travaillant sur la distribution des points de
Fekete correspondants, j'ai pu résoudre deux conjectures de Rakhmanov
dans ce domaine [ici].
2.5 Convergence des méthodes itératives
pour le Laplacien
Dans la résolution du problème de Dirichlet en dimension
2 par la méthode des différences finies, on est amené
à résoudre un grand système linéaire A x =
b, avec A ayant une forme particulière (creuse, symétrique,
définie positive). Ici on applique typiquement la méthode
du gradient conjugué. Néanmoins les résultats théoriques
connus sur la convergence sont basés sur le conditionnement (élevé)
de A et ne prédisent pas bien le comportement de convergence observé
expérimentalement ; ils sont de loin trop pessimistes. Ce phénomène
peut être expliqué par la répartition non homogène
du spectre de la matrice A.
Dans un projet de collaboration avec B. Fischer (Université médicale
de Lübeck), on applique la théorie des polynômes orthogonaux
discrets pour mieux décrire théoriquement le comportement
de la convergence. Cette idée nous paraît très prometteuse
également pour d'autres problèmes provenant d'une discrétisation
des équations aux dérivées partielles. Ainsi on envisage
d'étudier un problème de traitement d'images issu d'une application
médicale modélisée à l'aide de l'équation
de Navier-Lamé.
2.6 Perspectives
L'étude de la convergence et du préconditionnement des méthodes
itératives de résolution des grands systèmes linéaires
a donné, ces dernières années, lieu à de très
nombreuses publications. Des développements récents dans
la théorie du potentiel ont permis de mieux comprendre le conditionnement
de certaines matrices structurées et le comportement asymptotique
des polynômes orthogonaux discrets. Néanmoins, l'interaction
entre ces domaines me semble pas encore suffisamment exploitée à
ce jour. L'étude de cette interaction ouvre un vaste champ d'investigations
pour les prochaines années. Un des buts serait de trouver une justification
théorique pour le comportement de la convergence des méthodes
itératives appliquées aux problèmes d'EDP.
3 Polynômes matriciels
3.1 Approximants rationnels matriciels
Depuis sept ans je collabore avec G. Labahn (Université de Waterloo
au Canada et MAPLE Company). Nous avons étudié une approche
d'uniformisation pour une grande catégorie de problèmes d'approximation
du type Padé vectoriel ou matriciel (voir [Ref1,
Ref2,
Ref3]).
En effet, ces travaux permettent de mieux comprendre le lien entre plusieurs
concepts vectoriels différents en approximation (approximation de
Hermite-Padé, approximation de Padé simultanée) et
de généraliser quelques propriétés, par exemple
la classification des cas singuliers ou les méthodes fiables de
calcul [Ref1, Ref2].
Une application de notre travail mène aux formules d'inversion pour
des matrices à structures particulières (avec des blocs du
type Toeplitz ou Hankel, voir [ici]).
Notre coopération a été approfondie par les séjours
de G. Labahn au Laboratoire ANO en mars 96 et mars 98, et par mon séjour
à l'Université de Waterloo en juillet 97.
3.2 Calcul sans fractions
Comme sujet de recherche actuel, nous développons des algorithmes
pour calculer ces approximants dans un cadre de calcul formel (par exemple,
l'approximation d'une série à coefficients dans un anneau
abstrait). Un tel problème se pose dans la factorisation des opérateurs
différentiels (voir M. Van Hoeij) ou dans la résolution de
grands systèmes linéaires à coefficients dans un corps
fini (voir par exemple G. Villard). Ici on obtient la solution exacte du
problème posé, mais l'efficacité d'une telle méthode
est liée à la vitesse d'augmentation du nombre de chiffres
des quantités intermédiaires. Ce problème classique
en calcul formel est résolu par notre méthode FFFG (``élimination
de Gauss rapide sans fractions'') où nous adaptons certains méthodes
connues comme le calcul du pgcd sans fractions (voir [Ref1,
Ref2]).
3.3 Formes normales des matrices polynomiales
Une tâche fondamentale en calcul formel est de trouver une forme
normale (par exemple, d'Hermite ou de Popov) d'une matrice polynomiale.
À titre d'exemple, notons le calcul du pgcd matriciel, avec des
applications en théorie des systèmes. Dans ce domaine, le
développement de méthodes sans fractions reste à ce
jour encore un problème largement ouvert.
Dans un projet de collaboration avec G. Labahn et G. Villard (IMAG Grenoble),
nous cherchons à adapter notre méthode FFFG au calcul des
formes normales d'une matrice polynomiale à coefficients dans un
anneau abstrait. Quelques premiers résultats prometteurs ont été
obtenus dans [ici].
3.4 Mise en oeuvre dans MAPLE
Les algorithmes évoqués dans les paragraphes précédents
seront intégrés dans un paquetage de la nouvelle édition
du logiciel de calcul formel MAPLE.
3.5 Calcul fiable des approximants rationnels
scalaires
Des méthodes efficaces pour calculer des approximants rationnels
scalaires sont bien connues. Néanmoins ces méthodes ne sont
plus applicables en présence de singularités. En collaboration
avec C. Carstensen (Kiel), j'ai complété ces algorithmes,
en donnant des règles particulières qui remplacent les règles
de calcul ordinaires dans le cas de singularités. Ainsi j'ai défini
les méthodes modifiées fiables pour la règle de la
croix [Ref1,
Ref2]
et pour les fractions continues d'interpolation [Ref3].
3.6 Perspectives
Le calcul d'une forme normale d'un polynôme matriciel est une tâche
fondamentale ; pourtant, de nombreuses questions restent ouvertes concernant
la complexité et le calcul sans fractions. La collaboration avec
G. Labahn (Waterloo) et G. Villard (Grenoble) a déjà permis
d'obtenir des premiers résultats prometteurs dans ce domaine, elle
devrait être poursuivie et renforcée. Comme application, nous
voulons étudier la résolution des systèmes à
coefficients dans un corps fini par les méthodes de type Lanczos
par blocs où l'introduction des paramètres permet de contourner
des sous-problèmes singuliers. À long terme, nous envisageons
également à explorer des méthodes modulaires - cette
technique est appliquée avec grand succès dans le calcul
d'un pgcd scalaire.
4 Opérateurs aux différences
Les équations aux différences de la forme
an,n-s yn-s + an,n-s+1
yn-s+1 + ... + an,n+r yn+r = bn
, n ³ 0 , |
|
avec y-s,...,y-1 donné et an,n-s
·an,n-s ¹ 0 peuvent être
rencontrées dans de nombreux domaines des mathématiques appliquées.
À titre d'exemple, notons la méthode des différences
finies, l'approximation rationnelle, ou l'étude de certains systèmes
dynamiques. Ces dernières années, une activité importante
s'est développée dans ce domaine au Laboratoire d'Analyse
Numérique et d'Optimisation de Lille. Elle se manifeste par les
multiples séjours des chercheurs russes V. Kaliaguine, A. Aptekarev
et V. Sorokin à Lille, par de nombreuses publications et par mon
enseignement au DEA de Mathématiques. Nous avons étudié
des propriétés de l'opérateur aux différences
associé - représenté à l'aide de la matrice
infinie bande (aj,k)j,k ³
0.
4.1 Applications aux systèmes dynamiques
Un certain nombre de systèmes dynamiques non-linéaires discrets
(Toda, Langmuir, Bogoyavlenskii) peut être représenté
sous la forme de Lax [L\dot](t) = L(t) A(t) - A(t) L(t), avec A(t), L(t)
des opérateurs aux différences. Pour étudier l'évolution
en temps d'un tel système dynamique à partir des données
initiales L(0), on cherche d'abord à déterminer certaines
données spectrales caractéristiques de L(0). Ensuite l'évolution
en temps de ces données spectrales est étudiée. Finalement,
on essaie de reconstruire l'opérateur L(t) à partir des données
spectrales au moment t. Pour les opérateurs auto-adjoints, ce passage
aux données spectrales et vice versa est facilité par le
théorème spectral. Néanmoins ces méthodes ne
sont plus applicables en présence d'opérateurs non-symétriques.
Actuellement, avec V. Kaliaguine, J. Van Iseghem, V. Sorokin, E. Bourreau
et H. Zourhlal nous étudions quelques aspects de ce problème
spectral.
4.2 Caractérisation du spectre
Motivé par les applications décrites ci-dessus, je me suis
intéressé à étudier quelques aspects d'une
théorie spectrale des opérateurs aux différences non-symétriques
sur l'ensemble des suites de carré sommable. Ainsi j'ai donné
par exemple une caractérisation équivalente de l'ensemble
résolvant en fonction des numérateurs et dénominateurs
des approximants de Padé de la fonction de Weyl matricielle associée
[ici]. De plus, pour le cas particulier de
trois diagonales, des critères simplifiés sont proposés
pour caractériser certaines parties du spectre de l'opérateur
[ici].
4.3 Convergence des approximants rationnelles
En collaboration avec V. Kaliaguine, nous avons montré de nouveaux
théorèmes de convergence pour les fractions continues de
type J, en précisant le comportement asymptotique des dénominateurs
associés en fonction de l'ensemble résolvant de la matrice
de Jacobi correspondante (voir [ici]). Des
résultats de ce type étaient connus seulement pour l'approximation
de certaines fonctions de Markov par les fractions continues de type J
- ici l'opérateur est auto-adjoint et l'ensemble des singularités
de la fonction coïncide avec le spectre de l'opérateur.
Cette nouvelle approche pour caractériser les domaines de convergence
de la J-fraction continue d'une fonction régulière quelconque
à l'aide des propriétés spectrales de l'opérateur
associé me paraît très prometteuse : dans [ici]
j'ai encore obtenu des résultats plus forts de convergence en capacité
et/ou mesure dans l'ensemble résolvant. Il est envisageable d'étudier
à nouveau la conjecture de Padé (ouverte depuis trente-cinq
ans) dans ce contexte : j'ai montré que cette conjecture est valable
pour le cas particulier d'un spectre dénombrable.
Les résultats mentionnés ci-dessus sont liés à
une étude des opérateurs aux différences à
trois diagonales, mais peu de résultats sont connus pour un nombre
de diagonales supérieur à trois. Actuellement, avec V. Kaliaguine
nous étudions de nouveaux théorèmes de convergence
pour les approximants de Padé vectoriels et matriciels basés
sur la théorie spectrale de ces opérateurs.
4.4 Matrices de Toeplitz bandes
Un cas particulier des opérateurs aux différences à
coefficients périodiques - les matrices de Toeplitz par blocs bandes
- est évoqué dans deux travaux en cours. Avec E. Bourreau,
nous cherchons à caractériser des polynômes de type
Chebyshev vectoriels. Ces polynômes peuvent servir comme système
de référence dans un algorithme de moments modifiés
vectoriels.
Dans un autre projet avec M. Eiermann (Freiberg, Allemagne), nous cherchons
à comprendre comment varie le spectre si on ajoute à une
``grande'' matrice de Toeplitz bande une modification de ``petit'' rang.
Un tel problème est rencontré par exemple dans la méthode
des différences finies si on discrétise les conditions au
bord.
4.5 Perspectives
Nos travaux sur les opérateurs aux différences ont permis
d'obtenir des résultats novateurs dans plusieurs domaines. Ainsi
on a pu établir à Lille l'existence d'une solution globale
pour le système dynamique discret de Bogoyavlenskii pour une certaine
classe de données initiales. Il me semble très intéressant
de poursuivre cette approche.
Un élément important dans cette étude est de savoir
si le spectre de l'opérateur est approché par le spectre
des sous-matrices finies. Une question similaire se pose pour les résolvantes
correspondantes. En effet, une théorie spectrale des opérateurs
non-symétriques paraît être très peu développée.
Récemment, j'ai obtenu quelques résultats montrant que la
sous-classe des opérateurs aux différences bornés
peut servir pour faire avancer une telle théorie ; ce sujet reste
un objet de ma recherche actuelle.
Un des mes objectifs à long terme est de chercher un lien avec
les méthodes itératives de résolution de grands systèmes
linéaires non-symétriques. Effectivement, des quantités
comme les valeurs de Ritz ou le pseudo-spectre semblent avoir une interprétation
intéressante en termes d'opérateurs. Finalement, le cadre
des opérateurs aux différences a permis et permettra encore
d'obtenir des résultats intéressants de convergence des approximants
rationnelles.
5 R.O.L.L.S.
Avec neuf instituts de sept pays européens, le Laboratoire d'Analyse
Numérique et d'Optimisation a fondé un réseau, appelé
``R.O.L.L.S.'', financé par le programme ``Capital humain et mobilité''
de l'Union Européenne. Le but est d'étudier l'approximation
rationnelle, les fonctions orthogonales et ses applications à la
théorie des systèmes linéaires et à l'algèbre
linéaire. Au début j'étais le responsable de la participation
de l'Université de Hanovre à ce projet et depuis septembre
1993 je coopère au travail du groupe au Laboratoire d'Analyse Numérique
et d'Optimisation de Lille.
Deux autres projets - une collaboration franco-espagnole entre le Laboratoire
ANO et l'Université d'Almeria et un projet INTAS de coopération
entre plusieurs partenaires universitaires de l'Europe de l'Ouest et de
l'Est - sont en cours d'élaboration.
File translated from TEX by TTH,
version 2.00.
On 22 Mar 1999, 22:22
bbecker@ano.univ-lille1.fr