A posteriori Fehlerkontrollen für Finite-Elemente-Berechnungen
sind seit Mitte der 70er Jahre Gegenstand intensiver mathematischer
Forschung.
Im Gegensatz zur klassischen a priori Analyse, welche die Konvergenz
von Näherungsverfahren sicherstellt und die Fehlerordnung bestimmt,
ist es hier das
Ziel, eine Abschätzung des Diskretisierungsfehlers mit Hilfe
der Daten des Problems und der bereits berechneten Näherungslösung
anzugeben. Aus Effizienzgründen werden hier meist lokal, d.h. auf
Elementebene, berechenbare Indikatoren hergeleitet, welche
aufsummiert ein Maß für den Gesamtfehler liefern, z.B.
Nach Vorarbeiten an eindimensionalen Modellen wurde von
Babuska-Rheinboldt [Ba78] der erste Fehlerschätzer
für elliptische Probleme zweiter Ordnung angegeben. Die Indikatoren
setzen sich aus elementweise ausgewerteten Residuen,
, und Sprüngen der Normalableitungen von
über Elementkanten zusammen. Er stellt den Prototyp residualer
Fehlerschätzer dar (s.u.). Eine weitere Vorgehensweise zur
Konstruktion von Schätzern basiert auf der Lösung lokaler
Hilfsprobleme auf jedem Element
oder in der Umgebung, siehe
z.B. Bank/Weiser [Ba85]. Solche Techniken basieren auf
lokaler Extrapolation des Fehlers und/oder auf der Schätzung
des Residuums durch Verwendung finiter Elemente höherer Ordnung
auf Elementebene. Speziell bei Lösung lokaler
Neumannprobleme besitzt diese Technik potentielle Vorteile
bei anisotropen Geometrien oder stark variierenden Koeffizienten.
Eine gewisse Sonderrolle spielt der sog.
-Schätzer von
Zienkiewicz/Zhu [Zi87]. Er basiert auf lokaler Interpolation
höherer Ordnung für die Spannungen
und versucht auf diese Weise, deren Fehler
verbessert zu schätzen. Implizit basiert er auf
Superkonvergenzeigenschaften, was eine rigorose mathematische Begründung
auf einfache Anwendungen beschränkt. Durch Äquilibrierungsstrategien
für die lokalen Indikatoren
können mit jedem der
angesprochenen Verfahren Schrittweitensteuerungen begründet
werden.
Neben den genannten tatsächlichen Fehlerkontrollen wird eine Vielzahl heuristischer oder durch a priori Information gewonnener Techniken eingesetzt, um zumindest ein ,,plausibles`` FE-Netz bei vorgegebener Zahl der Freiheitsgrade zu konstruieren.
Für die Kontrolle des Fehlers bzgl. der Energienorm erweisen sich bei einfachen Problemen viele dieser Schätzer als äquivalent, siehe Verfürth [Ve94]. Allerdings können die Konstanten stark von den Problem- und Geometriedaten abhängen. Eine Übersicht der Techniken für elliptische Probleme findet sich in Verfürth [Ve96].
Vor allem auf der Basis residualer Fehlerschätzer wurden in den
letzten 10 Jahren Fehlerkontrollen für eine Vielzahl weiterer
Problemtypen entwickelt. Hier sind zunächst die Arbeiten der
Arbeitsgruppe um C. Johnson (Chalmers, Göteborg) zu nennen
(vgl. z.B. [Er96], [Er95]). Die Techniken wurden
systematisch auf die Behandlung anderer Problemtypen wie
parabolische und hyperbolische Probleme, auch im nichtlinearen
Fall (Navier-Stokes-Gleichungen) erweitert. Daneben wurden
auch andere Fehlermaße zugelassen (-Norm, punktweiser Fehler).
Ferner wurden in Zusammenarbeit mit D. Estep auch
Fehlerkontrollen für Galerkin-Ansätze zur Diskretisierung
gewöhnlicher Anfangswertprobleme entwickelt, die ähnliche
Eigenschaften wie gewisse Runge-Kutta-Verfahren vom Radau- und
Lobatto-Typ besitzen.
Für die in diesem Projekt behandelten Fragestellungen bietet sich
die von R. Rannacher und Mitarbeitern weiterentwickelte Fassung der
residualen Fehlerschätzer an (vgl. [Ra99], [Be96],
[Ra98-2]
sowie die Arbeiten von Suttmeier e.a. in Abschnitt ).
Für allgemeine nichtlineare Variationsprobleme und ihre Galerkin-Analoga
gilt die ,,Orthogonalitätsrelation``
Für die Arbeiten in diesem Projekt sind die folgenden Aspekte besonders interessant:
Theoretische Grundlagen für die in diesem Projekt behandelten
Kontaktprobleme sind in Lehrbüchern über Variationsungleichungen
dokumentiert, vgl. etwa Kinderlehrer/Stampacchia [Ki80],
aber auch Glowinski [Gl80], [Gl83], der auch die wichtigsten
numerischen Lösungstechniken vorstellt. Eine Fülle wichtiger
detailliert ausgeführter Anwendungen und Hinweise für effiziente
FE-Diskretisierungen elliptischer Variationsungleichungen
entnimmt man Kikuchi/Oden [Ki88]. Daneben ist speziell in der
Ingenieurliteratur eine Fülle von Einzelproblemen mit Kontakt
behandelt. Fragen der Lösungsregularität sind bislang nicht
vollständig geklärt. Auch Fehlerabschätzungen für FE-Diskretisierungen
sind auch im skalaren Fall nicht allgemein verfügbar. Im Fall
linearer finiter Elemente beweisen Dobrowolski/Staib
[Do92] O-Konvergenz in der Energienorm für
das Signorini-Problem zur Poisson-Gleichung ohne einschränkende
Nebenbedingungen an die Struktur der Kontaktmenge.
Bei Fragen der Fehlerkontrolle bei Kontaktproblemen werden in der Regel Variationsungleichungen vermieden. Statt dessen führen viele Autoren sie durch Penalty-Verfahren auf Variationsgleichungen zurück, die mit einer der o.a. Methoden behandelt werden können, vgl z.B. [Ca98]. Nachteile dieser Vorgehensweise sind die häufig schlechte Konditionierung der penalisierten Probleme und ggf. Rückwirkungen des Penalty-Parameters auf die Qualität der Fehlerschätzer. Der in diesem Projekt vorgesehene Weg soll wie oben das duale Problem zur Gewinnung von Fehlerschätzern ausnutzen. Duale Variationsformulierungen erhält man allgemein wie in Ekeland/Temam [Ek76]. Für Signorini-Probleme findet man sie in [Ki88], wo auch gemischte oder duale Variationsprinzipien beschrieben sind, die im Hinblick auf die Bedeutung der Berechnung der Kontaktspannungen vorteilhaft scheinen.
Die Verbesserung der Konvergenzgüte mit Hilfe der -Methode, also
durch Erhöhung der Polynomgrade der FE-Räume bei festgehaltenem Gitter,
zeigt für glatte Lösungen eine exponentielle Konvergenzrate. Für Probleme
mit isolierten Singularitäten läßt sie sich mit geeigneten (geometrischen)
Gitterverfeinerungen zur
-Methode erweitern, die ebenfalls exponentielle
Konvergenz aufweist, was mit der
-Methode allein nicht möglich
ist. Einen Überblick über die Vorteile der Methode und die
wichtigsten Konvergenzresultate enthält Babuska/Suri [Ba94]
und die dort angegebene Literatur.
Schwierigkeiten ergeben sich beim Arbeiten mit hohen Polynomgraden
durch den hohen Aufwand bei der Erstellung der Systemmatrizen
und durch Probleme bei der Lösung, die in der Regel mit direkten
Methoden erfolgt, wenn auch in einzelnen Fällen effiziente
iterative Löser zur Verfügung stehen [Ai97]. Auch arbeiten
viele Fehlerschätzer für hohe Polynomgrade weniger zuverlässig, da
die für die Theorie notwendigen Saturationsannahmen nicht gleichmäßig
in erfüllt sind [Ai97]. In geeigneter Kombination mit der
-Methode in kritischen Bereichen, z.B. in Kontaktzonen, können
sie jedoch zu sehr genauen Resultaten führen [Ra95]. Eine
geeignete Kopplungsstrategie ergibt sich durch FE-Varianten der
zunächst von Hackbusch [Ha84] entwickelten Methode der
lokalen Defektkorrektur, einer Variante der multiplikativen
Schwarz-Iteration.