next up previous
Nächste Seite: Eigene Vorarbeiten / Arbeitsbericht Aufwärts: Stand der Forschung, eigene Vorherige Seite: Stand der Forschung, eigene


Stand der Forschung

A posteriori Fehlerkontrollen für Finite-Elemente-Berechnungen sind seit Mitte der 70er Jahre Gegenstand intensiver mathematischer Forschung. Im Gegensatz zur klassischen a priori Analyse, welche die Konvergenz von Näherungsverfahren sicherstellt und die Fehlerordnung bestimmt, ist es hier das Ziel, eine Abschätzung des Diskretisierungsfehlers mit Hilfe der Daten des Problems und der bereits berechneten Näherungslösung anzugeben. Aus Effizienzgründen werden hier meist lokal, d.h. auf Elementebene, berechenbare Indikatoren $\eta_T$ hergeleitet, welche aufsummiert ein Maß für den Gesamtfehler liefern, z.B.

\begin{displaymath}
\Vert{u-u_h}\Vert \approx ( \sum_T \eta_T^2 )^{1/2} \,.
\end{displaymath}

Dabei ist $u$ die exakte Lösung und $u_h$ die Näherungslösung auf dem gegebenen FE-Netz; $T$ sind die einzelnen Elemente. Als Fehlernorm wird in den meisten Arbeiten die Energienorm des Problems verwendet.

Nach Vorarbeiten an eindimensionalen Modellen wurde von Babuska-Rheinboldt [Ba78] der erste Fehlerschätzer für elliptische Probleme zweiter Ordnung angegeben. Die Indikatoren $\eta_T$ setzen sich aus elementweise ausgewerteten Residuen, $Lu_{\vert T}-f_{\vert T}$, und Sprüngen der Normalableitungen von $u_h$ über Elementkanten zusammen. Er stellt den Prototyp residualer Fehlerschätzer dar (s.u.). Eine weitere Vorgehensweise zur Konstruktion von Schätzern basiert auf der Lösung lokaler Hilfsprobleme auf jedem Element $T$ oder in der Umgebung, siehe z.B. Bank/Weiser [Ba85]. Solche Techniken basieren auf lokaler Extrapolation des Fehlers und/oder auf der Schätzung des Residuums durch Verwendung finiter Elemente höherer Ordnung auf Elementebene. Speziell bei Lösung lokaler Neumannprobleme besitzt diese Technik potentielle Vorteile bei anisotropen Geometrien oder stark variierenden Koeffizienten. Eine gewisse Sonderrolle spielt der sog. $Z^2$-Schätzer von Zienkiewicz/Zhu [Zi87]. Er basiert auf lokaler Interpolation höherer Ordnung für die Spannungen und versucht auf diese Weise, deren Fehler verbessert zu schätzen. Implizit basiert er auf Superkonvergenzeigenschaften, was eine rigorose mathematische Begründung auf einfache Anwendungen beschränkt. Durch Äquilibrierungsstrategien für die lokalen Indikatoren $\eta_T$ können mit jedem der angesprochenen Verfahren Schrittweitensteuerungen begründet werden.

Neben den genannten tatsächlichen Fehlerkontrollen wird eine Vielzahl heuristischer oder durch a priori Information gewonnener Techniken eingesetzt, um zumindest ein ,,plausibles`` FE-Netz bei vorgegebener Zahl der Freiheitsgrade zu konstruieren.

Für die Kontrolle des Fehlers bzgl. der Energienorm erweisen sich bei einfachen Problemen viele dieser Schätzer als äquivalent, siehe Verfürth [Ve94]. Allerdings können die Konstanten stark von den Problem- und Geometriedaten abhängen. Eine Übersicht der Techniken für elliptische Probleme findet sich in Verfürth [Ve96].

Vor allem auf der Basis residualer Fehlerschätzer wurden in den letzten 10 Jahren Fehlerkontrollen für eine Vielzahl weiterer Problemtypen entwickelt. Hier sind zunächst die Arbeiten der Arbeitsgruppe um C. Johnson (Chalmers, Göteborg) zu nennen (vgl. z.B. [Er96], [Er95]). Die Techniken wurden systematisch auf die Behandlung anderer Problemtypen wie parabolische und hyperbolische Probleme, auch im nichtlinearen Fall (Navier-Stokes-Gleichungen) erweitert. Daneben wurden auch andere Fehlermaße zugelassen ($L^2$-Norm, punktweiser Fehler). Ferner wurden in Zusammenarbeit mit D. Estep auch Fehlerkontrollen für Galerkin-Ansätze zur Diskretisierung gewöhnlicher Anfangswertprobleme entwickelt, die ähnliche Eigenschaften wie gewisse Runge-Kutta-Verfahren vom Radau- und Lobatto-Typ besitzen.

Für die in diesem Projekt behandelten Fragestellungen bietet sich die von R. Rannacher und Mitarbeitern weiterentwickelte Fassung der residualen Fehlerschätzer an (vgl. [Ra99], [Be96], [Ra98-2] sowie die Arbeiten von Suttmeier e.a. in Abschnitt [*]). Für allgemeine nichtlineare Variationsprobleme und ihre Galerkin-Analoga gilt die ,,Orthogonalitätsrelation``

\begin{displaymath}
a(u;\varphi_h) - a(u_h;\varphi_h ) = L(u,u_h;u-u_h,\varphi_h) = 0
\end{displaymath}

mit der linearisierten Bilinearform

\begin{displaymath}
L(u,u_h;\varphi,\psi) = \int_0^1 a'(tu+(1-t)u_h;\varphi,\psi)\,dt \,.
\end{displaymath}

Für ein gewünschtes Fehlermaß $J(u-u_h)$ definiert man $z$ als Lösung des dualen Problems

\begin{displaymath}
L(u,u_h;\varphi,z) = J(\varphi)
\end{displaymath}

und erhält wegen der Galerkin-Orthogonalität

\begin{displaymath}
J(u-u_h) = L(u,u_h;u-u_h,z) = L(u,u_h;u-u_h,z-I_hz)\,.
\end{displaymath}

Dabei ist $I_hz$ eine geeignete Interpolierende von $z$. Anstatt nun bei der weiteren Behandlung der rechten Seite den Fehler $z-I_hz$ einfach abzuschätzen, etwa

\begin{displaymath}
(z-I_hz)_{\vert T} \approx h_T^2\vert\nabla^2z\vert _T\,,
\end{displaymath}

und die Norm der hohen Ableitungen von $z$ mit analytischen Techniken und meist unwägbaren Konstanten durch die Norm des Funktionals $J$ zu kontrollieren, verfolgen die genannten Arbeiten den Weg, $z$ und damit $z-I_hz$ zumindest approximativ zu berechnen und in der abschließenden Abschätzung als Gewicht zu berücksichtigen. Das Gewicht gibt an, wie stark das gewünschte Fehlermaß von dem lokalen Indikator $\eta_T$ beeinflußt wird; Äquilibrierung der gewichteten Indikatoren liefert für die jeweilige Fragestellung optimierte Gitterverfeinerungen. Diese Basisidee wurde in den angegebenen Arbeiten sowie einer Reihe weiterer Beiträge für verschiedene nichtlineare Problemstellungen der Struktur- und Strömungsmechanik erfolgreich eingesetzt.

Für die Arbeiten in diesem Projekt sind die folgenden Aspekte besonders interessant:

Theoretische Grundlagen für die in diesem Projekt behandelten Kontaktprobleme sind in Lehrbüchern über Variationsungleichungen dokumentiert, vgl. etwa Kinderlehrer/Stampacchia [Ki80], aber auch Glowinski [Gl80], [Gl83], der auch die wichtigsten numerischen Lösungstechniken vorstellt. Eine Fülle wichtiger detailliert ausgeführter Anwendungen und Hinweise für effiziente FE-Diskretisierungen elliptischer Variationsungleichungen entnimmt man Kikuchi/Oden [Ki88]. Daneben ist speziell in der Ingenieurliteratur eine Fülle von Einzelproblemen mit Kontakt behandelt. Fragen der Lösungsregularität sind bislang nicht vollständig geklärt. Auch Fehlerabschätzungen für FE-Diskretisierungen sind auch im skalaren Fall nicht allgemein verfügbar. Im Fall linearer finiter Elemente beweisen Dobrowolski/Staib [Do92] O$(h)$-Konvergenz in der Energienorm für das Signorini-Problem zur Poisson-Gleichung ohne einschränkende Nebenbedingungen an die Struktur der Kontaktmenge.

Bei Fragen der Fehlerkontrolle bei Kontaktproblemen werden in der Regel Variationsungleichungen vermieden. Statt dessen führen viele Autoren sie durch Penalty-Verfahren auf Variationsgleichungen zurück, die mit einer der o.a. Methoden behandelt werden können, vgl z.B. [Ca98]. Nachteile dieser Vorgehensweise sind die häufig schlechte Konditionierung der penalisierten Probleme und ggf. Rückwirkungen des Penalty-Parameters auf die Qualität der Fehlerschätzer. Der in diesem Projekt vorgesehene Weg soll wie oben das duale Problem zur Gewinnung von Fehlerschätzern ausnutzen. Duale Variationsformulierungen erhält man allgemein wie in Ekeland/Temam [Ek76]. Für Signorini-Probleme findet man sie in [Ki88], wo auch gemischte oder duale Variationsprinzipien beschrieben sind, die im Hinblick auf die Bedeutung der Berechnung der Kontaktspannungen vorteilhaft scheinen.


Die Verbesserung der Konvergenzgüte mit Hilfe der $p$-Methode, also durch Erhöhung der Polynomgrade der FE-Räume bei festgehaltenem Gitter, zeigt für glatte Lösungen eine exponentielle Konvergenzrate. Für Probleme mit isolierten Singularitäten läßt sie sich mit geeigneten (geometrischen) Gitterverfeinerungen zur $hp$-Methode erweitern, die ebenfalls exponentielle Konvergenz aufweist, was mit der $h$-Methode allein nicht möglich ist. Einen Überblick über die Vorteile der Methode und die wichtigsten Konvergenzresultate enthält Babuska/Suri [Ba94] und die dort angegebene Literatur.

Schwierigkeiten ergeben sich beim Arbeiten mit hohen Polynomgraden durch den hohen Aufwand bei der Erstellung der Systemmatrizen und durch Probleme bei der Lösung, die in der Regel mit direkten Methoden erfolgt, wenn auch in einzelnen Fällen effiziente iterative Löser zur Verfügung stehen [Ai97]. Auch arbeiten viele Fehlerschätzer für hohe Polynomgrade weniger zuverlässig, da die für die Theorie notwendigen Saturationsannahmen nicht gleichmäßig in $p$ erfüllt sind [Ai97]. In geeigneter Kombination mit der $h$-Methode in kritischen Bereichen, z.B. in Kontaktzonen, können sie jedoch zu sehr genauen Resultaten führen [Ra95]. Eine geeignete Kopplungsstrategie ergibt sich durch FE-Varianten der zunächst von Hackbusch [Ha84] entwickelten Methode der lokalen Defektkorrektur, einer Variante der multiplikativen Schwarz-Iteration.


next up previous
Nächste Seite: Eigene Vorarbeiten / Arbeitsbericht Aufwärts: Stand der Forschung, eigene Vorherige Seite: Stand der Forschung, eigene
sutti
2000-04-17