Refine
Has Fulltext
- yes (25)
Is part of the Bibliography
- yes (25)
Year of publication
Document Type
- Doctoral Thesis (19)
- Report (4)
- Journal article (1)
- Master Thesis (1)
Language
- German (25) (remove)
Keywords
- Mathematikunterricht (4)
- Analysis (2)
- Angewandte Mathematik (2)
- Anwendungssoftware (2)
- Finite-Elemente-Methode (2)
- Lineare Algebra (2)
- Mathematica <Programm> (2)
- Origami (2)
- mean curvature (2)
- 1-fach-Origami (1)
Institute
- Institut für Mathematik (25) (remove)
Die vorliegende Arbeit beschäftigt sich explorativ mit Metakognition beim Umgang mit Mathematik. Aufbauend auf der vorgestellten Forschungsliteratur wird der Einsatz von Metakognition im Rahmen einer qualitativen Studie bei Studienanfänger_innen aus verschiedenen Mathematik-(Lehramts-)Studiengängen dokumentiert. Unter Verwendung der Qualitativen Inhaltsanalyse nach Mayring erfolgt die Etablierung eines Kategoriensystems für den Begriff Metakognition im Hinblick auf den Einsatz in der Mathematik, das bisherige Systematisierungen erweitert. Schließlich wird der Einsatz der entsprechenden metakognitiven Aspekte am Beispiel verschiedener Begriffe und Verfahren aus dem Analysis-Unterricht exemplarisch aufgezeigt.
In dieser Arbeit wird mathematisches Papierfalten und speziell 1-fach-Origami im universitären Kontext untersucht. Die Arbeit besteht aus drei Teilen.
Der erste Teil ist im Wesentlichen der Sachanalyse des 1-fach-Origami gewidmet. Im ersten Kapitel gehen wir auf die geschichtliche Einordnung des 1-fach-Origami, betrachten axiomatische Grundlagen und diskutieren, wie das Axiomatisieren von 1-fach-Origami zum Verständnis des Axiomenbegriffs beitragen könnte. Im zweiten Kapitel schildern wir das Design der zugehörigen explorativen Studie, beschreiben unsere Forschungsziele und -fragen. Im dritten Kapitel wird 1-fach-Origami mathematisiert, definiert und eingehend untersucht.
Der zweite Teil beschäftigt sich mit den von uns gestalteten und durchgeführten Kursen »Axiomatisieren lernen mit Papierfalten«. Im vierten Kapitel beschreiben wir die Lehrmethodik und die Gestaltung der Kurse, das fünfte Kapitel enthält ein Exzerpt der Kurse.
Im dritten Teil werden die zugehörigen Tests beschrieben. Im sechsten Kapitel erläutern wir das Design der Tests sowie die Testmethodik. Im siebten Kapitel findet die Auswertung ebendieser Tests statt.
Die Auseinandersetzung mit Simulations- und Modellierungsaufgaben, die mit digitalen Werkzeugen zu bearbeiten sind, stellt veränderte Anforderungen an Mathematiklehrkräfte in der Unterrichtsplanung und -durchführung. Werden digitale Werkzeuge sinnvoll eingesetzt, so unterstützen sie Simulations- und Modellierungsprozesse und ermöglichen realitätsnähere Sachkontexte im Mathematikunterricht. Für die empirische Untersuchung professioneller Kompetenzen zum Lehren des Simulierens und mathematischen Modellierens mit digitalen Werkzeugen ist es notwendig, Aspekte globaler Lehrkompetenzen von (angehenden) Mathematiklehrkräften bereichsspezifisch auszudeuten.
Daher haben wir ein Testinstrument entwickelt, das die Überzeugungen, die Selbstwirksamkeitserwartungen und das fachdidaktische Wissen zum Lehren des Simulierens und mathematischen Modellierens mit digitalen Werkzeugen erfasst. Ergänzt wird das Testinstrument durch selbstberichtete Vorerfahrungen zum eigenen Gebrauch digitaler Werkzeuge sowie zur Verwendung digitaler Werkzeuge in Unterrichtsplanung und -durchführung.
Das Testinstrument ist geeignet, um mittels Analysen von Veranstaltungsgruppen im Prä-Post-Design den Zuwachs der oben beschriebenen Kompetenz von (angehenden) Mathematiklehrkräften zu messen. Somit können in Zukunft anhand der Ergebnisse die Wirksamkeit von Lehrveranstaltungen, die diese Kompetenz fördern (sollen), untersucht und evaluiert werden.
Der Beitrag gliedert sich in zwei Teile: Zunächst werden in der Testbeschreibung das zugrundeliegende Konstrukt und der Anwendungsbereich des Testinstruments sowie dessen Aufbau und Hinweise zur Durchführung beschrieben. Zudem wird die Testgüte anhand der Pilotierungsergebnisse überprüft. Im zweiten Teil befindet sich das vollständige Testinstrument.
Über die besondere Bedeutung von Analogiebildungsprozessen beim Lernen im Allgemeinen und beim Lernen von Mathematik im Speziellen besteht ein breiter wissenschaftlicher Konsens. Es liegt deshalb nahe, von einem lernförderlichen Mathematikunterricht zu verlangen, dass er im Bewusstsein dieser Bedeutung entwickelt ist – dass er also einerseits Analogien aufzeigt und sich diese beim Lehren von Mathematik zunutze macht, dass er andererseits aber auch dem Lernenden Gelegenheiten bietet, Analogien zu erkennen und zu entwickeln. Kurz: Die Fähigkeit zum Bilden von Analogien soll durch den Unterricht gezielt gefördert werden.
Um diesem Anspruch gerecht werden zu können, müssen ausreichende Kenntnisse darüber vorliegen, wie Analogiebildungsprozesse beim Lernen von Mathematik und beim Lösen mathematischer Aufgaben ablaufen, wodurch sich erfolgreiche Analogiebildungsprozesse auszeichnen und an welchen Stellen möglicherweise Schwierigkeiten bestehen.
Der Autor zeigt auf, wie Prozesse der Analogiebildung beim Lösen mathematischer Aufgaben initiiert, beobachtet, beschrieben und interpretiert werden können, um auf dieser Grundlage Ansatzpunkte für geeignete Fördermaßnahmen zu identifizieren, bestehende Ideen zur Förderung der Analogiebildungsfähigkeit zu beurteilen und neue Ideen zu entwickeln. Es werden dabei Wege der Analogiebildung nachgezeichnet und untersucht, die auf der Verschränkung zweier Dimensionen der Analogiebildung im Rahmen des zugrundeliegenden theoretischen Modells beruhen. So können verschiedene Vorgehensweisen ebenso kontrastiert werden, wie kritische Punkte im Verlauf eines Analogiebildungsprozesses. Es ergeben sich daraus Unterrichtsvorschläge, die auf den Ideen zum beispielbasierten Lernen aufbauen.
Die Arbeit beschäftigt sich mit dem Einsatz von Origami im Schulunterricht. Genauer beschreibt sie eine Unterrichtssequenz zur Flachfaltbarkeit, einem Teilgebiet des mathematischen Papierfaltens, für den Mathematikunterricht in der Oberstufe an Gymnasien und höheren Schulen. Es werden konkrete Handlungsanweisungen sowie Alternativen ausgeführt und begründet und mit vielen Grafiken erläutert. Ferner werden Ziele dieser Unterrichtssequenz gemäß KMK-Bildungsstandards dargelegt. Anschließend wird ein mathematischer Blick auf die Beschäftigung mit der Flachfaltbarkeit sowie eine Einordnung in die aktuelle Forschungslage gegeben.
Der Einzug des Rechners in den Mathematikunterricht hat eine Vielzahl neuer Möglichkeiten der Darstellung mit sich gebracht, darunter auch multiple, dynamisch verbundene Repräsentationen mathematischer Probleme. Die Arbeit beantwortet die Frage, ob und wie diese Repräsentationsarten von Schülerinnen und Schüler in Argumentationen genutzt werden. In der empirischen Untersuchung wurde dabei einerseits quantitativ erforscht, wie groß der Einfluss der in der Aufgabenstellung gegebenen Repräsentationsform auf die schriftliche Argumentationen der Schülerinnen und Schüler ist. Andererseits wurden durch eine qualitative Analyse spezifische Nutzungsweisen identifiziert und mittels Toulmins Argumentationsmodell beschrieben. Diese Erkenntnisse wurden genutzt, um Konsequenzen bezüglich der Verwendung von multiplen und/oder dynamischen Repräsentationen im Mathematikunterricht der Sekundarstufe zu formulieren.
Bei vielen Fragestellungen, in denen sich eine Grundgesamtheit in verschiedene Klassen unterteilt, ist weniger die relative Klassengröße als vielmehr die Anzahl der Klassen von Bedeutung. So interessiert sich beispielsweise der Biologe dafür, wie viele Spezien einer Gattung es gibt, der Numismatiker dafür, wie viele Münzen oder Münzprägestätten es in einer Epoche gab, der Informatiker dafür, wie viele unterschiedlichen Einträge es in einer sehr großen Datenbank gibt, der Programmierer dafür, wie viele Fehler eine Software enthält oder der Germanist dafür, wie groß der Wortschatz eines Autors war oder ist. Dieser Artenreichtum ist die einfachste und intuitivste Art und Weise eine Population oder Grundgesamtheit zu charakterisieren. Jedoch kann nur in Kollektiven, in denen die Gesamtanzahl der Bestandteile bekannt und relativ klein ist, die Anzahl der verschiedenen Spezien durch Erfassung aller bestimmt werden. In allen anderen Fällen ist es notwendig die Spezienanzahl durch Schätzungen zu bestimmen.
Mathematica ist ein hervorragendes Programm um mathematische Berechnungen – auch sehr komplexe – auf relativ einfache Art und Weise durchführen zu lassen. Dieses Skript soll eine wirklich kurze Einführung in Mathematica geben und als Nachschlagewerk einiger gängiger Anwendungen von Mathematica dienen. Dabei wird folgende Grobgliederung verwendet: - Grundlagen: Graphische Oberfläche, einfache Berechnungen, Formeleingabe - Bedienung: Vorstellung einiger Kommandos und Einblick in die Funktionsweise - Praxis: Beispielhafte Berechnung einiger Abitur- und Übungsaufgaben
Mathematica ist ein hervorragendes Programm um mathematische Berechnungen – auch sehr komplexe – auf relativ einfache Art und Weise durchführen zu lassen. Dieses Skript soll eine wirklich kurze Einführung in Mathematica geben und als Nachschlagewerk einiger gängiger Anwendungen von Mathematica dienen. Dabei wird folgende Grobgliederung verwendet: - Grundlagen: Graphische Oberfläche, einfache Berechnungen, Formeleingabe - Bedienung: Vorstellung einiger Kommandos und Einblick in die Funktionsweise - Praxis: Beispielhafte Berechnung einiger Abitur- und Übungsaufgaben
In Janssen and Reiss (1988) it was shown that in a location model of a Weibull type sample with shape parameter -1 < a < 1 the k(n) lower extremes are asymptotically local sufficient. In the present paper we show that even global sufficiency holds. Moreover, it turns out that convergence of the given statistical experiments in the deficiency metric does not only hold for compact parameter sets but for the whole real line.
Mathematische Programme mit Gleichgewichtsrestriktionen (oder Komplementaritätsbedingungen), kurz MPECs, sind als äußerst schwere Optimierungsprobleme bekannt. Lokale Minima oder geeignete stationäre Punkte zu finden, ist ein nichttriviales Problem. Diese Arbeit beschreibt, wie man dennoch die spezielle Struktur von MPECs ausnutzen kann und mittels eines Branch-and-Bound-Verfahrens ein globales Minimum von Linearen Programmen mit Gleichgewichtsrestriktionen, kurz LPECs, bekommt. Des Weiteren wird dieser Branch-and-Bound-Algorithmus innerhalb eines Filter-SQPEC-Verfahrens genutzt, um allgemeine MPECs zu lösen. Für das Filter-SQPEC Verfahren wird ein globaler Konvergenzsatz bewiesen. Außerdem werden für beide Verfahren numerische Resultate angegeben.
In der vorliegenden Arbeit werden lineare Systeme elliptischer partieller Differentialgleichungen in schwacher Formulierung auf konischen Gebieten untersucht. Auf einem zunächst unbeschränkten Kegelgebiet betrachten wir den Fall beschränkter und nur von den Winkelvariablen abhängiger Koeffizientenfunktionen. Die durch selbige definierte Bilinearform genüge einer Gårdingschen Ungleichung. In gewichteten Sobolevräumen werden Existenz- und Eindeutigkeitsfragen geklärt, wobei das Problem mittels Fouriertransformation auf eine von einem komplexen Parameter abhängige Familie T(·) von Fredholmoperatoren zurückgeführt wird. Unter Anwendung des Residuenkalküls gewinnen wir eine Darstellung der Lösung in Form einer Zerlegung in einen glatten Anteil einerseits sowie eine endliche Summe von Singulärfunktionen andererseits. Durch Abschneidetechniken werden die gewonnenen Erkenntnisse auf den Fall schwach formulierter elliptischer Systeme auf beschränkten Kegelgebieten unter Formulierung in gewöhnlichen, nicht-gewichteten Sobolevräumen angewendet. Die für Regularitätsfragen maßgeblichen Eigenwerte der Operatorfunktion T mit minimalem positiven Imaginärteil werden im letzten Kapitel der Arbeit am Beispiel der ebenen elastischen Gleichungen numerisch bestimmt.
Das Hauptgebiet der Arbeit stellt die Approximation der Lösungen partieller Differentialgleichungen mit Dirichlet-Randbedingungen durch Splinefunktionen dar. Partielle Differentialgleichungen finden ihre Anwendung beispielsweise in Bereichen der Elektrostatik, der Elastizitätstheorie, der Strömungslehre sowie bei der Untersuchung der Ausbreitung von Wärme und Schall. Manche Approximationsaufgaben besitzen keine eindeutige Lösung. Durch Anwendung der Penalized Least Squares Methode wurde gezeigt, dass die Eindeutigkeit der gesuchten Lösung von gewissen Minimierungsaufgaben sichergestellt werden kann. Unter Umständen lässt sich sogar eine höhere Stabilität des numerischen Verfahrens gewinnen. Für die numerischen Betrachtungen wurde ein umfangreiches, effizientes C-Programm erstellt, welches die Grundlage zur Bestätigung der theoretischen Voraussagen mit den praktischen Anwendungen bildete.
In dieser Arbeit wird der Bau der (abzählbaren) abelschen p-Gruppen untersucht, durch die Betrachtung der dazugehörigen Quasibasen, die als bestimmte erzeugende Systeme der gegebenen p-Gruppe definiert sind. Die Untersuchung wird insbesondere auf die nichtseparablen p-Gruppen und ihre induktiven Quasibasen bezogen.
Ziel dieser Arbeit ist eine computerunterstützte Suche nach, bis auf Isomorphie, allen projektiven Ebenen zu einer gegebenen Ordnung durch Berechnung ihrer Inzidenzmatrix. Dies gelingt durch geeignete Vorstrukturierung der Matrix mit Hilfe der Doppelordnung bis Ordnung 9 auf einem aktuellen PC. In diesem Zusammenhang ist insbesondere durch einen genügend schnellen Algorithmus das Problem zu lösen, ob zwei Inzidenzmatrizen zu derselben projektiven Ebene gehören. Die besondere Struktur, die die berechneten Beispiele von doppelgeordneten Inzidenzmatrizen der desarguesschen Ebenen aufzeigen, wird zudem durch theoretische Überlegungen untermauert. In einem letzten Kapitel wird noch eine Verbindung der projektiven Ebenen zu besonderen Blockplänen geschaffen.
Die fast vollständig zerlegbaren Gruppen bilden eine Teilklasse der Butlergruppen. Das Konzept des Regulators, d.h. der Durchschnitt aller regulierenden Untergruppen, ist unverzichtbar für fast vollständig zerlegbare Gruppen. Dieses Konzept lässt sich in natürlicher Weise auf die ganze Klasse der Butlergruppen fortsetzen. Allerdings lässt sich die Regulatorbildung im allgemeineren Fall der Butlergruppen a priori iterieren. Damit stellt sich erst einmal die Frage, ob es überhaupt Butlergruppen gibt mit Regulatorketten, der Länge größer als 1. Ein erstes Beispiel der Länge 2 wurde 1997 von Lehrmann und Mutzbauer konstruiert. In dieser Dissertation wurden mit konzeptionell neuen Techniken Butlergruppen mit beliebiger vorgegebener endlicher Kettenlänge angegeben. Grundsätzliche Schwierigkeiten bei diesem Unterfangen resultieren aus dem Fehlen, bzw. der Unmöglichkeit, einer kanonischen Darstellung von Butlergruppen. Man verwendet die allseits gebrauchte Summendarstellung für Butlergruppen. Genau an dieser Stelle bedarf es völlig neuer Methoden, verglichen mit den fast vollständig zerlegbaren Gruppen mit ihrer kanonischen Regulatordarstellung. Alle Teilaufgaben bei der anstehenden Konstruktion von Butlergruppen, die für fast vollständig zerlegbare Gruppen Standard sind, werden hierbei problematisch, u.a. die Bildung reiner Hüllen, die Bestimmung regulierender Untergruppen und die Regulatorbildung.
Ausgangspunkt dieser Arbeit war eine Publikation von D. Braess [Bra01], in der die Approximationsgüte der Funktionen $$ \frac{1}{((x-x_0)^2 + (y-y_0)^2)^s}, \qquad x_0^2 + y_0^2 \ge 1, \quad s \in (0,\infty),$$ auf der Einheitskreisscheibe $x^2+y^2 \le 1$ durch reelle Polynome untersucht wurde. Braess's Ergebnisse und insbesondere die von ihm angesprochenen offenen Probleme waren von besonderem Interesse, da sie Anlaß zu der Vermutung gaben, dass die klassische Theorie der ``Maximalen Konvergenz'' in Sinne von Walsh auf (zunächst) die oben erwähnten reell analytischen Funktionen erweitert werden kann. (Die Theorie der Maximalen Konvergenz bringt die Approximationsgüte einer Funktion auf einer kompakten Menge durch Polynome mit der Analyzität dieser Funktion in Verbindung.) \\ Hauptgegenstand der Arbeit ist die Erweiterung des klassischen ``Maximalen Konvergenz''--Konzeptes auf reell analytische Funktionen in höheren Dimensionen. Es werden verschiedene maximale Konvergenzsätze sowohl in einer als auch in mehreren Veränderlichen bewiesen. \\ Die Arbeit gliedert sich in drei Hauptteile. \\[2mm] Im ersten Teil wird der theoretische Hintergrund der ``Maximalen Konvergenz'' mit dem Problemkreis von Braess in Zusammenhang gebracht. Es wird gezeigt, dass für betrags-quadratisch holomorphe Funktionen folgender Satz gilt: \\ { \bf {Satz 1}}: Es sei $g$ eine holomorphe Funktion auf der abgeschlossenen Einheitskreisscheibe $\overline{\mathbb{D}}:=\{ z \in \mathbb{C} : |z| \le 1\}$ und $F(x,y):= |g(x+iy)|^2$, $x,y \in \mathbb{R}$. Dann gilt: $$ \limsup_{n \to \infty} \sqrt[n]{E_n ( \overline{\mathbb{D}},F)} = \frac{1}{\rho}$$ genau dann, wenn $g$ auf $ \{ z \in \mathbb{C} : |z| < \rho \}$ holomorph ist, aber auf keiner echt gr\"o\3eren Kreisscheibe, wobei $$ E_n ( \overline{\mathbb{D}},F)= \inf \{ ||F -P_n||_{\overline{\mathbb{D}}}, \, P_n: \mathbb{R}^2 \to \mathbb{R} \mbox{ Polynom vom Grad } \le n \}.$$ Dieser Satz beinhaltet nicht nur die Ergebnisse von Braess [Bra01], sondern erweitert ihn, und beantwortet die von Braess aufgeworfenen Fragen vollständig. Zudem zeigt der Satz die genaue Analogie des klassischen ``Maximalen Konvergenz''--Konzeptes für die Funktionenklasse der betrag--quadratisch holomorphen Funktionen im $\mathbb{R}^2$. \\[2mm] In der Literatur gibt es viele Verallgemeinerungen des ``Maximalen Konvergenz''--Begriffes für mehrere komplexe Veränderlichen. Im Hinblick auf die vorliegende Arbeit sind besonders die Artikel [Sic62] und [Sic81] zu erwähnen. Diese bereits bekannten Ergebnisse werden im zweiten Teil der Arbeit herangezogen, um den ``Maximalen Konvergenz''--Begriff auf mehrere reelle Veränderlichen zu erweitern. Man beachte, dass der entscheidende Unterschied hier in der polynomialen Approximationsklasse liegt. \\[2mm] Der dritte Teil befaßt sich mit der Verallgemeinerung des Satzes 1 in mehreren Veränderlichen. Eng verbunden mit diesem Problemkreis ist die Charakterisierung einer gewissen Extremalfunktion. Diese Funktion wird zur Bestimmung des Analyzitätsbereichs der zu approximierenden Funktion benötigt. Mittels geeigneter Darstellung der Extremalfunktion und Charakterisierung des Analyzitätsbereichs gelingt es schließlich, den folgenden Hauptsatz der vorliegenden Arbeit zu beweisen:\\ { \bf { Satz 2}}: Es seien $g,h$ holomorphe Funktionen auf der abgeschlossenen Einheitskugel $\overline{\mathbb{D}}_N:=\{ z \in \mathbb{C}^N : |z| \le 1\}$ und $F(x,y):= g(x+iy) \overline{h(x+iy)}$, $x,y \in \mathbb{R}^N$. Dann gilt: $$ \limsup_{n \to \infty} \sqrt[n]{E_n ( \overline{\mathbb{D}}_N,F)} = \frac{1}{\rho}$$ genau dann, wenn $g,h$ auf ${\mathbb{D}}_{N,\rho}:= \{ z \in \mathbb{C}^N : |z| < \rho \}$ holomorph sind, und mindestens eine der zwei Funktionen $g,h$ auf keinem echt gr\"o\3eren Ball als $\mathbb{D}_{N,\rho}$ holomorph fortsetzbar ist. Hierbei bezeichnet $$ E_n ( \overline{\mathbb{D}}_N,F)= \inf \{ ||F -P_n||_{\overline{\mathbb{D}}_N}, \, P_n: \mathbb{R}^{2N} \to \mathbb{C} \mbox{ Polynom vom Grad } \le n \}.$$ $[$Bra01$]$ Braess, D., {\it Note on the Approximation of Powers of the Distance in Two-Dimensional Domains}, Constructive Approximation (2001), {\bf 17} No. 1, 147-151. \\ $[$Sic62$]$ Siciak, J., {\it On some extremal functions and their applications in the theory of analytic functions of several complex variables}, Trans. Amer. Math. Soc. (1962), {\bf 105}, 322--357. \\ $[$Sic81$]$ Siciak, J., {\it Extremal plurisubharmonic functions in $\mathbb{C}^N$}, Ann. Pol. Math. (1981), {\bf 39}, 175--211.
In dieser Arbeit werden Algorithmen zur Lösung von linearen semidefiniten Programmen beschrieben. Unter einer geeigneten Regularitätsvoraussetzung ist ein semidefinites Programm äquivalent zu seinen Optimalitätsbedingungen. Die Optimalitätsbedingungen bzw. die Zentralen-Pfad-Bedingungen überführen wir zunächst durch matrixwertige NCP-Funktionen in ein nichtlineares Gleichungssystem. Dieses nichtlineare und teilweise nicht differenzierbare Gleichungssystem lösen wir dann mit einem Newton-ähnlichen Verfahren. Durch die Umformulierung in ein nichtlineares Gleichungssystem muss während der Iteration nicht mehr explizit die positive (Semi-)Definitheit der beteiligten Matrizen beachtet werden. Weiter wird gezeigt, dass dieser Ansatz im Gegensatz zu Inneren-Punkte-Methoden sofort symmetrische Suchrichtungen erzeugt. Um globale Konvergenz zu erhalten, werden verschiedene Globalisierungsstrategien (Schrittweitenbestimmung, Trust-Region-Ansatz) untersucht. Für das betrachtete Prädiktor-Korrektor-Verfahren und das Trust-Region-Verfahren wird lokal superlineare Konvergenz unter strikter Komplementarität und Nichtdegeneriertheit gezeigt. Die theoretische Untersuchung eines nichtglatten Newton-Verfahrens liefert ein lokal quadratisches Konvergenzverhalten ohne strikte Komplementarität, wenn die Nichtdegeneriertheitsvoraussetzung geeignet modifiziert wird.
Reine Untergruppen von vollständig zerlegbaren torsionsfreien abelschen Gruppen werden Butlergruppen genannt. Eine solche Gruppe läßt sich als endliche Summe von rationalen Rang-1-Gruppen darstellen. Eine solche Darstellung ist nicht eindeutig. Daher werden Methoden entwickelt, die zu einer Darstellung mit reinen Summanden führen. Weiter kann aus dieser Darstellung sowohl die kritische Typenmenge als auch die Typuntergruppen direkt abgelesen werden. Dies vereinfacht die Behandlung von Butlergruppen mit dem Computer und gestattet darüberhinaus eine elegantere Darstellung.
Die vorliegende Arbeit untersucht die Analytizitätseigenschaften unzulässiger Innerer-Punkte Pfade bei monotonen Komplementaritätsproblemen und diskutiert mögliche algorithmische Anwendungen. In Kapitel 2 werden einige matrixanalytische Konzepte und Resultate zusammengestellt, die für die Beweisführung in den folgenden Kapiteln benötigt werden. Kapitel 3 gibt eine genaue Definition der Begriffe "monotones lineares Komplementaritätsproblem" (LCP) bzw. "semidefinites monotones lineares Komplementaritätsproblem" (SDLCP) und zeigt die Grundidee hinter den Innere-Punkte-Verfahren zur Lösung solcher Probleme. Kapitel 4 beinhaltet die analytischen Hauptresultate für monotone Komplementaritätsprobleme. In Abschnitt 4.1 werden einige wohlbekannte Resultate über die Analytizitätseigenschaften unzulässiger Innerer-Punkte-Pfade für LCP's wiedergegeben. Diese werden in Abschnitt 4.2 auf den semidefiniten Fall übertragen. Unter der Annahme, dass das zugrundeliegende SDLCP eine strikt komplementäre Lösung besitzt, wird gezeigt, dass die Inneren-Punkte-Pfade sogar noch im Randpunkt analytisch sind. Kapitel 5 benutzt die Resultate aus Kapitel 4, um die lokal hohe Konvergenzordnung einer Langschrittmethode zur Lösung von SDLCP's zu zeigen. Kapitel 6 führt eine neue Methode zur Lösung von LCP's und SDLCP's mit Hilfe von Inneren-Punkte-Techniken ein. Dabei werden die Pfadfunktionen derart gewählt, dass alle Iterierten auf unzulässigen zentralen Pfaden liegen. Es wird globale und lokale Konvergenz des Verfahrens bewiesen.
Spiraltypflächen sind Minimalflächen des dreidimensionalen euklidischen Raums, die sich durch hohe Symmetrie gegenüber komplexen Ähnlichkeitsabbildungen der Minimalkurve auszeichnen. Ihren Namen verdanken Sie folgender Eigenschaft: Sie und ihre komplex Homothetischen sind die einzigen auf Spiralflächen abwickelbaren Minimalflächen. Bekannte Spiraltypflächen sind die Spiralminimalflächen (zugleich Minimal- und Spiralflächen) und die Bourflächen (auf Rotationsflächen abwickelbare Minimalflächen). Das Katenoid und die Enneperfläche sind spezielle Bourflächen. In dieser Arbeit werden die Spiraltypflächen auf ihre geometrischen Eigenschaften untersucht. Wir stellen ihre Periodizitäten und Symmetrien fest und versuchen, ausgezeichnete Flächenkurven auf ihnen zu finden. Wir verwenden eine globale Weierstraß-Darstellung der Spiraltypflächen. In dieser Darstellung ergeben die Flächen eine Schar mit einem komplexen Scharparameter. Anhand dieser Darstellung leiten wir sämtliche Symmetrien der Spiraltypflächen zu linearen Ähnlichkeitsabbildungen der Minimalkurve her. Als Spezialfälle erhalten wir die Symmetrien unter Assoziationen und Derivationen (Drehung der Minimalkurve um einen imaginären Drehwinkel), sowie die reellen Symmetrien (Dreh-, Spiegel- und Strecksymmetrien). Unter den Spiraltypflächen gibt es nur zwei translationssymmetrische Flächen. Die Umorientierung einer Spiraltypfläche entspricht (bis auf komplexe Homothetie) dem Vorzeichenwechsel des Flächenparameters. Im Übrigen kann durch einfache Spiegelungen an den Koordinatenebenen beziehungsweise Drehungen um die Koordinatenachsen das Vorzeichen von Real- beziehungsweise Imaginärteil des Flächenparameters umgekehrt werden. Schließlich stellen wir noch ausgezeichnete Flächenkurven auf den Spiraltypflächen vor: Krümmungslinien, Asymptotenlinien und Geodätische, sowie als deren Verallgemeinerungen die Pseudokrümmungslinien und Pseudogeodätischen.
Ein bekanntes heuristisches Prinzip von A. Bloch beschreibt die Korrespondenz zwischen Kriterien für die Konstanz ganzer Funktionen und Normalitätskriterien. In der vorliegenden Dissertation untersuchen wir die Gültigkeit des Blochschen Prinzip bei Lückenreihenproblemen sowie Zusammenhänge zwischen Normalitätsfragen und der Semidualität von einer bzw. von zwei Funktionen. Die ersten beiden Kapitel stellen die im folgenden benötigten Hilfsmittel aus der Nevanlinnaschen Wertverteilungstheorie und der Normalitätstheorie bereit. Im dritten Kapitel beweisen wir ein neues Normalitätskriterium für Familien holomorpher Funktionen, für die ein Differentialpolynom einer bestimmten Gestalt nullstellenfrei ist. Dies verallgemeinert frühere Resultate von Hayman, Drasin, Langley und Chen & Hua. Kapitel 4 ist dem Beweis eines unserer im folgenden wichtigsten Hilfsmittel gewidmet: eines tiefliegenden Konvergenzsatzes von H. Cartan über Familien von p-Tupeln holomorpher nullstellenfreier Funktionen, welche einer linearen Relation unterliegen. In Kapitel 5 werden die Konzepte der Dualität und Semidualität eingeführt und die Verbindung zu Normalitätsfragen diskutiert. Die neuen Ergebnisse über Lückenreihen finden sich im sechsten Kapitel. Der Schwerpunkt liegt hierbei zum einen auf sog. AP-Lückenreihen, zum anderen auf allgemeinen Konstruktionsverfahren, mit denen sich neue semiduale Lückenstrukturen aus bereits bekannten gewinnen lassen. Zahlreiche unserer Beweise beruhen wesentlich auf dem Satz von Cartan aus Kapitel 4. Im siebten Kapitel erweitern wir unsere Semidualitätsuntersuchungen auf Mengen aus zwei Funktionen. Wir ziehen Normalitätskriterien (vor allem das in Kapitel 3 bewiesene sowie den Satz von Cartan) heran, um spezielle Mengen als nichtsemidual zu identifizieren. Zuletzt konstruieren wir ein Beispiel einer semidualen Menge aus zwei Funktionen.
Charakteristisch für die Lösbarkeit von elliptischen partiellen Differentialgleichungssystemen mit Nebenbedingungen ist das Auftreten einer inf-sup-Bedingung. Im prototypischen Fall der Stokes-Gleichungen ist diese auch als Ladyzhenskaya-Bedingung bekannt. Die Gültigkeit dieser Bedingung, bzw. die Existenz der zugehörigen Konstante ist eine Eigenschaft des Gebietes, innerhalb dessen die Differentialgleichung gelöst werden soll. Während die Existenz schon die Lösbarkeit garantiert, ist beispielsweise für Fehleraussagen bei der numerischen Approximation auch die Größe der Konstanten sehr wichtig. Insbesondere auch deshalb, weil eine ähnliche inf-sup-Bedingung auch bei der Diskretisierung mittel Finiter-Elemente-Methoden auftaucht, die hier Babuska-Brezzi-Bedingung heißt. Die Arbeit befaßt sich auf der einen Seite mit einer analytischen Abschätzung der Ladyzhenskaya-Konstante für verschiedene Gebiete, wobei Äquivalenzen mit verwandten Problemen aus der komplexen Analysis (Friedrichs-Ungleichung) und der Strukturmechanik (Kornsche Ungleichung) benutzt werden. Ein weiterer Teil befaßt sich mit dem Zusammenhang zwischen kontinuierlicher Ladyzhenskaya- Konstante und diskreter Babuska-Brezzi-Konstante. Die dabei gefundenen Ergebnisse werden mit Hilfe eines dazu entwickelten leistungsfähigen Finite-Elemente-Programmsystems numerisch verifiziert. Damit können erstmals genaue Abschätzungen der Konstanten in zwei und drei Dimensionen gefunden werden. Aufbauend auf diesen Resultaten wird ein schneller Lösungsalgorithmus für die Stokes-Gleichungen vorgeschlagen und anhand von problematischen Gebieten dessen Überlegenheit gegenüber klassischen Verfahren wie beispielsweise der Uzawa-Iteration demonstriert. Während selbst bei einfachen Geometrien eine Konvergenzbeschleunigung um einen Faktor 5 erwartet werden kann, sind in kritischen Fällen Faktoren bis zu 1000 möglich.
In dieser Arbeit beschäftigen wir uns mit Themen aus der affinen Hyperflächentheorie. Nachdem wir die euklidische Normale, die Blaschkesche Affinnormale, eine gewisse Einparameterfamilie von Relativnormalen und die zentroaffine Normale besprochen und eine neue Einparameterfamilie von Relativnormalen definiert haben, behandeln wir die folgenden drei Schwerpunkte: Zuerst befassen wir uns mit Minimalflächen bezüglich verschiedener Volumina und der Rolle der jeweiligen Mittleren Krümmung. Wir berechnen die erste und zweite Variation der Volumina, die von den Normalen der erwähnten Familien induziert werden. Hierbei stellen wir fest, daß die Mittlere Krümmung nicht immer das Verschwinden der ersten Variation des Volumens anzeigt. Anschließend übertragen wir die Begriffe Adjungierte und Assoziierte bei euklidischen Minimalflächen auf Affinminimalflächen: Analog zum euklidischen Fall kann man die Konormale einer Affinminimalfläche durch bestimmte ,,harmonische'' Abbildungen darstellen. Wir geben eine Methode an, wie man aus einer gegebenen Affinminimalfläche weitere gewinnt, indem man diese Abbildungen entsprechend modifiziert. Schließlich lösen wir eine Verallgemeinerung des Björlingschen Problems für Normalen der oben erwähnten Familien: Bei Vorgabe einer Kurve mit zwei Vektorfeldern und der Art der Normalisierung existiert - mit Ausnahmen - je genau eine elliptische und eine hyperbolische Fläche in (pseudo-)isothermen Parametern mit folgenden Eigenschaften: Die Kurve ist eine Parameterlinie, die Normale längs der Kurve stimmt mit dem einen Vektorfeld überein, die Konormale mit dem anderen und die Mittlere und Gaußsche Krümmung erfüllen eine vorgegebene Bedingung.
Teil 1 der Arbeit beinhaltet eine Zusammenfassung grundlegender funktionalanalytischer Ergebnisse sowie eine Einführung in die Integral- und Differentialrechnung in Frécheträumen. Insbesondere wird in Kapitel 2 eine ausführliche Darstellung des Lebesgue-Bochner-Integrals auf Frécheträumen geliefert. Teil 2 behandelt die Theorie der linearen Differentialgleichungen auf Frécheträumen. Dazu werden in Kapitel 3 stark differenzierbare Halbgruppen und deren infinitesimale Generatoren charakterisiert. In Kapitel 4 werden diese Ergebnisse benutzt, um lineare Evolutionsgleichungen (von hyperbolischem oder parabolischem Typ) zu untersuchen. Teil 3 enthält die zentralen Resultate der Arbeit. In Kapitel 5 werden zwei Existenz- und Eindeutigkeitssätze für nichtlineare gewöhnliche Differentialgleichungen in zahmen Frécheträumen bewiesen. Kapitel 6 liefert eine Anwendung der Ergebnisse aus Kapitel 5 auf nichtlineare partielle Differentialgleichungen erster Ordnung.