Informationen zu unseren ehemaligen
Absolventinnen und Absolventen
an der Universität Bayreuth:

Wo Mathematiker(innen) arbeiten. - Wie ihr Berufseinstieg erfolgte. -
Was ihre Tätigkeiten sind.

Wie sich ihr weiterer Werdegang entwickelte.

Liebe ehemaligen Absolventinnen und Absolventen:

Wenn Sie diese Seite 'mal wieder besuchen sollten, halten Sie mich bitte auf dem Laufenden. Ich möchte gerne wissen, wie Ihr Lebensweg weitergegangen ist. Alles, was Sie mit Ihrem jetzigen Abstand vom Studium über Ihre Studienwahl denken, alles was Sie für informativ für die heutigen Studierenden halten, möchte ich gerne auch weiterhin über meine Pensionierung hinaus auf dieser Seite präsentieren. Auch Links zu Ihren aktuellen Firmen oder zu Ihren Forschungsprojekten würde ich gerne eingetragen. Sie erreichen mich auch weiterhin unter meiner Bayreuther E-Mail.

Ich wünsche Ihnen privat und beruflich alles Gute und grüße Sie in alter Erinnerung ganz herzlich,
Hans Josef Pesch

Diplomarbeiten, Technische Universität München, 1988-1995

Diplomarbeiten, Technische Universität Clausthal, 1996-2001


2001


Flugbahnoptimierung eines Niedrig-Schub-Raumfahrzeugs
von
Tobias Graf

Tobias Graf Ein aktuelles Projekt der ESA (European Space Agency) ist die Vorbereitung eines Experiments, mit dem Gravitationswellen im Weltraum entdeckt und untersucht werden sollen: LISA (Laser Interferometer Space Antenna).

LISA besteht aus sechs identischen Raumfahrzeugen, die paarweise im Abstand von fünf Millionen Kilometern ein gleichseitiges Dreieck bilden, dessen Mittelpunkt eine Astronomische Einheit von der Sonne entfernt ist und sich 20 Grad hinter der Erde auf der Erdbahn befindet. Die Formation wird auf einer erdähnlichen Umlaufbahn um die Sonne kreisen. In jedem Raumfahrzeug befindet sich eine in Schwerelosigkeit frei fliegende Prüfmasse. Mit Hilfe von Lasern und Spiegelsystemen kann jede noch so kleine Abstandsänderung der Prüfmassen zueinander gemessen werden.

Nach dem Aussetzen durch die Trägerrakete wird ein solarelektrisches Antriebsmodul für den Transfer jedes Raumfahrzeugs zu seinem Zeilorbit benutzt, wobei die elektrische Energie von der Sonne verwendet wird, um Atome für die gewünschte Schubrichtung zu ionisieren und zu beschleunigen. Dieser solarelektrische Antrieb ist wesentlich schwächer als herkömmliche Raketentriebwerke, allerdings auch erheblich leichter. Deshalb benötigt dieses Raumfahrzeug für den Start nur eine kleinere und billigere Startrakete.

Ausgangspunkt für Herrn Grafs Arbeiten war ein ESA-Report von Vasile und Jehn, in dem für die schwierige Bahnebenendrehung des ionengetriebenen Raumfahrzeugs ein Vergleich der Ergebnisse eines direkten Optimierungsverfahrens und zweier indirekter Optimierungsverfahren (Einfachschießen, Mehrzielmethode) durchgeführt wurden. Man muß hierzu anmerken, daß Flugbahnoptimierungsaufgaben für ionengetriebene Satelliten auf Grund der schwachen Schübe des Triebwerks in der Vergangenheit nur erfolgreich mit ausgefeilten indirekten Verfahren lösbar waren. In diesem ESA Report werden verschiedene, und wie Hr. Graf feststellte, zum Teil nicht mathematisch äquivalente Formulierungen der Aufgabenstellung bzgl. ihrer Ergebnisse verglichen, wobei die abgeleiteten Schlußfolgerungen zum Teil nicht schlüssig sind.

Die Aufgabe von Herrn Graf war zunächst die genaue Analyse der verwendeten verschiedenen Koordinatensysteme, Problemformulierungen und der anschließende sorgfältige Vergleich der Ergebnisse des direkten Optimierungsverfahrens NUDOCCCS und des indirekten Optimierungsverfahrens MUMUS für zwei verschiedene, aber mathematisch äquivalente Problemformulierungen des Flugbahnoptimierungsproblems (sowohl ohne als auch mit einer technisch relevanten Beschränkung). Kurz gesprochen interessierte also: Können heutzutage ausgereifte direkte Optimierungsverfahren zuverlässige Ergebnisse für Flugbahnoptimierungsaufgaben mit ionengetriebenen Raumfahrzeugen liefern? Wie genau sind die berechneten Zustands- und Steuerfunktionen? Wie genau ist der Zielfunktionalswert?

Die Ergebnisse der Arbeit wurden auf einer internationalen Tagung präsentiert; siehe auch hier.

Studium: Wirtschaftsmathematik, U Bayreuth, 10/1995
Abschluss: 5/2001
Erste Anstellung: sofort nach Abschluss
1. Position: wissenschaftlicher Mitarbeiter
Firma: Universität (Bayreuth, Lehrstuhl für Angewandte Mathematik)
Branche: Öffentlicher Dienst
Promotion: Herr Graf promovierte 2005 an der Universität Bayreuth mit der Dissertation
Satellitentransfer von einem Geotransferorbit in einen geostationären Orbit bei Profs. Lempio und Pesch.
2. Position: wissenschaftlicher Mitarbeiter
Firma: Institut für Arbeitsmarkt- und Berufsforschung, Nürnberg
Branche: Forschungsinstitut
E-Mail: tobias.graf"at"web.de


Sensitivitütsanalyse verschiedener Gütekriterien bei der optimalen Bahnplanung von Industrierobotern
von
Matthias Knauer

Matthias Knauer Bereits seit 40 Jahren kommen Roboter in der Industrie zum Einsatz. Sie ermöglichen ein schnelles und preiswertes Produzieren, ohne qualitative Einschränkungen in Kauf nehmen zu müssen. Die Anzahl der Roboter, die sich derzeit im weltweiten Einsatz befinden, wird auf ca. eine Million geschützt. Hiervon werden allein die Hälfte der Roboter für Punktschweißaufgaben eingesetzt, einer Aufgabenstellung, wie sie im wesentlichen auch in der Arbeit von Herrn Knauer behandelt wird.

Die Effektivität von Robotern hängt nicht mehr ausschließlich davon ab, welche Optimalitätsforderungen (z.B. Zeit-, Energie-, Verschleiß- oder Verbrauchsminimalität) bei der Bahnplanung berücksichtigt werden, sondern in welchem Maße selbige berücksichtigt werden. Allein die Entscheidung, welches Gütekriterium eine opimale Bahn festlegen soll, ist eine schwierige Aufgabe. Die Vektor- bzw. Pareto-Optimierung, d.h. die gleichzeitige Berücksichtigung verschiedener Gütekriterien, erlaubt hier einen Ausweg. Mittels einer parametrischen Sensitivitätsanalyse kann das Zusammenspiel verschiedener Zielfunktionen erstmals tiefergehend untersucht werden.

Herrn Knauer hat die Bewegungsgleichungen des Industrieroboters IRB 6400 als Fortran Quellcode unter Verwendung des Computeralgebra Programms Maple erstellt. Dann damit unter Verwendung des Programms NUDOCCCS von Büskens optimale Bahnen für verschiedene Gütekriterien berechnet und diese schließlich mit Hilfe einer Sensitivitätsanalyse analysiert.

Darüber hinaus enthält die Arbeit von Herrn Knauer noch Beiträge zur Echtzeitsteuerung parametergestörter Bewegungsgleichungen bei den untersuchten Problemen aus der Robotik. Für diese hat Herr Knauer neben seiner Diplomarbeit noch ein beeindruckendes Visualisierungswerkzeug entwickelt.

Siehe auch hier (Link)

Studium: Mathematik mit Nebenfach Informatik, U Bayreuth
Abschluss: 7/2001
Erste Anstellung: sofort nach Studienabschluss
Position: zunächst: Wissenschaftlicher Mitarbeiter,
danach: Mathematiker in der Industrie,
dann wieder: Wissenschaftlicher Mitarbeiter
Firma: zunächst: Lehrstuhl für Ingenieurmathematik, U Bayreuth,
danach: Krusche Lagertechnik AG, Wartenberg,
dann wieder: Lehrstuhl für Ingenieurmathematik, U Bayreuth,
derzeit: Zentrum für Technomathematik, Universität Bremen
Branche: zunächst: Universität, danach: Maschinenbau, dann wieder: Universität
E-Mail: knauer"at"math.uni-bremen.de
Homepage: http://www.math.uni-bremen.de/zetem/MatthiasKnauer (Link)
Promotion: Herr Knauer promovierte in der Arbeitsgruppe Optimierung und Optimale Steuerung der Universität Bremen im April 2009 zum Thema Bilevel-Optimalsteuerung mittels hybrider Lösungsmethoden am Beispiel eines deckengeführten Regalbediengeräts in einem Hochregallager. Gutachter: Profs. Büskens, Pesch.
Sonstiges: Herr Knauer ist weiterhin an der Universität Bremen tätig und beschäftigt sich derzeit mit Transkriptionsverfahren für Optimalsteuerungsprobleme und zahlreichen industrienahen Anwendungen in der Logistik, im Raumfahrtbereich und im Automobilsektor.


Numerische Berechnung der optimalen Steuerung eines Flugzeuges bei Fallwinden mittels direkter Verfahren
von
Axel Luthardt

Viele Verkehrsflugzeugunglücke der letzten Jahrzehnte sind auf sogenannte Fallwinde zurückzuführen, bei denen vertikale Luftströmungen mit lokal sehr begrenzter Ausdehnung und hohen Geschwindigkeiten auftreten. Die Aufgabenstellung der Berechnung optimaler Flugbahnen beim Auftreten von Fallwinden wurde erstmals 1986 von Miele, Wang und Melvin für den 2-dimensionalen Flug formuliert und von Grigat 1997 auf den 3-dimensionalen Fall erweitert. Hierbei wurde das Optimierungsziel der Maximierung der Minimalhöhe durch eine approximierende Ersatzfunktion erreicht. Montrone berechnete 1989 für den 2-dimensionalen Fall die optimale Lösung für die originale Zielfunktionsformulierung. Während die benannten Autoren im wesentlichen die auf den notwendigen Optimalitätsbedingungen von Pontrjagin basierenden indirekten Verfahren zur Lösungsberechnung nutzten, war es die Aufgabe von Herrn Axel Luthardt, die bekannten Lösungen anhand des direkten Verfahrens NUDOCCCS von Büskens zu verifizieren und die originale Zielfunktionsformulierung, wie von Montrone im 2-dimensionalen Fall behandelt, auf den 3-dimensionalen Fall zu übertragen.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 31.8.2001
Erste Anstellung: 1.10.2001
Position: Operationsanalytiker
Branche: Maschinenbau
Firma: EADS Militärflugzeuge Deutschland
E-Mail: axel.luthardt"at"m.eads.net oder axel.luthardt"at"web.de
Promotion: Herr Luthardt promovierte aus dem Beruf heraus im Jahre 2012 an der Universität Bayreuth bei Prof. Schittkowski mit der Dissertation Ein Verfahren der sequentiellen konvexen Optimierung mit kombinierter Trust-Region- und Moving-Asymptotes-Stabilisierung zur Lösung nichtlinearer restringierter Optimierungsprobleme. Zweitgutachter: Prof. Pesch.


2002


Numerische Lösung von Optimalsteuerungsproblemen mit gemischt--ganzzahligen Entscheidungsvariablen
von
Christian Maier

Viele praxisrelevante Aufgabenstellungen aus den Ingenieur- und Naturwissenschaften sowie in der Ökonomie lassen sich im Rahmen der Theorie optimaler Steuerprozesse behandeln und numerisch lösen. Neuere Aufgabenstellungen führen auf erweiterte Problemstellungen, bei denen neben den stetigen Variablen auch diskrete Entscheidungsvariablen die Optimallösung beeinflussen: Man denke etwa an die Gangschaltung bei einem Auto als diskrete Entscheidungsvariable, während z.B. die Beschleunigung kontinuierlich zu wählen ist. Die Aufgabenstellung der gemischt--ganzzahligen Optimalsteuerung (MIOCP=mixed integer optimal control problems) ist eine sehr junge Disziplin; die numerische Bestimmung einer optimalen Lösung ist so gut wie unbehandelt. Herr Maier hat in seiner Diplomarbeit eine neue, am Lehrstuhl Ingenieurmathematik entwickelte Idee für einen numerischen Algorithmus zur Berechnung optimaler Lösungen solcher Aufgabenstellungen unter Verwendung des direkten Verfahrens NUDOCCCS (zur Lösung kontinuierlicher Optimalsteuerungsprobleme) umgesetzt und in einem Computerprogramm realisiert. Mit einer speziellen Kodierung der ganzzahligen Variablen durch einen Simplex, gekoppelt mit einer Strategie zum effizienten Absuchen der ganzzahligen Variablen, wurde das Problem der Ganzzahligkeit behandelt.

Die Arbeit von Herrn Maier unterteilt sich im wesentlichen in drei Bereiche: Im ersten Bereich der mathematischen Grundlagen werden in kompakter Form bekannte theoretische Resultate zu Optimalsteuerungsproblemen, nichtlinearen Optimierungsproblemen und ganzzahligen Optimierungsproblemen zusammengefasst. Im zweiten Bereich beschreibt Herr Maier numerische Lösungsverfahren für Optimalsteuerungsprobleme und zur Lösung ganzzahliger Optimierungsprobleme. Hier wir auch die Idee zur Verknüpfung der Ganzzahligkeit mit dem Optimalsteuerungsproblem diskutiert und auf die numerische Realsierung und Implementierung eingegangen. Im dritten Bereich werden numerische Ergebnisse erörtert.

Studium: U Bayreuth
Abschluss: ??.??.2002
Erste Anstellung: ??.??.200?
Position:
Branche:
Firma:
E-Mail:


Parameteridentifizierung in parabolischen partiellen Differentialgleichungen mit Anwendungen aus der Biologie und Chemie
von
Tanja Niklas (jetzt: Horn)

Eine der am häfigsten an Mathematiker gestellten Aufgaben ist die Parameteridentifizierung in Gleichungssystemen. Ausgangslage ist ein mathematisches Modell in Form von Gleichungen (algebraische Gleichungen, gewöhnliche oder partielle Differentialgleichungen, differential-algebraische Gleichungen etc.) Ein konkreter Sachverhalt wird dabei in der Regel durch Vorgabe von Parametern beschrieben. Diese Parameter sind häfig nur unter erheblichem Aufwand an Kosten oder auch gar nicht mssbar bzw. bestimmbar. Die Mathematik liefert nun einen Ausweg über die Lösung eines inversen Problems. Dabei werden ausgehend von Startschätzungen für diese Parameter die Lösungen der Gleichungen bzw. von diesen abhängige Größen berechnet und mit Messwerten für diese Größen verglichen. Die Startschätzungen werden dann iterativ so verbessert, dass die berechneten Lösungen oder die davon abhängigen Größen mit den Messwerten möglichst gut übereinstimmen.

Frau Niklas hat in ihrer Diplomarbeit das Verfahren von Matthias Gerdts zur Berechnung optimaler Lösungen von Steuerungsproblemen, deren Dynamik durch differential-algebraische Gleichungen beschrieben werden, so erweitert, dass nun in der Optimierungsgruppe der Universität Bayreuth auch ein Verfahren zur Parameteridentifikation in parabolischen partiellen Differentialgleichungen bis zur Ortsdimension zwei zur Verfügung steht.

Frau Niklas hat ihre Diplomarbeit in vier Kapitel geliedert, gemäß den drei beteiligten Fachgebieten der Mathematik, die bei dieser Problemstellung eine Rolle spielen, sowie ein Kapitel, das den Anwendungen gewidmet ist: Die Theorie partieller Differentialgleichungen, die Numerik partieller Differentialgleichungen, die Optimierung, speziell die Parameteridentifikation in Differentialgleichungen, und Anwendungen aus Biologie und Chemie. Die Arbeit enthält zudem einen ausführlichen Anhang zur Benutzung des entwickelten Programmpaketes.

Studium: 1. Staatsexamen für das Lehramt am Gymnasium mit der Fächerkombination: Mathematik/Physik,
danach: Mathematik mit Nebenfach Physik (beides U Bayreuth)
Abschluss: 26.8.2002
Erste Anstellung: zunächst zweimonatiges Praktikum unmittelbar nach Studienabschluss, dann Festanstellung
Position: Kostenanalytikerin
Branche: Automobilbau
Firma: BMW AG, München
Tätigkeit: Planung und Kostenanalyse von Gewährleistungen
E-Mails: T.Horn"at"arcor.de oder TR.Horn"at"gmx.de (beide privat) oder Tanja.Horn at bmw.de (geschäftlich)
Sonstiges: Für mich hat es sich wirklich gelohnt, das Referendariat abzubrechen und nochmals zu studieren. Nun kann ich wirklich etwas machen, das mir großen Spaß macht und wo ich mich voll einbringen kann.


Konzeption und Realisierung naturanaloger Optimierungsverfahren zur Ablaufplanung im Krankenhaus
von
Matthias Sacher

Kostendruck zwingt heute auch Krankenhäuser zu einem effizienten Einsatz ihrer Ressourcen. Insbesondere durch die Optimierung der Ablaufplanung kann eine bessere Auslastung und damit einer höhere Effizienz bei der Belegung von Stationen erreicht werden, die Patienten im Krankenhaus durchlaufen müssen. Es ist offensichtlich, dass eine mathematische Modellierung bei diesem weder natur- noch ingenieurwissenschaftlichen Hintergrund eine nicht einfache Angelegenheit ist. Es existieren jedoch Modelle, die die Ablaufplanung mit Maschinenbelegungsproblemen in Beziehung setzen. Hierbei handelt es sich um die sogenannten Sheduling-Probleme.

Herr Sacher hat in seiner Diplomarbeit genetische Algorithmen und das Simulated Annealing, zwei naturanaloge Optimierungsverfahren, auf die Ablaufplanung im Krankenhaus angewendt. Diese Verfahren sind für solche, einer mathematischen Modellierung nicht leicht zugänglichen Aufgaben bestens geeignet. Beide Verfahren sind keine mathematisch strengen Methoden, sondern besitzen experimentellen und heuristischen Charakter, leiden allerdings an einem enormen Rechenzeitbedarf, da aufgrund der geringen mathematischen Struktur des Problems keine intelligenten Suchverfahren für Abstiegsrichtungen bei der Optimierung eingesetzt werden können.

Nach der Darstellung des Problems der Ablaufplanung im Krankenhaus und einer Einführung in die beiden Optimierungsverfahren werden diese auf die Problemstellung angewendet und die erzielten Ergebnisse ausführlich diskutiert. Die Verfahren werden sodann miteinander verglichen, dabei erweist sich das von Herrn Sacher implementierte Simulated-Annealing-Verfahren gegenüber dem ebenfalls von Herrn Sacher implementierte Genetischen Optimierungsverfahren als überlegen. Abschließend wird die Relevanz der entwickelten Software für einen praktischen Einsatz diskutiert. Daten, Programmbeschreibung der Software und Softeware sind der Arbeit angehängt bzw. auf CD-Rom beigefügt.

Die Arbeit entstand in gemeinsamer Betreuung mit dem Lehrstuhl für Betriebswirtschaftslehre VII (Wirtschaftsinformatik), Prof. Dr. Armin Heinzl, jetzt U Mannheim.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: März 2002
Erste Anstellung: 01.03.2003
Position: Softwareentwickler
Branche: Real Time Software for Embedded Systems
Firma: 4D Engineering GmbH Bayreuth/Weßling
E-Mail: sacher.matthias"at"web.de


Einsatz von evolutionären Strategien zur Optimierung baumförmiger Kommunikationsnetzwerke
von
Barbara Schindler

Evolutionäre Algorithmen, zu denen auch die Genetischen Algorithmen zählen, eignen sich für Optimierungsaufgaben, insbesondere wenn deren mathematische Struktur keine Standardform, z.B. nichtglatte Zielfunktion, diskrete Variablen, aufweist. Frau Schindler hat in ihrer Diplomarbeit verschiedene Evolutionsstrategien getestet und vergleichen und ein Verfahren zur Optimierung von baumförmigen Kommunikationsnetzwerken entwickeln. Im ersten Teil der Arbeit wird eine Einführung in die Evolutionären Verfahren und eine Übersicht über verschiedene Evolutionsstrategien gegeben. Daran schließt sich eine Übersicht über gängige Optimierungsverfahren und ihre Einsatzbereiche an. Im zweiten Teil der Arbeit werden für verschiedene Evolutionsstrategien numerische Ergebnisse anhand der Optimierung eines sogenannten One-Max-Tree-Problems, einem Standard-Problem der Netzwerkoptimierung, präsentiert und diskutiert.

Die Arbeit entstand in gemeinsamer Betreuung mit dem Lehrstuhl für Betriebswirtschaftslehre VII (Wirtschaftsinformatik), Prof. Dr. Armin Heinzl, jetzt U Mannheim.

Aus dieser Diplomarbeit ging eine Publikation hervor: Zum Inhalt siehe hier.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: März 2003
Erste Anstellung: Januar 2003
Position: Softwareentwickler
Branche: Branchensoftware
Firma: SKS-AG, EDV-Systeme
E-Mail: b.schindler"at"sks-net.de


Modellierung optimaler Steuerungsprobleme und ihre Sensitivitätsanalyse bei Problemstellungen aus der Chemotherapie
von
Kati Sternberg

Kati Sternberg Viele Optimierungsprobleme bei Problemstellungen aus Ingenieur-, Natur- und Wirtschaftswissenschaften lassen sich mithilfe mathematischer Modelle im Rahmen der Theorie optimaler Steuerprozesse analysieren und mithilfe von Verfahren der Numerischen Mathematk explizit lösen. Noch relativ neu sind dagegen Anwendungen der Theorie optimaler Steuerprozesse in der Medizin, hier speziell der Chemotherapie. Der Grund liegt sicherlich darin, dass sowohl aus medizinischer Sicht oft nur vage Kenntnisse des dynamischen Verhaltens der Zellen bekannt sind, wie in der i.A. fehlenden gemeinsamen Gesprächsbasis zwischen Medizinern, Pharmakologen und Biologen einerseits und Mathematikern andererseits. Dass es sich hierbei dennoch um ein hochaktuelles Gebiet handelt, erkennt man aus der Tatsache, dass die überwiegende Zahl der Literaturzitate in dieser Diplomarbeit der letzten Dekade entstammen.

Grundlage der in dieser Diplomarbeit verwendeten dynamischen Modelle sind einfache Wachstumsgesetze, die in der Mathematik zwar z.T. schon seit mehreren hundert Jahren untersucht wurden, jedoch erst in jüngster Zeit auf das dynamische Verhalten von Tumorzellen angewendet, modifiziert und verfeinert wurden. Insbesondere die Reaktion des Wachstums von Tumor- und gesunden Zellen auf chemotherapeutische Medikamente kann man mathematisch durch von außen beeinflussbare Größen modellieren, mit anderen Worten steuern.

In der Diplomarbeit wurde eine Sichtung der aktuellen Literatur auf diesem Gebiete durchgeführt, die vorhandenen Modelle zusammengestellt, struktriert und einige der resultierenden Optimalsteuerungsprobleme mathematisch analysiert und numerisch gelöst. Insbesondere wurden die Modelle hinsichtlich Stabilität gegenüber Parameteränderungen untersuchen, da gerade die Kenntnis der Parameterwerte in den zugrunde liegenden Differentialgleichungen nur sehr unzureichend ist. Hierbei bietet sich die Sensitivitätsanalyse an, die mit dem Verfahren NUDOCCCS von C. Büskens numerisch durchgeführt wurde.

Nach einer Einführung in die biologischen Grundlagen, die zum Verständnis der Modellierung chemotherapeutischer Modelle notwendig ist, und einer Einführung in die mathematischen Grundlagen gibt die Diplomarbeit in Kapitel 4 eine strukturierte Übersicht über die in der Literatur verwendeten dynamischen Modelle. Durch Kombination von aus der Literatur bekannten Modellen werden neue erweitere Modelle entwickelt und deren biologischer Hintergrund beschrieben. Ferner werden verschiedene Möglichkeiten aufgezeigt, die dynamischen Modelle durch von außen beeinflussbare Größen zu steuern und hinsichtlich verschiedenen Ziele zu optimieren.

Zu drei häfig in der Literatur verwendeten Modellen (von Fister & Panetta; Ledzewicz; Afenya), die zum Teil leicht modifiziert wurden, werden optimale Lösungen numerisch berechnet. Für jedes Modell wird eine Sensitivitätsanalyse durchgeführt und deren Ergebnisse diskutiert.

Aus dieser Diplomarbeit ging eine Publikation in einem Tagungsband hervor. Siehe hier bzw. hier (Download).

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: Oktober 2002
Erste Anstellung: unmittelbar nach Studienabschluss
1. Position: Wissenschaftliche Mitarbeiterin
Branche: Universität (Bayreuth, Lehrstuhl für Ingenieurmathematik)
Promotion: Februar 2007: Simulation, Optimale Steuerung und Sensitivitätsanalyse einer Schmelzkarbonat-Brennstoffzelle
mithilfe eines partiell differential-algebraischen Gleichungssystems
,
Fakultät für Mathematik, Physik und Informatik, Universität Bayreuth. Betreuer: Prof. Pesch.
2. Position: Biometrikerin
Branche: Pharmazie
Firma: Merz Pharmaceuticals GmbH, Darmstadt
Tätigkeit: Als Biometrikerin ist Frau Dr. Sternberg in der Abteilung Central Medical Affairs f&uum;r die Erstellung statistischer Analysepläne bei der Einführung neuer oder der Überprüfung bereits existierender Arzeneimittel verantwortlich. In diesen Plänen muss jede einzelne Berechnung einer Studie im Voraus exakt festgelegt werden. Selbst Tabellen und Grafiken müssen vorher festgelegt werden, damit statistischen Auswertungen auf keinen Fall nachträglich durch Veränderungen verfälscht werden. Insbesondere müssen die statistischen Ergebnisse der Studien unabhängig von den Patientendaten sein.
E-Mail: kati.sternberg(at)googlemail.com
Alte Homepage an der UBT: http://www.ingmath.uni-bayreuth.de/Sternberg/


Modellierung und Optimierung in der Mikroökonomie: Steuerung von Investitionen, Beschäftigung und Warenpreis eines Produktionsunternehmens
von
Maria Witzmann

Gegenstand der Diplomarbeit ist ein mikroökonomische Unternehmensmodell, bei dem der Gewinn der Eigenkapitalgeber eines Produktionsunternehmens durch Steuerung von Investitionen, Beschäftigung und Warenpreis für ein produziertes Produkt maximiert werden soll. Das Modell geht in seiner ursprünglichen Form auf Lesourne und Leban (1980, 1982) zurück und wurde danach im Verlauf mehrerer Diplomarbeiten (Will, 1992, U Hamburg; Koslik, 1994, Winderl, 1996, beide TU München) hin zu mehr Realitätsnähe verbessert. In allen diesen Diplomarbeiten wurden auch numerische Lösungen des zugrundeliegenden Optimalsteuerungsproblems angegeben. Dabei zeigte sich, dass dieses Problem extrem kompliziert ist, da aufgrund von vier linear eingehenden Steuerungen und einer Vielzahl von Ungleichungsbeschränkungen eine äußerst verzwickte Schaltstruktur aufzulösen war. Mit steigender Komplexität waren optimale Lösungen zuletzt nur noch mithilfe indirekter Verfahren zu berechnen. Trotz seiner Komplexität weist das Unternehmensmodell weiterhin Defizite in der Modellierung auf, z.B.: Kosten für Einstellung und Entlassung von Beschäftigten werden nicht berücksichtigt; die Nachfrage nach den produzierten Produkten ist weder konjunkturabhängig, noch über den Preis steuerbar.

Diese vierte Diplomarbeit zu dem Unternehmensmodell von Lesourne und Leban bezieht jetzt erstmalig auch Kosten für die Einstellung und Entlassung von Beschäftigten ein. Dazu werden eine lineare und eine quadratische Kostenfunktion modelliert und Schätzungen für die Parameter angegeben. Die Steuerung der Anzahl der Beschäftigten muss bei der linearen Kostenfunktion durch zwei linear eingehende Steuerungen, getrennt für Einstellung und Entlassung von Beschäftigten, ersetzt werden. Eine weitere Modifikation des Modells wird durch eine durch den Preis steuerbare, konjunkturabhüngige Nachfragefunktion erzielt. Diese zieht notwendigerweise auch eine Änderung des bisherigen Zielfunktionals nach sich, das ebenfalls kritikwürdig war. Zusätzlich werden noch Kosten für Veränderungen in Eigen- und Fremdkapital berücksichtigt, sowie ein Lagerbestand, der von der Differenz zwischen Produktion und Nachfrage abhängt. Das Zielfunktional muss dazu ein weiteres Mal modifiziert werden. Darüber hinaus wird statt der bisher verwendeten, in einen separaten Topf gezahlten Risikorücklage das Eigenkapital direkt gestörkt (Gewinnthesaurierung). Schließlich wird das Modell durch Einführung einer Selbstkündigungsrate sowie der Abführung von Steuern nur auf den positiven Gewinn komplettiert.

Das engültige Modell weist 7 Zustands- und nach wie vor 4 linear eingehende Steuerfunktionen mit mittlerweile 16 Ungleichungsnebenbedingungen auf. Aufgrund singulärer Teilbögen ist die optimale Schaltstruktur nach wie vor so kompliziert, so dass Lösungen mit vertretbarem Aufwand nur mithilfe direkter Optimierungsverfahren numerisch berechnet werden können. Hier wurde das Verfahren NUDOCCCS von Büskens verwendet. Da dieses Verfahren aber auch Schätzwerte für die Lagrangeparameter des Optimalsteuerungsproblems liefert, wurden die üblichen notwendigen Bedingungen der Theorie der Optimalen Steuerung näherungsweise überprüft, um eventuell nichtoptimale Lösungen auszusondern. Ein besonderer Vorteil des Softwarepakets NUDOCCCS mit seinen angebundenen weiteren Programmen liegt auch darin, Sensitivitäten der optimalen Lösung bezüglich der Systemparameter zu berechnen. Damit konnte dann die Schätzung der Werte der aufgrund der zahlreichen Modellmodifikationen erforderlichen Systemparameter abgesichert und das Unternehmensmodell bewertet werden.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: Oktober 2002
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Mathematikerin
Branche: Wirtschaftsprüfung
Firma: KPMG, Köln
E-Mail: maria.witzmann"at"web.de


2003


Numerische Simulation von Schmelzkarbonat-Brennstoffzellen:
1-D PDAE Modelle, ihr Differentiations-Index und ihre numerische Diskretisierung

von
Verena Petzet

und

Numerische Simulation von Schmelzkarbonat-Brennstoffzellen:
1-D PDAE Modelle, ihr MOL-Index und ihre numerische Diskretisierung

von
Sabine Scherdel (jetzt: Rehse)

Sabine Rehse geb. Scherdel Verena Petzet Diese beiden Diplomarbeiten entstanden zu Beginn eines neuen größeren, dreijährigen, vom BMBF finanzierten Forschungsprojektes zur Entwicklung optimaler Steuerstrategien für Brennstoffzellensysteme. Insbesondere Schmelzkarbonat-Brennstoffzellen stehen im Fokus des Interesses in diesem Verbundprojekt. Brennstoffzellensysteme zur alternativen und umweltfreundlichen Energiegewinnung gewinnen zunehmend an technischer Reife und damit an Bedeutung. Erste Anlagen zur stationären Energieversorgung mittels Schmelzkarbonat-Brennstoffzellen (MCFC = molten carbonate fuel cells) werden von der Firma MTU Friedrichshafen GmbH mittlerweile bereits an Kunden ausgeliefert. Neben der MTU Friedrichshafen GmbH ist einer dieser Kunden die Firma IPF Heizkraftwerksbetriebs-GmbH aus Magdeburg, die das Blockheizkraftwerk des Magdeburger Universitätsklinikums betreibt, ebenfalls an diesem Verbundprojekt beteiligt.

Mithilfe von Brennstoffzellen kann man die bei gewissen elektro-chemischen Reaktionen entstehende Energie direkt in Strom umwandeln. Da diese Reaktionen bei Schmelzkarbonat-Brennstoffzellen stark exoterm sind, bedeutet die Abwärme des Systems nicht nur einen Vorteil, um z.B. noch zusätzlich eine Dampfturbine anzutreiben, sondern bringt auch Nachteile für die Materialien der Brennstoffzelle mit sich. Die Betriebstemperatur ist ca. 600 C.

Ziel des Projektes ist es, Strategien zu entwickeln, um bei verschiedene kritischen Betriebssituationen einer Bennstoffzellenanlage, wie Anfahren und Herunterfahren der Anlage und Lastwechsel bei sich plötzlich änderndem Bedarf, zu hohe Temperaturen, insbesondere zu hohe Temperaturgradienten, und damit die Gefahr von Beschädigungen durch Materialüberhitzung und -ermüdung zu vermeiden. Bei geringerer Temperatur ist allerdings die Stromausbeute ungenügend. Endziel des Projektes ist es, dieser Art von umweltfreundlicher Energieproduktion mit zum kommerziellen Durchbruch zu verhelfen.

Mathematisch handelt es sich hier um eine große Herausforderung: die Optimierung partieller Differentialgleichungen ist ein noch sehr junges Forschungsgebiet und dieses System ist gigantisch: bis zu 24 gekoppelte hochgradig nichtlineare partiell differential-algebraische Gleichungen sind in jeder Optimierungsiteration mehrfach numerisch zu lösen. Im Rahmen dieser Diplomarbeiten wurden verschiedene erste eindimensionale Modelle numerisch gelöst. Dennoch, selbst diese Aufgabe übersteigt die Anforderungen, die man gewöhnlich bei einer Diplomarbeit setzt. Aus diesem Grund wurde die Aufgabe auf zwei Diplomandinnen, Frau Petzet und Frau Scherdel, verteilt, die sich dieser Arbeit im Team angenommen haben, ohne dabei auf eigene innovative Beiträge verzichten zu müssen.

Die in diesen Diplomarbeiten untersuchten Modelle hierarchisch ansteigender Komplexität wurden am Lehrstuhl für Systemverfahrenstechnik der Universität Magdeburg in Kooperation mit dem Max-Planck-Institut für Dynamik komplexer Systeme, ebenfalls in Magdeburg, entwickelt. Eindimensionale Modelle beschreiben neben der Wärmeleitung in den Elektroden den Gastransport der Reaktanden im Anoden- und Kathodenkanal als eindimensionales Gegenstrom-System. Darüber hinaus enthält das Modell noch Gleichungen zur Beschreibung der auftretenden Potentialdifferenzen.

Die Wärmeleitung in den Elektroden wird durch eine semilineare parabolische partielle Differentialgleichung zweiter Ordnung beschrieben. Der Gastransport der bis zu je sieben chemischen Spezies im Anoden- und Kathodenkanal wird durch bis zu 14 semilinearen Transportgleichungen, das sind hyperbolische partielle Differentialgleichungen erster Ordnung beschrieben. Hinzu kommen noch weitere, bei festem Ort in der Zeit gewöhnliche Differentialgleichungen für die Potentialdifferenzen und partielle und gewöhnliche differential-algebraische Gleichungen, die überdies noch einen Integralterm enthalten. Alle Gleichungen sind über komplizierte nichtlineare Quelltherme gekoppelt. Mit anderen Worten: Selbst die numerische Simulation eines solch komplexen Systems ist eine Herausforderung.

Die in den beiden Diplomarbeiten behandelten partiell differental-algebraischen Gleichungssystemen basieren auf unterschiedlichen Modellen für die chemischen Reaktionsgleichungen, bei Frau Scherdel wird ein detailierteres System, bei Frau Petzet ein komprimierteres System untersucht.

Die Untersuchung der die numerischen Eigenschaften beschreibenden Indizes der differental-algebraischen Gleichungssysteme, die Hinweise auf die Wohlgestelltheit des Systems liefern, brachte folgende Ergebnisse: Der zeitliche Differentiationsindex variiert je nach Modell zwischen 1 und 2, derörtliche zwischen 0 und 1 (Petzet). Der zeitliche Differentiationsindex stimmt mit dem MOL-Index (Scherdel) über ein. Alle numerischen Resultate wurden mit dem Programmpaket EASYFIT von Klaus Schittkowski berechnet.

Aus den beiden Diplomarbeiten gingen ein Zeitschriftenartikel und zwei Beiträge in Tagungsbänden hervor: Zusammenfassungen finden Sie hier: Pub 1 (B 29), Pub 2 (C 21), Pub 3 (C 22)

Verena Petzet:

Studium: Mathematik mit Nebenfach Informatik, U Bayreuth
Abschluss: Mai 2003
Erste Anstellung: unmittelbar nach Studienabschluss
1. Position: Wissenschaftliche Mitarbeiterin
Branche: Universität (Bayreuth, Lehrstuhl für Ingenieurmathematik)
Promotion: Mai 2008: Mathematische Optimierung und Sensitivitätsanalyse des Mehrstrahlschweißverfahrens
zur Verhinderung der Heißrissbildung
, Fakultät für Mathematik, Physik und Informatik, Universität Bayreuth.
Betreuer: Prof. Pesch.
2. Position: Berechnungsingenieurin
Branche: Ingenieurdienstleister
Firma: KAE - Kraftwerks- und Anlagen-Engineering GmbH, Hausen
E-Mail: Verena.Petzet"at"uni-bayreuth.de
Alte Homepage an der UBT: http://www.ingmath.uni-bayreuth.de/Petzet/html/


Sabine Rehse geb. Scherdel:

Studium: Mathematik mit Nebenfach Informatik, U Bayreuth
Abschluss: Mai 2003
Erste Anstellung: unmittelbar nach Studienabschluss
1. Position: Wissenschaftliche Mitarbeiterin
Branche: Universität (zunächst: Bayreuth, Lehrstuhl für Physikalische Chemie II, jetzt: TU Chemnitz)
in der Arbeitsgruppe Chemische Physik, Prof. Dr. Robert Magerle)
Promotion: März 2008: Registration and Quantitative Image Analysis of SPM Data, Technische Universität Chemnitz.
2. Position: Software Engineer
Branche: Software, Medizinische Bildverarbeitung
Firma: TomTec Imaging Systems
Tätigkeit: Erstellung und Anpassung von Applikationen zur Visualisierung und Analyse medizinischer Bilddaten
E-Mail: sabine.scherdel"at"physik.tu-chemnitz.de


Der Einfluss der Edge-Set-Kodierung auf die Lösungsqualität
von Evolutionären Algorithmen bei baumartigen Optimierungsproblemen

von
Carsten Tzschoppe

In dieser Diplomarbeit wurde ein graphentheoretisches Optimierungsproblem mithilfe von evolutionären Algorithmen näherungsweise gelöst. Es handelt sich dabei um das (baumförmige) Optimal-Communication-Spanning-Tree-Problem (OCSTP). Darunter versteht man die Bestimmung eines Teilnetzwerkes, d.h. eines so genannten aufspannenden Baumes, eines evtl. sehr großen Kommunikationsnetzwerkes, das unter minimalen Kosten die Kommunikation zwischen allen Knoten des Netzwerkes ermöglicht und auch die Kommunikationsbedarfe erfüllen kann. Das OCSTP ist mathematisch charakterisiert durch einen vollständigen gewichteten Graphen, d.h. einem ungerichteten Graphen ohne Schleifen mit einer endlichen Knoten- und Kantenmenge, der alle möglichen Kanten in sich birgt. Die Kanten sind dabei mit nichtnegativen Kostengewichten und nichtnegativen Kommunikationsbedarfen versehen. Unter einem aufspannenden Baum versteht man dabei einen Teilgraphen, bei dem zwischen je zwei beliebigen Knoten des Graphen genau ein Pfad aus einer Sequenz von Kanten existiert, der diese Knoten verbindet. Es gilt nun, einen aufspannenden Baum zu finden, längs dem die Kommunikationskosten, basierend auf den Knotengewichten und den Bedarfen, minimal sind. Die Summe der Bedarfe sind immer beschränkt.

Dieses Problem ist NP-schwer, d.h. es existiert kein deterministischer Algorithmus, der dieses Problem mit "vertretbarem" (polynomialen) Aufwand löst - sofern nicht "NP=P" sein sollte, eine bisher weder bewiesene, noch widerlegte Vermutung.

Daher bieten sich zur Lösung solcher Probleme evolutionäre Algorithmen an, die zumindest eine Chance bieten, experimentell "bessere" Lösungen in akzeptabler Zeit zu finden, auch wenn sie weder eine Garantie auf Optimalität, noch gesicherte Schranken liefern können. Evolutionäre Algorithmen sind Suchverfahren, bei denen für eine Vielzahl (zulässiger) Kandidaten die Zielfunktionale ausgewertet werden. Die Kandidaten einer zu bestimmenden Startpopulation werden durch gewisse an die Evolution angelehnte Operatoren, wie Rekombination und Mutation, immer und immer wieder verändert und bewertet.

Will man diese Methoden auf das OCSTP anwenden, braucht man eine Kodierung des OCSTP, auf die man dann die oben genannten Operatoren anwenden kann. Aus der Literatur kennt man eine Vielzahl von (mehr oder weniger) geeigneten Kodierungen. In dieser Arbeit wurde eine neue Kodierung, die so genannte Edge-Sets-Kodierung auf ihre Eignung zur Lösung des OCSTP getestet werden. Die Ergebnisse der Arbeit von Herrn Tzschoppe zeigen, dass diese insbesondere dann gut funktioniert, wenn die optimale Lösung ähnlich dem minimal aufspannenden Baum ist, bei dem nur die Kantengewichte, nicht jedoch die Bedarfe im Gütekriterium berücksichtigt werden.

Aus dieser Diplomarbeit ging eine Publikation in einem Tagungsband hervor. Zum Inhalt siehe hier: Pub (C 26).

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 12/2003
Erste Anstellung: 4/2004
Position: Software-Entwickler
Branche: Parallele Rechentechnologie, Data Warehouses
Firma: Exasol GmbH
E-Mail: carsten.tzschoppe"at"gmx.de


Modellierung, Optimierung und Analyse komplexer Kranmodelle
von
Anja Zenglein

Angeregt durch die Entwicklung einer Steuerung für ein neuartiges Bediensystem für Hochregallager im Rahmen einer Industriekooperation, bei dem die einzulagernden Lasten hängend an Laufkatzen transportiert werden, die sich auf Schienen zwischen den parallel geführten Regalen bewegen, kam die Frage auf, Methoden der Optimalen Steuerung auch bei neuen innovativen Krankonzepten anzuwenden. Die Bezüge sind offensichtlich. Auch bei Kränen werden Lasten hängend transportiert und sollen möglichst schwingungsfrei, schnell und punktgenau transportiert werden. Gegenstand der Diplomarbeit war die Entwicklung von Modellen für zwei- und dreidimensionale Kranbewegungen. Es wurden nur solche Kräne untersucht, bei denen die Lasten mittels Laufkatzen transportiert werden, die sich also entweder ein- oder zwei-dimensional auf Schienen bewegen, die z.B. unter der Decke einer Fabrikhalle befestigt sind. Solche Kransysteme können nicht nur Lasten bewegen, sondern z.B. auch Schweißarbeiten ausführen. Rotierende Baustellenkräne werden also nicht betrachtet.

In der Diplomarbeit werden Modelle für zwei- und dreidimensionale Kranbewegungen unter verschiedenen Annahmen hergeleitet, ihre optimalen Punkt-zu-Punkt-Bahnen numerisch berechnet und die zum Teil überraschenden Unterschiede in den numerischen Ergebnissen kritisch analysiert und diskutiert.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: Mai 2003
Erste Anstellung: Mai 2004
Position: Mathematikerin
Branche: Betriebliche Altersversorgung
1. Firma: ÖBAV Servicegesellschaft mbH, Düsseldorf
2. Firma: Aon Jauch & Höbener, Mülheim a. d. Ruhr
E-Mail: anja.zenglein"at"web.de


2004


Variationsrechnung und Optimale Steuerung im Schulunterricht: Mathematischer Hintergrund für Lehrer und Schüler sowie Anwendungen
von
Stephan Bickel und Diana Krippner

Stefan Bickel Ausgangspunkt der Arbeit war das populärwissenschaftliche Buch mit dem Titel ''Schlüsseltechnologie Mathematik" von H. J. Pesch, mit dem Lehrer und insbesondere Schüler gymnasialer Oberstufen und Studenten der ersten Semester an Universitäten und Fachhochschulen auf leicht verständliche Weise in ein klassisches und in ein modernes Gebiet der Mathematik eingeführt werden sollen, nämlich in die Variationsrechnung und in die aus ihr erwachsene Theorie der Optimalen Steuerungen. Insbesondere sollte das Buch die oft gestellte Frage - "Warum Mathematik?" --beantworten, die aber wohl oft nicht oder nicht hinreichend überzeugend beantwortet wird. Dass mittlerweile die Mathematik aufgrund ihrer Erfolge und auch ihrer Unverzichtbarkeit bei der Lösung komplexer Aufgaben aus nahezu allen Wissenschaftsbereichen zur Schlüsseltechnologie avancierte, ist in der Gesellschaft kaum wahrgenommen worden. Zusammen mit der allgemeinen Tendenz junger Menschen, den schwierigen Fächern wie Mathematik, Physik und Ingenieurwissenschaften lieber auszuweichen, ist dies fatal für die Entwicklung einer leistungsf$auml;higen modernen Gesellschaft.

Zwischen der mit dem Buch beabsichtigten Intention, einen Teilaspekt modernerer Mathematik in den Schulunterricht einzubringen, um damit die Frage nach dem Warum der Mathematik obsolet werden zu lassen, und der Realität des schulischen Unterrichts besteht aber noch eine große Lücke. Die von den Autoren angefertigte Zulassungarbeit für das höhere Lehramt an Gynmasien schließt nun diese Lücke und liefert einen Leitfaden für Lehrer und Schüler, anhand dessen, z.B. in einem Zusatzkurs, Schüler in das klassische Gebiet der mit dem Jahre 1696 aus der Taufe gehobenen Variationsrechnung eingeführt werden können, aus der dann in den 1950er Jahren das moderne Gebiet der Optimalen Steuerungen erwuchs. Mit den mathematischen Methoden dieses Gebietes lassen sich u.a. optimale Flugbahnen von Raumfahrzeugen berechnen, Roboterplanungen durchführen, verfahrenstechnische Prozesse optimal steuern oder mathematische Modelle aus der Ökonomie optimieren.

Das Ziel war es, ein Buch zu schreiben, dass sowohl für Lehrer als auch Schüler im Unterricht genutzt werden kann, beide Gebiete umfasst und durch zahlreiche Aufgaben bis hin zu kleineren Projektarbeiten Interesse an moderner(er) anwendungsbezogener Mathematik weckt. Dieses für eine einzige Zulassungarbeit zu umfangreiche Projekt wurde im Rahmen von zwei koordinierten Zulassungsarbeiten bearbeitet.

Die von Frau Krippner vorgelegte Zulassungsarbeit enthält neben Teilen, die von ihr gemeinsam mit Herrn Stephan Bickel verfasst wurden, sowohl Teile, für die sie alleine verantwortlich zeichnet, als auch Teile, für die Herr Bickel verantwortlich zeichnet.

Die von Herrn Bickel vorgelegte Zulassungsarbeit enthält folglich komplementär neben Teilen, die von ihm gemeinsam mit Frau Diana Krippner verfasst wurden, sowohl Teile, für die er alleine verantwortlich zeichnet, als auch Teile, für die Frau Krippner verantwortlich zeichnet. Zum Schluss haben dann die beiden Autoren gemeinsam die Nahtstellen geglättet, um ein einheitliches Werk vorlegen zu können.

In den Kapiteln 1 und 2 werden jeweils die ersten notwendigen Bedingungen für Optimierungsprobleme vom Variationsrechnungs- und Optimalsteuerungstyp hergeleitet. Diese Bedingungen bilden die wesentliche Grundlage zur Berechnung optimaler Lösungen, genauer gesagt von Kandidaten für optimale Lösungen. Die in der Schule zu deren Verständnis zu erarbeitenden Grundlagen werden in dem längeren Kapitel 3 dargelegt. In Kapitel 4 wird dann die gesamte komplexe Materie auf Schulniveau projiziert und ausführlich dargestellt, mit Hilfe welcher didaktischen Methoden dieser Stoff Schülern nahegebracht werden könnte. Das Kapitel 5 mit dem Titel "Der Natur auf der Spur" zeigt dann anhand zweier klassicher Probleme aus den Grundlagen der Physik exemplarisch Anwendungsmöglichkeiten auf, die für Schüler gymnasialer Oberstufen sicherlich erreichbar sein sollten.

Es ist geplant, diese Zulassungsarbeit als Buch herauszugeben.

Studium: Lehramt Mathematik und Physik für Gymnasien, U Bayreuth
Abschluss:
Erste Anstellung:
Position:
Branche: Schuldienst
E-Mail: diana.krippner"at"web.de
E-Mail: stephan.Bickel"at"web.de
Homepage:


Modellierung, Identifizierung und Optimale Steuerung eines realistischen Motorradmodells
von
Peter Lasch

Peter Lasch Angeregt von zahlreichen Arbeiten über die optimale Steuerung von Automobilen, wird in dieser Arbeit ein mathematisches Ersatzmodell eines Motorrades erarbeitet. Dazu wird zunächst die allgemeine Vorgehensweise zur Erstellung von dynamischen Mehrkörpersystemen beschrieben und ein mathematisches Modell eines Motorrades erstellt.

Die notwendigen Daten, wie z.B. Abmessungen, Gewicht, Trägheitstensoren, sowie Feder- und Dämpferkennlinien wurden von der BMW AG zur Verfügung gestellt. Unbekannte Parameter des Modells werden mittels eines Least-Squares-Ansatzes identifiziert.

Ein Hauptproblem bei der optimalen Steuerung eines Motorrades ist das instabile Verhalten des Fahrzeugs bei niedrigen Geschwindigkeiten: Ein Motorrad fällt um, wenn die Geschwindigkeit zu gering ist. Die Aufnahme von Kreiselkräften der Reifen in das Modell sorgt dagegen für ein "stabileres" Fahrverhalten bei höheren Geschwindigkeiten. Es ist also erforderlich ein realitätsnahes Modell zu erstellen, welches alle relevanten Kräfte berücksichtigt.

Wie sich herausstellt, sind die resultierenden Bewegungsgleichungen des Motorradmodells extrem steif. Daher müssen eine Reihe zusätzlicher numerischer Probleme bewätigt werden.

Das Motorrad wird abschließend unter verschiedenen Zielkriterien optimal gesteuert, wobei als Fahrmanöver ein doppelter Fahrspurwechsel - der sog. "Elchtest" - zu Grunde gelegt wird. Das optimale Steuerproblem wird mit dem Programm NUDOCCCS von Chr. Büskens gelöst. Die erzielten Ergebnisse spiegeln in vielfälltiger Weise Eigenschaften einer realistischen Motorradfahrt wieder.

Die optimalen Fahrmanöver wurden in Ergänzung zu den numerischen Rechnungen mit dem Grafikprogramm POVRAY animiert.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 3/2004
Erste Anstellung: sofort nach Studienabschluss
1. Position: Wissenschaftlicher Mitarbeiter
Branche: Universität (U Bremen, Zentrum für Technomathematik)
2. Position: Systemanalytiker
Branche: Software-Dienstleistung
Firma: Kraftwerks-Simulator-Zentrum, Essen
E-Mail: peter.lasch``at''gmx.de
Sonstiges: Herr Lasch in einer Email vom 7.5.2009: ``Seit ich die Uni Bremen verlassen habe, arbeite ich als Systemanalytiker beim Kraftwerks-Simulator-Zentrum in Essen. Das Zentrum übernimmt die Ausbildung der Sichtmannschaften von 16 der 17 deutschen Kernkraftwerke sowie dem Kraftwerk Borselle in den Niederlanden. Ich bin in der Softwareabteilung tätig und kümmere mich darum, die Simulatoren auf dem Stand der Kraftwerke zu halten.''


Parameteridentifikation in partiell differential-algebraischen Gleichungen: Simulation von Schmelzkarbonat-Brennstoffzellen
von
Timo Raps

Timo Raps Durch die anhaltende Diskussion um den Kohlendioxidausstoß bei der Energie aus Kraftwerken kommen Brennstoffzellen vermehrt in das Blickfeld der Stromerzeuger. Lange Zeit wurde der Bau von Brennstoffzellen aber rein empirisch betrieben. In Zusammenarbeit mit der MTU CFC Solutions GmbH, dem Max-Planck-Institut für Dynamik komplexer Systeme in Magdeburg und dem Lehrstuhl für Systemverfahrenstechnik der Universität Magdeburg gelang die Simulation von Schmelzkarbonatbrennstoffzellen am Beispiel des HotModule der MTU.

Ziel des Projektes ist es, Strategien zu entwickeln, um bei verschiedene kritischen Betriebssituationen einer Bennstoffzellenanlage, wie Anfahren und Herunterfahren der Anlage und Lastwechsel bei sich plötzlich änderndem Bedarf, bei zu hohen Temperaturen, insbesondere zu hohen Temperaturgradienten, und damit bei der Gefahr von Beschädigungen durch Materialüberhitzung und -ermüdung zu vermeiden. Bei geringerer Temperatur ist allerdings die Stromausbeute ungenügend. Endziel des Projektes ist es, dieser Art von umweltfreundlicher Energieproduktion mit zum kommerziellen Durchbruch zu verhelfen.

Die Modelle zur Simulation, welche auf ein System von partiell differential-algebraischen Gleichungen führen, wurden dabei in den beiden Magdeburger Instituten erstellt. Es handelt sich hierbei um eindimensionale Modelle, in denen ein Gasfluss im Gegenstrom angenommen wird. Das Gleichungssystem enthält unter anderem die Wärmeleitung im Elektrolyten und den Elektroden, den Gastransport in den einzelnen Elementen der Brennstoffzelle sowie die elektrischen Potenziale und chemischen Reaktionskinetiken.

Die Hauptaufgabe in dieser Diplomarbeit bestand darin, die Modelle für das Programmpaket EASYFIT von Klaus Schittkowski zu implementieren und Simulationsrechnungen sowie Parameteridentifikationen an verschieden komplexen Modellen durchzuführen. Besonders die Simulation von Lastwechseln und die Optimierung der einzelnen Parameter in diesem speziellen Betriebszustand ist von großem Interesse. Vor allem bei den komplexeren Modellen treten hier bereits bei der Simulation numerische Schwierigkeiten auf, weil es sich bei dem partiell differential-algebraischen Gleichungssystem der Brennstoffzelle um ein System mit groß;er Steifheit handelt. Deshalb war es für diese Modelle nicht möglich Optimierungsrechnungen durchzuführen. Eine weitere Schwierigkeit tritt dadurch auf, dass es sich bei den Transportgleichungen um hyperbolische partielle Differentialgleichungen handelt, welche sehr sensibel auf Änderungen der Eingangswerte reagieren. Aber gerade hier liegt in Zukunft das Interesse der Optimierung, um optimale Eingangswerte der Brenngase für die Brennstoffzelle zu bestimmen.

Studium: Umweltingenieurwissenschaften, U Bayreuth
Abschluss: 5/2004
Erste Anstellung: 6/2004
Position: Wissenschaftlicher Mitarbeiter
Branche: Öffentlicher Dienst
Firma: Universität Bayreuth, Lehrstuhl für Mess- und Regeltechnik
Zweite Anstellung: ?/200?
Position: Objektleiter
Branche: Erneuerbare Energien,
Firma: Schmack Biogas AG
Tätigkeit: Die Schamck Biogas AG plant und baut in erster Linie Biogas-Anlagen. Aber auf Kundenwunsch betreibt sie diese Anlagen auch selbst und betreut sie sowohl hinsichtlich der biologischen Verfahrenstechnik als auch hinsichtlich aller technischen Komponenten, angefangen von Rührwerken bis hin zum eingebauten BHKW. Die Aufgabe von Herrn Raps besteht nun hauptsächlich darin, diese Betreuung sicher zu stellen und anzubieten. Weiterhin ist es auch seine Aufgabe, dafür zu sorgen, dass Probleme an den Anlagen als Verbesserungen in aktuelle Planungen einfließen und somit die Qualität ständig gesteigert werden kann.
E-Mail: Timo.Raps"at"schmack-biogas.com
Sonstiges:Herr Raps in einer Email vom 23.12.2005: "Hinsichlich meiner "fachfremden" Diplomarbeit kann ich eigentlich nur anmerken, dass die Schmack Biogas AG ebenfalls ein Projekt mit der MTU Friedrichshafen laufen hatte, in dem der Einsatz des HotModules als BHKW in Biogas-Anlagen getestet wurde. Insofern war das Thema absolut passend und dass es eher mathematisch als experimentell betrachtet wurde, war sicher auch nicht von Nachteil, da die dadurch gewonnenen Einsichten in die Grundlagen der Optimierung sicher für jeden Ingenieur ganz nützlich sind.


Vergleich unterschiedlicher Repräsentationen für naturanaloge Optimierungsverfahren zur Ablaufplanung im Krankenhaus
von
Christian Viebrock

Die Bedeutung naturanaloger Optimierungsverfahren hat in den letzten Jahren stark zugenommen, da traditionelle Optimierungsverfahren für die Bewältigung komplexer Optimierungsprobleme oft nicht zur Verfügung stehen und für praktische Anwendungen oft zu aufwendig sind. Naturanaloge Optimierungverfahren wie die Genetische Algorithmen, die sich am natürlichen Evolutionsprozess orientieren, stellen im Gegensatz zu klassischen Verfahren keine besonderen Bedingungen an die Problemstellung (Zielfunktion, Struktur der Nebenbedingungen). Gerade bei der Anwendung auf praktische Scheduling-Probleme ist dieser Aspekt von entscheidender Bedeutung. Mit solchen Verfahren können in akzeptabler Zeit dem Optimum nähere Lösungen gefunden werden als mit traditionellen oder zufälligen Suchverfahren, auch wenn sich gesicherte Schranken im Allgemeinen nicht angeben lassen. Für die Lösung eines solchen Optimierungsproblems ist es wichtig, dieses in geeigneter Weise zu repräsentieren bzw. zu kodieren, so dass es von einem Algorithmus erfasst werden kann.

Gegenstand der vorliegenden Arbeit ist der Vergleich unterschiedlicher Repräsentationsformen, die sich für die Optimierung der Ablaufplanung im Krankenhaus mit Genetischen Algorithmen eignen. Um dieses Ziel zu erreichen, wird auf Grundlage von klassischen Scheduling-Problemen ein Modell für eine Ablaufplanung im Krankenhaus entwickelt. Anschließend werden in der Literatur vorhandene Repräsentationsformen für klassische Maschinenbelegungsplanungen vorgestellt. Zwei sehr unterschiedliche Rerpäsentationen (completion time-based und operation-based representation) werden in der vorliegenden Arbeit an die Anforderungen einer Ablaufplanung im Krankenhaus angepasst und implementiert. Anschließend werden sie hinsichtlich Performance (Lösungsqualität und Laufzeit) verglichen und Abweichungen in den Ergebnissen werden erläutert.

Die in der Literatur weit verbreitete These, dass der Wahl der Repräsentationsform bei der Optimierung von Ablaufplanungen mit naturanalogen Verfahren eine entscheidene Bedeutung zukommt, wurde bestätigt. Verschiedene Repräsentationen sind in Abhängigkeit von der Problemstellung unterschiedlich gut für Scheduling-Verfahren geeignet. Die beiden untersuchten Repräsentationsformen liefern sehr unterschiedliche Ergebnisse. Bei der Untersuchung dieser Abweichungen wird festgestellt, dass die implementierten Repräsentationen beide redundant sind, d.h. unterschiedliche Chromosomen bzw. Kodierungen erzeugen gleiche Ablaufpläne. In Abhängigkeit der Problemstellung wirkt sich diese Redundanz jedoch unterschiedlich gut auf die Lösungsqualität eines resultierenden Ablaufplans aus.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 11/2004
Erste Anstellung: sofort nach Studienabschluss
Position:
Branche: Betriebliche Altersvorsorge
Firma: Mercer Human Resource Consulting
E-Mail: draffel"at"draffel.de
Sonstiges: Herr Viebrock hat eine Ausbildung zum Aktuar begonnen; siehe die Seite der Deutschen Aktuarvereinigung e.V. oder die Seite Wie werde ich Aktuar?


2005


Modellierung und Simulation der Alzheimerschen Krankheit mittels eines gekoppelten Systems
aus partiellen und gewöhnlichen Differentialgleichungen

von
Michaela Alka

Strukturbildungseffekte und Selbstorganisation, insbesondere in der Biologie und Medizin, faszinieren Naturwissenschaftler, zumal geordnete Zellstrukturen streng genommen im Widerspruch zum fundamentalen physikalischen Naturgesetz der Thermodynamk stehen - dem Streben eines Systems nach maximaler Unordnung. Die Alzheimersche Demenz gehört zu den strukturbildenden Mechanismen und wird durch Zellaggregation im menschlichen Hirngewebe hervorgerufen. Alzheimersche Demenz führt vom gesunden Chaoszustand der Zellen zu neuronaler Degeneration und zu symptomatischen Erscheinungen, wie Beeinträchtigung von Gedächtnis, Sprache, Orientierung und Urteilsvermögen.

Aus medizinischen Befunden am Hirngewebe verstorbener Alzheimer-Patienten weiß man, dass es einen direkten Zusammenhang zwischen Ablagerungssekret (Plaque) und den Alzheimer-Symptomen gibt. Obwohl die chemischen Plaque-Bausteine identifiziert werden konnten, scheiterten jegliche Versuche, diese mittels Marker in vivo zu diagnostizieren. In vitro, also im Reagenzglas, konnte man aufgrund biochemischer Reaktionen die einzelnen Plaque-Bausteine untereinander identifizieren. Kombiniert man diese Teilreaktionen erhält man einen theoretischen Gesamtprozess für ein erstes Verständnis der Entstehung der Alzheimerschen Krankheit. Leider lässt sich diese Theorie experimentell nur teilweise auf neuronalem Gewebe nachweisen.

Die Mathematik liefert aber zumindest ein Rüstzeug für die mathematische Modellierung und numerische Simulation des zur Alzheimersche Demenz führenden biochemischen Prozesses. Alzheimer-typische Prozesse, wie Diffusion und Chemotaxis, sind als gekoppelte Systeme nichtlinearer partieller Differentialgleichungen modellierbar.

Von der mathematischen Modellierung erhofft man sich, nach Validierung an realen Patientendaten, sichere Langzeitprognosen abgeben zu können, das genauere Zusammenwirken einzelner Teilreaktionen genauer untersuchen und über Parametereinstellungen den die Alzheimersche Krankheit verursachenden Mechanismus hemmen oder blockieren zu können, um dadurch neue Therapieansätze gewinnen zu können. Doch muss man sicherlich noch einen langen Weg gehen, bis dieser Forschungsansatz klinisch umsetzbar wird.

Zum mathematischen Hintergrund des Modells: Die biochemische Beschreibung des eigentlichen Alzheimerschen Reaktionszyklus wird in drei Reaktionsmuster aufgeteilt, in eine Sekretions-Absorptions-Reaktionskette, in eine chemische Transformationsreaktion eines an der Alzheimerschen Demenz beteiligten Monomers von seinem löslichen zu einem festen Zustand durch Anlagerung weiterer Monomere, wodurch die dann entstehende Fibrille ihre Beweglichkeit verliert und sich dauerhaft anlagert. Fibrillenvorkommen markieren die Alzheimer-typischen Ablagerungen im Hirngewebe. Das dritte Reaktionsmuster beruht auf physikalischen Bewegungseffekten. Die auftrenden Diffusionsvorgänge werden durch orts- und zeitabhängige Diffusionskoeffizienten beschrieben. Insgesamt entsteht ein abschnittsweise definiertes gekoppeltes System aus nichtlinearen partiellen und gewöhnlichen Differentialgleichungen.

Letztendlich dient das Modell der Untersuchung der Neuronengesundheit in einem quadratischen Ausschnitt des Hirngewebes.

Der numerische Lösungsansatz basiert auf einem direkten und indirekten Multirate-Ansatz zur Reduktion der Lösungskomplexität, womit die Differentialgleichungen näherungsweise linear entkoppelt werden. Mithilfe der vertikalen Linienmethode auf Basis von Semidiskretisierungen der Ortsableitungen mittels finiter Differenzen wird eine Methode vorgeschlagen, um die schnellen Diffusions- und langsamen Transportvorgänge zu simulieren. Verschiedene Möglichkeiten zur Diskretisierung der Ortsableitungen werden ausführlich hinsichtlich Konsistenz, Stabilität und Konvergenz untersucht.

Erste numerische Testrechnungen beschließen die Arbeit; sie befinden sich auf der beiliegenden CD.

Studium: Mathematik, U Bayreuth
Abschluss: Oktober 2005
Erste Anstellung: vor Studienende
Position:
Firma: Audi
Branche: Automobilbau
E-Mail: michaela.alka"at"gmx.de


Numerische Untersuchungen zur Richards-Gleichung aus der Bodenphysik: Diskretisierung und Parameteroptimierung
von
Michael Blume

Michael Blume In dieser Diplomarbeit sollte untersucht werden, ob die nichtlineare, degeneriert parabolische Richardsgleichung, die u.a. eine entscheidende Rolle bei der Modellierung von Be- und Entwässerungsmodellen im Boden spielt, mithilfe der vertikalen Linienmethode so semidiskretisiert werden kann, dass Standardverfahren zur Parameteridentifikation bei Systemen von (steifen) gewöhnlichen Differentialgleichungen oder differential-algebraischen Gleichungen angewendet werden können. Dieser Zugang würde dann auch die optimale Steuerung - wegen der zu erwartenden Rechenzeiten - zumindest derörtlich eindimensionalen Richards-Gleichung inklusive einer parametrischen Sensitivitätsanalyse ermöglichen.

Nach einer kurzen Einleitung in den Anwendungshintergrund und die Zielsetzung der Arbeit, der Modellierung von Stoff- bzw. Wasserflüssen in ungesättigten und porösen Materialien werden die in der Arbeit benötigt Grundlagen aus der Theorie und Numerik gewöhnlicher und partieller Differentialgleichungen, insbesondere diverse Stabilitätsbegriffe und Diskretisierungsansätze, zusammengestellt. Zu beachten ist, dass man die erste Ortsableitung durch einen Rückwärtsdifferenzenquotienten diskretisieren muss. Nur bei "richtiger" Diskretisierung entstehen keine numerisch erzeugten Massenverluste. Daran schließt sich eine Beschreibung von Parameteridentifikationsprobleme bei gewöhnlichen Differentialgleichungen bzw. differential-algebraischen Gleichungen an, insbesondere wird das direkte Optimierungsverfahren beschrieben, das dem Softwarepaket NUDOCCCS von Büskens zugrundeliegt.

Schließlich wird das Anwenderproblem behandelt. Zuächst wird die grundlegende Richardsgleichung (1931) aus der Bodenphysik hergeleitet. Dies geschieht zum einen auf Basis des Darcyschen Gesetzes (1856). Dieses beschreibt die auf empirischen Messungen des Fließverhaltens von Wasser durch mit gesättigten Sandböden gefüllte Säulen beruhende Proportionalität der Geschwindigkeit, mit der die Flüssigkeit durch die Säule strömt, auch Flussdichte genannt, zum negativen Gradienten der sogenannten Druckhöhe bzw. dem Quotienten aus Differenz der Druckhöhe und Abstand zu einer Referenzhöhe. Die Proportionalitätskonstante heißt hydraulische Leitf$auml;higkeit. Eine detailliertere Darstellung liefert die Darcy-Buckingham-Gleichung. Sie beschreibt die Proportionalität der Flussdichte zum negativen Gradienten des hydraulischen Potentials, jetzt allerdings mit einem vom volumetrischen Wassergehalt abhängigen Proportionalitätsfaktor. Nimmt man nun noch das Kontinuitäts- bzw. Massenerhaltungsgesetz hinzu, das die zeitliche Ableitung des volumetrischen Wassergehaltes gleich der negativen örtlichen Ableitung der Flussdichte setzt, kommt man zur Richardsgleichung, einer parabolischen partiellen Differentialgleichung für eine unbekannte Funktion einer Zeit- und - hier - einer Ortsvariablen; sie heißt Matrixpotential. In dieser Arbeit sollte nur dieörtlich eindimensionale Richardsgleichung untersucht werden. Diese Gleichung ist hochgradig nichtlinear und degeneriert bei konstantem volumetrischen Wassergehalt, d.h. der Term in der parabolischen Gleichung mit der Zeitableitung verschwindet. Sie degeneriert somit zu einer (imörtlich eindimensionalen Fall) gewöhnlichen Differentialgleichung zweiter Ordnung. Anfangs- und Randbedingungen werden nun für ein Saug- bzw. Entwässerungsexperiment modelliert. Ausgehend von einer bis zum oberen Rand gesättigten Bodensäule, die durch Ummantelung und Deckel festverschlossen ist, wird an deren unterem Ende mittels eines Schiebers ein Druckabfall erzeugt. Zwei Szenarien werden untersucht.

Für explizite Rechnungen müssen nun noch empirische Gesetzmäßigkeiten für den von dem Matrixpotential abhängigen volumetrischen Wassergehalt (das van Genuchten-Mualem-Modell) sowie für die ebenfalls vom Matrixpotential abhängige hydraulische Leitf$auml;higkeit angegeben werden. Die beiden zu untersuchenden Szenarien deuten schon auf die zu erwartende Problematik hin. Die Randwerte weisen größere Bereiche aus, in denen die Gleichung "nahezu" degeneriert, so dass numerische Schwierigkeiten zu erwarten sind.

Herr Blume weist dann explizit die extreme, mit der Feinheit des Ortsdiskretisierungsgitters zunehmende Steifheit nach. Erste numerische Rechnungen mit einem auf einem impliziten Runge-Kutta-Verfahren basierenden MATLAB-Integrator und dem in NUDOCCCS verwendeten Radau-Verfahren ergeben bei beiden Datensätzen übereinstimmende numerische Ergebnisse. Da der bekannte Stabilitätssätz für lineare gewöhnliche Differentialgleichungen mit konstanten Koeffizienten mithilfe der Eigenwerte der konstanten Systemmatrix nicht für nicht-autonome lineare Differentialgleichungen gilt, kann die Stabilität der semidiskretisierten Richardsgleichung nur heuristisch überprüft werden, indem die Auswirkungen leichter Störungen der Parameterwerte auf die Lösung numerisch untersucht werden. Um auszuschließen, dass numerisch bedingte Massenverluste auftreten, wird die Massenbilanz numerisch mithilfe der Erhaltungsform der Gleichungen untersucht. Es zeigt sich, dass keine jenseits der Integrationsgenauigkeit liegenden Massenbilanzfehler auftreten. Zu Demonstrationszwecken werden auch die Massenbilanzfehler für nichtgeeignete Diskretisierungen berechnet. In diesen Fällen sind die numerischen Lösungen absolut unbrauchbar. Umfangreiche numerische Untersuchungen zeigen schließlich, dass sich die Parameter in dem van Genuchten-Mualem-Modell mithilfe der von Herrn Blume entwickelten Software um das Softwarepaket NUDOCCCS herum, basierend auf einem Einfachschießansatz, zufriedenstellend identifizieren lassen. Die Identifikationsgüte nimmt naturgemäß mit zunehmender Parameterzahl ab.

Diese Diplomarbeit entstand nach diversen Gesprächen über mögliche Kooperationen mit der Professur für Bodenphysik (Prof.Dr. Bernd Huwe). Es ist beabsichtigt, dieses Themengebiet in weiteren Diplomarbeiten zu vertiefen.

Studium: Mathematik, U Bayreuth
Abschluss: September, 2005
Erste Anstellung: sofort nach Studienabschluss
Position: wissenschaftlicher Mitarbeiter
Firma: Friedrich-Alexander Universität Erlangen-Nürnberg, Lehrstuhl für Angewandte Mathematik 1
Branche: Öffentlicher Dienst
E-Mail: michael_blume"at"gmx.net
Homepage: http://www1.am.uni-erlangen.de/ blume/index.html
Promotion: Michael Blume hat im Jahre 2011 bei Prof. Knabner an der Universität Erlangen-Nürnberg mit einer Dissertation zum Thema Identifizierung nichtlinearer Koeffizientenfunktionen des reaktiven Transports durch poröse Medien unter Verwendung rekursiver und formfreier Ansätze promoviert.


Robustheit optimaler Lösungen bei Optimalsteuerungsaufgaben mit partiellen Differentialgleichungen
von
Kerstin Brandes

Die Diplomarbeit von Frau Kerstin Brandes beschäftigt sich mit der Frage der Robustheit optimaler Lösungen von Optimierungsaufgaben in unendlich-dimensionalen Räumen und insbesondere von Optimalsteuerungsaufgaben mit partiellen Differentialgleichungen. Dazu wird mit der Aktive-Mengen-Strategie zunächst eine Methode rekapituliert, wie solche Lösungen in der Gegenwart von Ungleichungsbeschränkungen berechnet werden können.

Im weiteren Verlauf der Arbeit wird ein konkretes Optimalsteuerungsproblem ohne Ungleichungsbeschränkungen für die Poissongleichung mit nichtlinearen Stefan-Boltzmann-Strahlungsrandbedingungen behandelt. Die für die numerische Lösung notwendige Diskretisierung mit finiten Elementen sowie die aufwendige Berechnung der exakten Ableitungen werden ausfürlich dargestellt.

Die Grundlagen der parametrischen Sensitivitätsanalyse für optimale Lösungen werden dargestellt, und die Diskretisierung der Sensitivitätsgleichung wird besprochen.

Diese umfangreichen Vorbereitungen sind notwendig, um zu der eigentlichen Frage der Robustheit optimaler Lösungen zu kommen. Dazu wird die durch die Sensitivitätsgleichung definierte lineare Abbildung der Störungsrichtung auf die Ableitung etwa der optimalen Kontrolle nach dem Störparameter einer Singulärwertzerlegung zugeführt.

Zur praktischen Berechnung dieser Singulärwertzerlegung haben Frau Brandes und ihr Betreuer, Dr. Griesse, einen herausragenden Vorschlag gemacht. Aufgrund der Finite-Element-Diskretisierung enthält die zu untersuchende Matrix die Cholesky-Faktoren der Massematrizen, die i.A. nicht zur Verfügung stehen. Deshalb wird zur äquivalenten Eigenwertzerlegung der zugehörigen Jordan-Wielandt-Matrix übergegangen und zur Vermeidung der Choleskyfaktoren eine geeignete Änlichkeitstransformation durchgeführt. Nach dieser Transformation kann eine (partielle) Eigenwertzerlegung durchgeführt werden, die iterativ erfolgen muss, da die betreffende Matrix in der Praxis aufgrund des Aufwandes nicht aufgestellt werden kann.

Die so erhaltene (partielle) Singulärwertzerlegung erlaubt eine Beurteilung der Stabilität der optimalen Lösung (Größe der führenden Singulärwerte) und gibt Aufschluss darüber, in welche Störungsrichtungen die größen Störungen auftreten (Rechtssingulärvektoren).

Anhand des oben erwähnten Beispiels zeigt Frau Brandes die praktische Anwendung ihrer Ergebnisse. Dazu hat sie den gesamten Algorithmus in Matlab implementiert, damit verschiedene Konfigurationen durchgerechnet und die Lösungen ansprechend dargestellt und diskutiert.

Studium: Mathematik mit Nebenfach Ingenieurwissenschaften, U Bayreuth
Abschluss: Oktober, 2005
Erste Anstellung: Januar, 2006
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität, Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
Zweite Anstellung: Januar, 2007
Position: Doktorandin in der Konzernforschung der Volkswagen AG
Firma: Volkswagen AG
Branche: Automobilbau
E-Mail: kerstin-brandes"at"web.de
Alte Homepage an der UBT: http://www.ingmath.uni-bayreuth.de/Brandes/
Sonstiges: Frau Brandes hatte für ein Jahr (1.1.2006 - 31.12.2006) ein Stipendium im Internationalen Doktorandenkolleg "Identifikation, Optimierung und Steuerung für technische Anwendungen" im Rahmen des Elitenetzwerks Bayern. Sie wechselte dann in ein Doktorandenkolleg des Volkswagen-Konzerns in Wolfsburg, um sich dort einem ingenieurwissenschaftlichen Dissertationsthema zuzuwenden, der Modellierung, Simulation und Optimierung von Abgasnachbehandlungssystemen. Auch hier stehen zunächst mathematische Problemstellungen im Vordergrund: Parameteroptimierung, Inverse Probleme, Adjungiertenverfahren und Automatisches Differenzieren, aber stets mit starkem Praxisbezug auf dem Gebiet der Abgasnachbehandlung.
Über Frau Brandes wurde auch in der Zeitschrift abi extra Typisch Frau, typisch Mann, Ausgabe 2011 berichtet.


Numerische Simulation und optimale Steuerung der Wellengleichung
von
Günter Greif

Die Optimierung komplexer dynamischer Systeme, die durch zeitabhängige partielle Differentialgleichungen beschrieben werden können, gehört mit zu den spannensten, herausfordernsten und hochaktuellen Gebieten der Angewandten Mathematik. Das Anwendungspotential dieses Gebietes scheint nahezu unbeschränkt. Dabei zählen die hyperbolischen partiellen Differentialgleichungen wegen ihrer Eigenschaft, Unstetigkeiten in den Anfangs- oder Randbedingungen in das Gebietsinnere zu tragen oder solche "Shocks" selbst bei glatten Anfangs-Randbedingungen aus sich heraus zu entwickeln, mit zu den "unangenehmsten" Nebenbedingungen in solchen Optimierungsproblemen. Die mathematische Theorie hierfür steht noch ziemlich am Anfang. Aber auch die Numerik ist voller Tücken. Ein typischer Repräsentant für eine eindimensionale hyperbolische partielle Differentialgleichung 2. Ordnung ist die wohluntersuchte klassische Wellengleichung, deren analytische Lösungsformel auf d'Alembert und mithin das Jahr 1750 zurückgeht. Ein weiterer prominenter Prototyp eines hyperbolischen Systems sind die ebenfalls gut untersuchten Eulerschen Gleichungen der Fluiddynamik zur Beschreibung nichtviskoser Fluide, das sind Flüssigkeiten oder Gase. Ziel der Diplomarbeit war zu untersuchen, inwieweit der Einsatz geeigneter finiter Differenzenmethoden zur Semidiskretisierung der partiellen Gleichungen im Ort mit anschließender Zeitintegration der resultierenden großen gewöhnlichen Differentialgleichungssysteme nach der vertikalen Linienmethode für eine Lösung von Optimierungsproblemen mit hyperbolischen Gleichungen als Restrinktionen sinnvoll ist. Ausgangspunkt waren dabei Arbeiten zu analytisch lösbaren Optimalsteuerungsproblemen bei der homogenen eindimensionalen Wellengleichung 2. Ordnung von Martin Gugat. Damit war also eine Beurteilung der Approximationsgüte des zu entwickelnden numerischen Verfahrens nach der Methode "first discretize then optimize" möglich. Man beachte aber, dass bekannt ist, dass diese Methode auch zu fehlerhaften Ergebnissen führen kann! Ihr Vorteil liegt jedoch in der einfachen Implementierbarkeit und in den geringen Anforderungen an theoretisches Vorwissen, das ja, wie bereits bemerkt, noch nicht hinreichend entwickelt ist. Trotz dieser Unwägbarkeiten wird sich die Methode "first discretize then optimize" wie bei der optimalen Steuerung gewöhnlicher Differentialgleichungen gegenüber der Methode "first optimize then discretize" letztendlich durchsetzen. Gegen die höhere Sicherheit und die tiefere mathematische Einsicht wird sich die Notwendigkeit durchsetzen, einfach und schnell zu handhabbarende Software zu entwickeln. Zudem können offene theoretische Fragen durch die Vorarbeit der Numerik evtl. leichter beantwortet, und notwendige und in der Zukunft vielleicht auch hinreichende Bedingungen für ein lokales Optimum durch geeignete Approximationen der adjungierten Variablen zumindest näherungsweise verifiziert werden. In der Arbeit werden u.a. neben grundlegenden Fragen zur Konsistenz, Stabilität und Konvergenz einfache Upwind-Verfahren sowie die Verfahren von Lax-Friedrich und Lax-Wendroff für hyperbolische Systeme erster Ordnung diskutiert, auf die die klassische Wellengleichung bekanntlich transformiert werden kann, sowie ein Mehrschrittverfahren, welches direkt auf die Wellengleichung zweiter Ordnung anwendbar ist. Insbesondere wird untersucht, wie sich Verhältnisse zwischen Orts- und Zeitschrittweite auf die Auflösung von Unstetigkeitsstellen auswirken, ähnlich den CFL-Bedingungen bei parabolischen Gleichungen. Die verschiedenen Ordnungen der Verfahren, deren Gültigkeit nur bei glatten Anfangs-Randdaten gilt, werden auch numerisch verifiziert. Ferner wurde ein numerisches verfahren auf MATLAB-Basis zur Berechnung der optimalen Steuerung des diskretisierten Anfangsrandwertproblems bei der Wellengleichung 2. Ordnung über die Randbedingungen entwickelt. Numerische Ergebnisse für die Steuerung aus einer beliebigen Anfangsauslenkung in die Ruhelage sowie aus der Ruhelage in eine beliebige Endbedingung (in der L2-Norm) runden Herrn Greifs Untersuchungen ab und zeigen durch Vergleich mit den analytischen Lösungen nach Gugat, dass der hier gewählte Zugang zu guten Ergebnissen führt, wenn das Verhältnis zwischen Orts- und Zeitschrittweite bei eins liegt. Besonders hervorzuheben sind Herrn Greifs Untersuchungen zu den numerisch erreichten Konvergenzordnungen in der L2-Norm: Es stellt sich heraus, dass diese bei allen Verfahren und allen Beispielen mit unstetigen Steuerungen bei 0.5 liegt. Man beachte dabei, dass aufgrund von Unstetigkeiten in den Randsteuerungen ja keineswegs die Voraussetzung glatter Randbedingungen für die Konvergenzanalyse dieser Verfahren der theoretischen Konvergenzordnung 1 erfällt ist. Bei glatten Randsteuerungen ergibt sich numerisch für alle untersuchten Verfahren eine Konvergenzordnung von 1.5; sie liegt damit also höher als die untere Schranke für die theoretisch zu erwartende Konvergenzordnung. Dieses numerische Ergebnis sollte Ansporn sein, für weitere theoretische Untersuchungen bzgl. der Ordnung von Verfahren zur Berechnung optimaler Steuerungen bei hyperbolischen Systemen.

Studium:Wirtschaftsmathematik, 11/1999 - 7/2005
Abschluss: Juli 2005
Erste Anstellung: sofort nach Studienabschluss
1. Position: Wissenschaftlicher Mitarbeiter
Firma: TU Darmstadt, AG 10 - Nichtlineare Optimierung und Optimale Steuerung
Branche: Öffentlicher Dienst
Tätigkeit: Mitarbeiter im Sonderforschungsbereichs 666 "Integrale Blechbauweisen höherer Verzweigungsordnung - Entwicklung, Fertigung, Bewertung".
Bearbeitung des Teilprojekts A2 "Mathematische Modelle zur automatisierten Produktentwicklung von optimalen Blechbauteilen mit verzweigten Strukturen". Im Vordergrund steht die Lösung von Formoptimierungsproblemen. Dabei stehen Fragen wie 3D-Elastizität, Wärmeleitung,
etc. im Mittelpunkt der Untersuchungen. Mehr Informationen zum SFB 666 hier.
2. Position:
Firma: Siemens AG, Erlangen
E-Mail: guentergreif"at"web.de
Sonstiges: Herr Greif in einer Email vom 4.12.2008: Ich bin in der Ferigungsplanung tätig. Meine Arbeit sehr abwechslungsreich und interessant. Ich habe neben dem Tagesgesch�ft, Arbeitspläne zu erstellen und zu pflegen, aber auch viele übergreifende Themen, wie Materialversorgung mittels Milkrun, Wertstromoptimierung der Fabrik, SAP Koordination der gesamten Abteilung, etc. Ich habe nun auch das Tätigkeitsfeld gefunden, welches ich mit aller Macht verfolge, nämlich "Lean Manufacturing". Stichworte wie Toyota Produktionssystem, Kanban, Jidoka, Poka Yoke, 5S, TPM, Nivellierung, Glättung, Fraktale Fabrik, etc. haben mich in ihren Bann gezogen. Eine Ausbildung zum Lean Manufacturing Experten steht zwar noch nicht an, aber da ich dies als konkretes Ziel habe , bin ich guter Dinge dies noch zu erreichen.


Optimierte Flugmanöver eines Hubschraubers am Beispiel einer BO105
von
Melanie Leeske

Melanie Leeske Die Modellierung realer Prozesse mit Systemen von Differentialgleichungen gewinnt immer größere Bedeutung. Für die mathematische Simulation und Optimierung ist es erforderlich, eine Anwendung aus der Realität durch ein möglichst gutes Modell abzubilden. Je detailierter die Modellierung durchgeführt und je genauer die Wechselwirkungen auf die realistische Anwendung beschrieben werden können, desto genauer, aber desto komplexer wird das resultierende mathematische Modell. Häfig ist man heute zwar in der Lage hochgenaue und realitätsnahe Modelle zu formulieren, die resultierende Komplexität der entstehenden Modelle kann dann jedoch zu einem Problem im Hinblick auf die Komplexität für eine numerische Lösungsberechnung führen. Dies ist insbesondere kritisch vor dem Hintergrund einer auf der Simulation aufgesetzten Optimierung zu sehen. Insbesondere fehlt es oftmals an den entsprechenden Methoden, um etwa nichtlineare Modelle mittels einer Regelung zu steuern. Trotz des Verlustes an Genauigkeit geht man daher oft dazu über, die entstandenen Modelle zu vereinfachen, um mittels einer Parameteridentifikation dennoch ein möglichst gutes Abbild der Wirklichkeit zu erlangen und mathematische Verfahren erfolgreich zur Anwendung zu bringen.

Die Diplomarbeitsaufgabe von Frau Leeske war die Herleitung eines realitätsnahen mathematischen Modells des Hubschraubers BO105. Aufgrund der beabsichtigten Anwendung von Regelalgorithmen zur Stabilisierung von Flugmanövern der BO105 durch das deutsche Institut für Luft- und Raumfahrt (DLR) in Braunschweig, sollte Frau Leeske mittels Linearisierungstechniken aus den nichtlinearen Bewegungsgleichungen ein lineares Modell extrahieren, das auf die bei der DLR einzusetzenden Regler anzupassen war. Die Berechnung und Analyse ausgewählter optimaler Trajektorien für verschiedene Ausgangssituationen zur Vorbereitung spezieller, von der DLR nachzuregelnder Flugmanöver, sollte schließlich die Arbeit von Frau Leeske abrunden.

Die Arbeit von Frau Leeske unterteilt sich im Wesentlichen in vier Bereiche: Im ersten Bereich der Modellierung des Hubschraubers werden in kompakter Form die erforderlichen physikalischen Grundlagen hergeleitet und sowohl ein nichtlineares, als auch ein lineares Modell hergeleitet. Insgesamt besteht das nichtlineare Modell aus 14 hochkomplexen Bewegungsgleichungen für die jeweils drei Komponenten des Orts- und Geschwindigkeitsvektors sowie für die Eulerwinkel (Roll-, Nick-, Gierwinkel) und deren zeitliche &Auuml;nderungen. Um den Hauptrotor besser in das Modell einzubringen, werden für Roll- und Nickwinkel auch noch deren Beschleunigungen berücksichtigt. Neun dieser Bewegungsgleichungen (ohne jene für die Ortskomponenten, die entkoppelt sind, und die Roll- und Nickwinkelbeschleunigungen) werden nun um einen Referenzpunkt linearisiert. Die entstehenden Systemmatrizen A und B des linearisierten Systems der Form (d/dt) z = A z + B u (z Zustandsvektor, u Steuervektor) sind aus Parameteridentifikationen, die an dem DLR durchgeführt wurden, bekannt. Nach einer detailierten Darstellung der Theorie und numerischen Lösung von Optimalsteuerungs- und Optimierungsproblemen im zweiten Teilbereich, erfolgt eine Auswertung der numerischen Ergebnisse im dritten Abschnitt der Arbeit. Frau Leeske präsentiert numerische Ergebnisse für einen optimalen Geradeausflug, einen optimalen Kurvenflug auf einer Kreisbahn und schließlich auch auf einer optimalen Spiralbahn (Landeanflug). Alle Ergebnisse sind anschaulich visualisiert, so dass man den Flug des Hubschraubers nachverfolgen kann.

Die Betreuung der Diplomarbeit erfolgte am Zentrum Technomathematik der Universität Bremen durch Prof. Büskens, der auch für die Aufgabenstellung verantwortlich zeichnete.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 03/2005
Erste Anstellung: sofort nach Studienabschluss
Position: Projektmitarbeiterin m Bereich Unternehmensberatung
Firma: Creditreform Rating AG, Neuss, Bereich Consulting
Branche: Ratingagentur
Derzeitige Position (seit 2009): Teamleiterin des Bereichs Quantitative Methoden
Firma: GBB Rating GmbH, Köln
Branche: Ratingagentur
E-Mail: Melanie.Leeske"at"gmx.de
Sonstiges: Melanie Leeske schrieb in einer Email am 26.10.2006: Ich arbeite ausschließlich an Projekten im Bereich Unternehmensberatung. Es ist sehr interessant. Wir beraten überwiegend Großunternehmen. Die Vorlesung Variationsrechnung bei Ihnen hat mir bei einem Projekt, Backtesting eines Ratingmodells, schon etwas geholfen. Ansonsten stoße ich eher auf nichtlineare Optimierungsprobleme.

Und in ihrer Email vom 24.09.2013 schrieb Frau Leeske: Wir sind u.a. zuständig für die Validierung und das Backtesting der Ratingfunktionen. Des Weiteren arbeiten wir an Projekten zum Themenfeld Risikomanagement. Ich habe zwei Kinder. Familie und Beruf lassen sich, zumindest mit meinem Arbeitgeber, sehr gut vereinbaren.


Modellierung und Simulation von Be- und Entwässerungsvorgängen im Boden mit Hilfe der Richardsgleichung
von
Julia Lieb

Gegenstand der Diplomarbeit war die Modellierung und Simulation von und Parameteridentifikation bei Be- und Entwässerungsvorgängen in senkrechten Bodensäulen, einem typischen Laborexperiment in der Bodenphysik. Drei Experimente wurden in der Diplomarbeit von Frau Lieb mathermatisch nachgebildet und untersucht:

Zur mathematischen Beschreibung solcher Transportprozesse in porösen Medien hat sich die Richardsgleichung bewährt. Sie setzt sich aus zwei physikalischen Gesetzen zusammen, dem Darcy-Buckinghamschen Fließgesetzt für ein inkompressibles, isothermes, isotropes Medium und einem Kontinuitätsgesetz. Ersteres besagt, dass die Darcy-Geschwindigkeit, auch als Volumenflussdichte bezeichnet, proportional dem Gradienten der Differenz zwischen Matrixpotential bzw. Druck und einer Referenzhöhe ist. Die Kontinuitätsgleichung beschreibt eine Massenbilanz. Die Volumenflussdichte ihrerseits beschreibt das Wasservolumen, das pro Zeiteinheit und Querschnittsfläche das poröse Medium passiert. Ihre Einheit ist also die einer Geschwindigkeit. Die Wasserbewegung in einem porösen Medium wird also repräsentiert durch die Energiegradienten, die dort wirken. Die Porportionalitätskonstante, hydraulische Leitf$auml;higkeit genannt, hängt dabei vom volumetrischen Wassergehalt ab, also dem Volumenanteil des Wassers am Gesamtvolumen. Dieser ist seinerseits wiederum eine Funktion des Matrixpotentials.

Daraus resultiert die Richardsgleichung (1931). Diese partielle Differentialgleichung ist je nach Parametrisierung des volumetrischen Wassergehaltes parabolisch oder parabolisch degeneriert, d.h. sie ist für gewisse Werte des Matrixpotentials elliptisch.

Neben dieser Eigenschaft der partiellen Differentialgleichung verursacht die Wahl geeigneter Parametrisierungen des volumetrischen Wassergehalts und der hydraulischen Leitf$auml;higkeit weitere Schwierigkeiten. Es gibt nicht nur verschiedene Modelle in der Literatur, sondern es zeigt sich, dass für Be- und Entwässerungsvorgänge wegen auftretender Hystereseeffekte verschiedene Parametrisierungen gewählt werden müssen.

Frau Lieb hat dazu in ihrer Diplomarbeit neben einer Darstellung dieser sogenannten hydraulischen Funktionen mittels Exponentialfunktionen, die eine analytische Lösung der Richartsgleichung erlauben - und damit ideale Modelle für die Bewertung numerischer Tests darstellen -, aber praktisch keinerlei Bedeutung haben, das Modell von van Genuchten und Mualem und für Hystereseeffekte das sogenannte down-scaling-Modell untersucht.

Ein Verfahren, das sich für dieseörtlich eindimensionale partielle Differentialgleichung anbietet, ist die auf Semidiskretisierung im Ort beruhende (vertikale) Linienmethode. Dabei muss man den Transportterm, insbesondere wenn der Diffusionsterm klein ist, z.B. mittels upwind-Schemata diskretisieren. Es zeigt sich weiter, dass die sogenannte Druckform der Richardsgleichung numerisch ungünstig ist, da sie zu Massenbilanzfehlern führt. Die resultierenden (steifen) gewöhnlichen Differentialgleichungen oder differential-algebraischen Gleichungen werden mithilfe des Verfahrens NUDOCCCS von C. Büskens gelöst, das intern den semiimpliziten RADAU5-Integrator benutzt. Durch Verwendung der Software NUDOCCCS hat man die Option, Parameteroptimierungsprobleme oder (später einmal) Optimalsteuerungsaufgaben bei der Richardsgleichung anzugehen. Anhand zahlreiche numerischer Simulationen hat Frau Lieb die numerischen Probleme, die bei der Integration der resultieren gewöhnlichen oder Algebro-Differentialgleichungen auftreten können, theoretisch durch Indexuntersuchungen und numerisch durch Vergleich verschiedener Diskretisierungen und Beurteilung der Diffusions- und Transportkoeffizienten gründlich untersucht.

Letztendlich hat Frau Lieb auch noch Parameteridentifikationen für das van Genuchten-Mualem und das down-scaling-Modell durchgeführt.

Diese Diplomarbeit entstand nach diversen Gesprächen über mögliche Kooperationen mit der Professur für Bodenphysik (Prof.Dr. Bernd Huwe). Es ist beabsichtigt, dieses Themengebiet in weiteren Diplomarbeiten zu vertiefen.

Studium: Mathematik mit Nebenfach Physik, U Bayreuth
Abschluss: 12/2005
Erste Anstellung: 2/2006
Position: Gymnasiallehrerin
Firma: Gymnasium (Maria-Ward-Gymnasium, Bamberg)
Branche: Öffentlicher Dienst
E-Mail: julia.lieb"at"web.de


Vergleichende Betrachtung von Allokationsverfahren in Grid-Rechnernetzen
von
Henner Raetsch

Bei dieser interdisziplinären Diplomarbeit in Kooperation mit dem Lehrstuhl für BWL VII (Prof. Eymann) bestand die Aufgabe darin, die Literatur nach geeigneten existierenden Verfahren (Scheduling-Algorithmen) zu sichten, mit denen die Zuweisung (Allokation) von Ressourcen (Prozessoren, Speicherplatz, Datenbanken, Software, etc.) für Aufträge weltweit verteilter Nutzer eines riesigen Rechnernetzes (Grid), bestehend aus geographisch getrennten, heterogenen Rechnern, effizient (optimal) geplant werden kann. Die Idee ist - ähnlich dem Stromnetz - Rechnerleistung aus der "Steckdose" zu beziehen, da weltweit freie Rechnerleistung ungenutzt "herumsteht" und daher kostengünstiger zu beziehen sein müsste. Die Auswahl der Planungsverfahren (Scheduler) sollte mit Blick auf die Anwendbarkeit für das so genannte "grid computing" bewertet werden.

In der Diplomarbeit werden zunächst die grundlegenden Begriffe und Anwendungsszenarien des Grid Computings sowie die sich daraus ergebenden Probleme für Scheduler beschrieben. Dieser soll den Koordinationsaufwand für eine optimale Verteilung und den effizienten Einsatz der Rechner im Netz übernehmen. Die Schwierigkeiten für einen Schedulers sind offensichtlich durch die Dynamik der Ressourcenverfügbarkeit bedingt und unterliegen stochastischen Einflüssen. Die verschiedenen Aufgabenstellungen und Bewertungskriterien machen darüber hinaus die effiziente Allokation von Aufträgen für ein komplexes, heterogenes und dynamisch variierendes Rechnernetz zu einer hochkomplexen Aufgabe. Hierbei zeichnet sich ab, dass ein zentraler Grid Scheduler unter Verwendung von Middleware-Diensten lokale Scheduler zur Zuweisung der Aufträge beauftragt, die jeweils nur einen Teil des Netzes beschicken. Der Grid Scheduler verfolgt dabei jobbezogene Ziele, der lokale Scheduler systembezogene Ziele. Unter Middleware versteht man dabei eine anwendungsunabhängige Technologie, die Dienstleistungen zur Vermittlung und Kommunikation zwischen Anwendungen anbietet, um die Komplexität der zugrundliegenden Applikationen und Infrastruktur zu verbergen und den Transport komplexer Daten zu ermöglichen.

Dann werden zwei Vorgehensweisen für die Planung durch einen Grid Scheduler beschrieben. Zum einen wird mit CONDOR ein Vertreter eines Ressource-Management-Systems, ähnlich einem Broker, vorgestellt, welches die Aufträge gemäß ihres Auftragseingangs reiht, zum anderen mit NIMROD-G ein System, das nachökonomischen Regeln plant. Bei Condor wird keinerlei Optimierung durchgeführt, sondern nur nach zueinander passenden Aufträgen und Ressourcen gesucht. Bei Nimrod-G entscheidet der Nutzer, ob und wenn ja, welche Art der Optimierung aus einer vorgegebenen Klasse von Kriterien durchgeführt werden soll. In der Bewertung zeigt sich, dass beide Systeme ihre Vor- und Nachteile haben. Die Vielzahl an Optimierungskriterien, eigentlich handelt es sich hierbei sogar um ein mehrkriterielles Mehrpersonenspiel, sowie an Restriktionen zeigt sofort, dass es den optimalen Algorithmus nicht geben kann. Zudem sind die Optimierungsprobleme i.Allg. NP-schwer, stochastisch und ihre Lösung muss in der Regel auch noch in Echtzeit erfolgen. Herr Raetsch hat sich daher auf zwei Verfahren konzentriert, die zumindest einige der Anforderungen erfüllen können. Beim so genannten Stochastic Online Scheduling von Megow u.a. (2004) muss das Scheduling-Problem als klassiches kombinatorisches Optimierungsproblem modelliert werden, bei dem eine gewichtete Summe der Fertigstellungszeiten minimiert wird. Herr Raetsch schlägt für diese Methode eine Modifikation vor. Aussagen über die Güte der berechneten Lösungen können allerdings nicht gemacht werden; dazu ist die Aufgabe zu komplex. Die zweite von Herrn Raetsch diskutierte Methode ist ein Algorithmus aus der Graphentheorie, der ein maximales Matching mit minimalen Gewichten in einem bipartiten Graphen bestimmt. Auf diesem Graphen wird dann ein maximaler Fluss bestimmt. Zusammenfassend erhält Herr Raetsch, dass man diverse Abstriche von den Anforderungen für das Scheduling im Grid machen muss, um überhaupt einen Algorithmus anwenden zu können. An Gütegarantien ist derzeit nicht zu denken. Der Weg bis hin zu einem Einsatz von optimierten Schedulern ist noch sehr weit!

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss:
Erste Anstellung: sofort nach Studienabschluss
Position:
Firma: Branche:
E-Mail: henner.raetsch"at"freenet.de


Modellierung und Simulation von Polierprozessen bei der Herstellung von Brillengläsern
von
Christian Reinl

Christian Reinl Dass Mathematik häfig als verborgene Schlüsseltechnologie bezeichnet wird, liegt wohl daran, dass sich Laien nicht vorstellen können, dass man einen so einfach scheinenden Prozess wie das finale Polieren der Rückseite von Gleitsichtbrillengläsern besser verstehen und optimieren kann, wenn man mathematische Methoden einsetzt.

Herr Reinl hat bei der Suche nach einem industriellen Praktikum im Rahmen seine Studiengangs Technomathematik Kontakt zur Firma Rodenstock in Regen aufgenommen, einem der führenden Herstellern von Brillengläsern. Brillengläser sind heutzutage wegen ihrer vielfachen Eigenschaften hoch komplexe Produkte. So muss zum Beispiel die Oberfläche eines Gleitsichtbrillenglases mit seinen verschiedenen Fokussierungseigenschaften, individuell auf den zukünftigen Träger zugeschnitten, durch komplizierte Freiformflächen äußerst genau beschrieben werden.

In der Diplomarbeit von Herrn Reinl geht es aber lediglich um die vergleichsweise einfache Rückseite von Gleitsichtbrillengläsern. Erst durch einen gleichmäßigen, durch Polieren erzeugten Abtrag wird das Glas durchsichtig. Für diesen letzten Schritt in der Herstellung eines Brillenglases wird dieses auf einem Träger befestigt, der in Rotation versetzt werden kann. Mithilfe eines ebenfalls rotierenden Polierpads soll nun eine dünne Schicht abgetragen werden. Das auf einer Pinole befestigte Polierpad kann dazu beliebig über die zu polierende Fläche der Rückseite des Brillenglases geführt werden.

Die mathematische Aufgabe bestand nun zunächst darin, diese Bewegung zu modellieren; sie setzt sich aus zwei Rotationsbewegungen und der Bahnbewegung der Pinole zusammen. Geht man davon aus, dass der Abtrag proportional zum Betrag des Gesamtgeschwindigkeitsvektors aus der Summe der Einzelgeschwindigkeitsvektoren ist, hat man den ersten Schritt zur Modellierung des Polierprozesse bereits getan.

Das nächste, weit schwierigere Problem besteht in der Modellierung der Druckverteilung, die das Polierpad auf die Glasfläche ausübt, denn der Abtrag ist auch proportional zur Druckverteilung. Diese hängt des weiteren von der Oberflächengeometrie und der Elastizität des Polierkopfes ab. Insbesondere problematisch ist die Modellierung der Druckverteilung am Glasrand, wenn das Polierpad über den Glasrand hinausragt. Physikalisch muss das kippende Polierwerkzeug in stabiler Lage einem Momentengleichgewicht gehorchen. Schließlich darf der in diesen Bedingungen auftretende Elastizitätsmodul nicht mehr als konstant oder linear abhängig von der Profilfunktion des sogenannten Flächenverschnitts angenommen werden. Hierfür war ein geeignetes nichtlineares Modell zu entwickeln.

Das Gesamtmodell wurde dann zum Teil mit analytischen, im wesentlichen aber numerischen Methoden gelöst. Der Abtrag wurde auf diskretisierten Einzelzellen eines regulären Gitters akkumuliert, das über die rückwärtige Glasoberfläche zu legen ist. Da Gleitsichtbrillen aus verständlichen optischen Gründen in ihrer Mitte eine möglichst geringe Dicke aufweisen sollen, ohne allerdings am Rand zu dünn für die Einfassung in ein Brillengestell zu sein, kann die Außenkontur nicht mehr regelmäßig sein. Damit macht die ansonsten vereinfachende Anwendung von Polarkoordinaten keinen Sinn mehr.

Das von Herrn Rein entwickelte Modell wurden anhand diverser Vergleiche mit Messergebnissen validiert. Abhängig vom zugrundeliegenden Glasmaterial schwankt die Güte der Übereinstimmungen zwischen Modell und Messungen zwischen perfekt oder stark verbesserungsbedürftig.

Eine einzige Diplomarbeit kann wegen der auch für den Betreuer unerwarteten Komplexität des Problems nicht alle in der Praxis auftretenden Probleme lösen. Eine Vielzahl von weiteren Problemen hat Herr Reinl in seinem ausführlichen Ausblick zusammengefasst, darunter einer der interessantesten, aber auch schwierigsten ist sicherlich die Frage nach der optimalen Bahn des Polierpads über die Glasoberfläche.

Diese Diplomarbeit entstand in Kooperation mit der Firma Rodenstock GmbH in Regen, mit betreut von Herrn Dipl.-Ing. Günter Niemeyer.

Studium: Technomathematik, U Bayreuth
Abschluss: November, 2005
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Branche: Universität (TU Darmstadt, Lehrstuhl für Simulation und Systemoptimierung, Fachbereich Informatik)
E-Mail: reinl"at"sim.tu-darmstadt.de
Homepage: Christian Reinl
Sonstiges: Herr Reinl hat 2010 seine Promotion mit einer Dissertation mit dem Titel Trajektorien- und Aufgabenplanung kooperierender Fahrzeuge: Diskret-kontinuierliche Modellierung und Optimierung am Lehrstuhl für Simulation und Systemoptimierung Prof. von Stryk, Fachbereich Informatik, der TU Darmstadt abgeschlossen. Danach arbeitete Herr Dr. Reinl in einem DFG-Projekt zur optimierungsbasierten Kompensation von Abdrängungen bei fräsenden Industrierobotern.


Designing and Computing Mountain-Pass Trajectories via Methods of Optimal Control with Applications in Chemistry
von
Johannes Reitzenstein

Johannes Reitzenstein Eine der wichtigen Fragestellungen der Theoretischen Chemie hängt mit der Bestimmung von Sattelpunkten erster Ordnung auf n-dimensionalen Potentialhyperflächen z = f(x) zusammen. Dabei sind Sattelpunkte erster Ordnung dadurch definiert, dass in ihnen alle Eigenwerte der Hessematrix von f bis auf einen positiv sind. Diese Sattelpunkte markieren jene Punkte (Pässe) zwischen zwei (lokalen) Minima von f, die man überwinden muss, um auf der Potentialfläche von einem Minimum zum anderen zu gelangen (oder von einem Punkt (x_1,f(x_1)) zu einem anderen Punkt (x_2,f(x_2)), wenn die dort geltenden Funktionswerte von f kleiner sind als im Sattelpunkt). Die Existenz solcher Sattelpunkte ist durch das sogenannte Mountain-Pass-Theorem gesichert. Diese Sattelpunkte geben Hinweise auf sogenannte Reaktionspfade, also wie man von einem mit einem (lokalen) Minimum von f assoziierten, stabilen Molekülzustand zu einem anderen gelangt. Bei der Überquerung dieser "Gebirgspässe" benötigt man längs des "Reaktionspfades" die geringste Energieanhebung, um von dem einen Molekülzustand zu dem anderen zu gelangen. Kennt man den Sattelpunkt lassen sich die Übergangsstruktur, also die Konfiguration des Moleküls im Sattelpunkt und der Mechanismus und die Rate des Übergangs sowie die Reaktionskoordinate bestimmen.

Offensichtlich lässt sich dieses Problem durch ein Optimalsteuerungsproblem modellieren: Man finde eine Kurve x(t), 0 <= t <= 1, mit Anfangspunkt x(0)=x_1 und Endpunktpunkt x(1)=x_2 im n-dimensionalen Raum bzw. die dazu gehörige Kurve (x(t),f(x(t)), 0 <= t <= 1, auf der Potentialfläche z = f(x) , so dass das Maximum der längs dieser Kurve auftretenden Funktionswerte minimiert wird. Hierbei handelt es sich um ein sogenanntes Cebysevsches Optimalsteuerungsproblem, zu deren Lösung leistungsf$auml;hige Standardverfahren zur Verfügung stehen.

Die hieraus resultierenden Verfahren, je nach Modellierung des Optimalsteuerungsproblems, benötigen keine expliziten Formeln bzw. Programme zur Berechnung von Gradienten oder Hessematrizen von f, rufen dafür allerdings f sehr oft auf. Die Modellierungen führen wie andere Verfahren auch auf sehr große Optimierungsprobleme bzw. hier auf sehr große Optimalsteuerungsprobleme, deren Diskretisierung wiederum auf sehr große Optimierungsprobleme führen.

Man beachte, dass eine Auswertung von f enorme Rechenzeiten benötigen kann, da zur Bestimmung von f im Allgemeinen die Lösung einer Schrödinger Gleichung, also einer partiellen Differentialgleichuung mit 3 N unabhängigen Variablen, approximiert werden muss, wobei N die Anzahl der Atome des Moleküls bezeichnet. In dieser Diplomarebiet wurden allerdings nur solche Probleme gerechnet, wo f explizit angegeben werden konnte. Bei dem größten gerechneten Problem war die Dimension n=66, d. h. es musste ein Optimalsteuerungsproblem für 132 gewöhnliche Differentialgleichungen numerisch gellöst werden.

Bemerkung: In diesem Zusammenhang sei noch auf das sogenannte Mountain-Pass-Theorem von Ambrosetti und Rabinowitz verwiesen, welches eine wichtige Rolle bei der Abschätzung der Zahl kritischer Punkte reeller, stetig differenzierbarer Funktionale auf reelen Banachräumen und damit bei Existenfragen bei nichtlinearen (partiellen) Differentialgleichungen spielt.

Inhaltsangabe: Nach Einleitung und Motivation wird im zweiten Kapitel die zugrundeliegende Theorie, insbesondere das Mountain-Pass-Theorem dargestellt. Existierende Methoden zur Berechnung von Sattelpunkten erster Ordnung werden im dritten Kapitel übersichtsartig dargestellt. Im vierten Kapitel werden die Hauptergebnisse der Theorie Optimaler Steuerungen, soweit sie in dieser Arbeit von Belang sind, zusammengefasst und mehrere Formulierungen von Optimalsteuerungsaufgaben angegeben, mit denen Mountain-Pass-Trajektorien berechnet und sogar gestaltet werden können. Die numerischen Resultate inklusive einer sehr kurzen Darstellung der verwendeten Methode NUDOCCCS zur numerischen Lösung von Optimalsteuerungsproblemen runden im fünften Kapitel die Diplomarbeit ab. Eine Zusammenfassung sowie einige Anhänge zur Ordnung der bei den Optimalsteuerungsproblemen auftretenden Zustandsbeschränkungen, weitere numerische Ergebnisse und Programmcodes beschließen die Arbeit.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 06/2005
Erste Anstellung: sofort nach Studienabschluss
Position: Analyst im Structuring
Firma: JP Morgan Headquarters, London
Branche: Investmentbank
E-Mail: johannes_reitzenstein"at"yahoo.de
Sonstiges: Johannes Reitzenstein in einer Email am 14.5.2006: "Ich bin sehr zufrieden mit meiner Arbeit. Es ist sehr interessant und auch herausfordernd in jeder Hinsicht - die Materie, der Markt an sich, das schnelle Umfeld, mein Team und die Bank, London, und nicht zuletzt die Arbeitszeiten. Meine Position ist "Analyst" im sog. "Structuring", d.h. wir entwickeln, preisen und handeln komplexe Produkte im Bereich Währungen und Rohstoffe. Wir modellieren die von den Kunden gewünschten Auszahlungsprofile anhand von Optionen; die wenigsten davon sind jedoch "Vanilla" Puts und Calls, meistens handelt es sich um kompliziertere Payoffs oder direkt sog. exotische Optionen. Noch eine kurze Anmerkung zum Schluss: Wie Sie sich denken können, ist JP Morgan immer an guten Leuten interessiert. Wenn Ihnen also jemand begegnet, den Sie fuer geeignet halten und der sich für eine solche Laufbahn begeistern könnte, lassen Sie es mich bitte wissen."


Optimierung des Materialtransportes bei schleichenden Filmströmungen
von
Armin Rund

Aufgabenstellung: Armin Rund In dieser Diplomarbeit sollte der Einfluss von geneigten, gewellten Bodenkonturen auf den Materialtransport ebener, stationärer, schleichender Filmströmungen eines inkompressiblen Newtonschen Fluids untersucht werden. Insbesondere war die interessante Frage zu beantworten, ob es gewellte Bodenkonturen gibt, die zu einem höheren Materialtransport führen als bei einer geneigten, ebenen Bodenplatte. Letztendlich verbirgt sich dahinter ein Optimierungsproblem mit partiellen Differentialgleichungen zur Bestimmung einer optimalen Bodenkontur, das sich jedoch bei vereinfachenden physikalischen Annahmen auf ein Optimalsteuerungsproblem für ein großes System gewöhnlicher Differentialgleichungen reduzieren löszlig;t.

Ausgangspunkt: Ausgangspunkt waren Untersuchungen am Lehrstuhl für Technische Mechanik und Strömungsmechanik zu harmonischen Bodenkonturen und sogenannten "Hügelketten", die durch Polynome mit trigonometrischen Funktionen dargestellt werden und die harmonische Bodenkonturen einschließen. Es zeigte sich, dass ab einer gewissen Amplitude Wirbel in den Mulden der Bodenkonturen auftreten, deren Größe mit steigender Amplitude anwächst. Die Flüssigkeit verliert an der Bodenplatte durch Reibung Bewegungsenergie, auf den Wirbeln gleitet die Flüssigkeit jedoch mit verminderter Reibung. Die Wirbel wirken wie flüssige Wälzlager, auf denen die Flüssigkeit dahingleitet. Es stellt sich die Frage, ob sich solche Wirbel positiv auf den Materialtransport auswirken können. In der Tat beobachtet man bei Steigerung der Amplitude ab einer bestimmten Wirbelgröße einen steigenden Materialtransport. Dennoch konnte der geringe Widerstand einer ebenen Kontur für harmonische Bodenkonturen nicht wieder erreicht werden. Insbesondere verhinderten die schlechte Kondition eines mit zunehmender Welligkeit immer größer werdenden linearen Gleichungssystems und immens steigende Rechenzeiten weitere Rechnungen. In einer Arbeit in der renommierten Zeitschrift Arch. Appl. Mech., zu der Herr Rund mit seinen Ideen beigetragen hat und neben Herrn PD Scholle und Prof. Aksel als Koautor zeichnet, konnte dann oberhalb einer gewissen Amplitude erstmalig eine Erhöhung des Materialtransportes gegenüber der ebenen Kontur für die oben genannten Hügelketten nachgewiesen werden.

Inhaltsangabe: Strömungen lassen sich mathematisch durch ein gekoppeltes System nichtlinearer partieller Differentialgleichungen beschreiben, das nach Navier und Stokes benannt wird. Bei der hier vorliegenden Aufgabenstellung handelt es sich um ein Randwertproblem mit freiem Rand. Aufgrund physikalischer Gegebenheiten (unendlich weite Kontur, Stationarität, Vernachlässigung der Trägheit) lässt sich das System zu den ebenen linearen Stokes-Gleichungen vereinfachen. Durch Einführung einer Stromfunktion erhält man dann daraus eine Bi-Laplace-Gleichung, eine lineare elliptische partielle Differentialgleichung vierter Ordnung, zur Berechnung der Stromfunktion, die nun Ausgangspunkt für alle weiteren Untersuchungen ist.

Für die Bi-Laplace-Gleichung lässt sich eine Lösungsformel finden, die holomorphe Funktionen enthält, die sich aus den physikalischen Randbedingungen über ein unendlich-dimensionales System von Integralidentitäten bestimmen lassen. Eine abgebrochene Fourier-Reihe erzeugt daraus ein eindeutig bestimmtes endlichdimensionales lineares Gleichungssystem für die Koeffizienten der Fourier-Entwicklung. Dieses Gleichungssystem muss dann letztendlich numerisch gellöst werden. Aus dessen Lösung kann man dann alle problemrelevanten Größen berechnen bzw. rekonstruieren.

Die Herleitungen in der Diplomarbeit sind bis auf Symmetrie- und Periodizitätsannahmen unanhängig von der festen Berandung, der Bodentopographie. Herr Rund schlägt zum einen eine logarithmische Bodenkontur vor, die sich den bisher untersuchten Bodenkonturen in vielfacher Hinsicht überlegen zeigt. Ihre mathematische Form erlaubt eine analytische Vereinfachung der zu lösenden Gleichungen und eine Halbierung der Dimension der nicht analytisch lösbaren Gleichungen. Weiterhin erweist sich die Numerik in Bezug auf Genauigkeit und Laufzeit deutlich verbessert. Eine geschickte analytische Vorkonditionierung des verbleibenden inhomogenen linearen Gleichungssystems optimiert dann das numerische Verfahren ein weiteres Mal. Zum anderen entwickelt Herr Rund noch eine überhängende Bodenkontur, die durch eine ebene parametrisierte Kurve mittels trigonometrischer Polynome niedriger Ordnung dargestellt wird. Hierfür zeigt sich später, dass sie numerisch ähnlich ungünstig ist, wie die harmonische Bodenkontur und die Hügelketten.

Im Vergleich zur harmonischen Bodenkontur und zu den Hügelketten steigt allerdings bei der logarithmischen Bodenkontur die Kondition des zu lösenden linearen Gleichungssystems nicht mehr mit der Anzahl der Terme der abgebrochenen Fourier-Entwicklung. Lediglich Rechenzeit- und Speicherplatz limitieren die maximal rechenbare Bodenkontur, nicht aber Rechenungenauigkeiten wie bei der harmonischen Bodenkontur oder den Hügelketten. Ja bis zu einem Reihenabbruch nach 20 Termen ist sogar eine geschlossen analytische Lösung des Problems bei logarithmischer Bodenkontur möglich, deren Gültigkeitsbereich sich aber nur bis zu mittleren Welligkeiten erstreckt.

Weitergehende numerische Rechnungen bestätigen nun, dass es bei hinreichender Welligkeit Bodenprofile gibt, welche bei schleichenden Filmströmungen einen höheren Materialtransport gewährleisten als eine ebene Bodenplatte. Neben der Hügelkette, die in der oben genannten Zeitschrift unter Mitwirkung von Herrn Rund untersucht wurde, führt sein Vorschlag einer logarithmischen Bodenkontur ebenfalls zu einem höheren Materialtransport durch die reduzierte Reibung an der Separatrix, der Kontaktfläche zwischen Hauptströmung und Wirbeln. Herrn Runds Vorschlag weist aber gegenüber den bisherigen Ansätzen vielfältige rechnerische Vorteile auf. Die mit der Erhöhung des Materialtransports einhergehende Widerstandsreduktion ist im übrigen technologisch äußerst interessant. Für andere Arten von Strömungen gibt es in diesem Bereich bereits Anwendungen: Berühmte Beispiele einer Widerstandsreduktion durch unebene Körperoberflächen bieten beispielsweise der Golfball oder die parallel zur Schwimmrichtung gerillte Haihaut, welche dem Hai besonders bei sprunghaften Angriffen eine schnellere Bewegung ermöglicht.

Den Abschluss der Arbeit bildet ein Ausblick, wie man nun über die Formulierung eines Optimalsteuerungsproblems eine optimale Bodenkontur berechnen könnte, sofern sie denn existiert. Man beachte, dass die ebene Bodenkontur nur ein lokales Optimum darstellt. Dieser Ansatz stand eigentlich am Anfang der Arbeiten zu dieser Diplomarbeit. Es zeigte sich jedoch bald, dass die dem Problem inhärenten numerischen Schwierigkeiten auch hier auftreten, so dass die Frage nach der Existenz und der Berechnung einer optimalen Bodenkontur offen bleiben muss.

Diese interdisziplinäre Diplomarbeit entstand in Kooperation mit dem Lehrstuhl für Technische Mechanik und Strömungsmechanik (Prof. Dr. Nuri Aksel). Die Hauptlast der Betreuung trug Herr PD Dr. Markus Scholle von diesem Lehrstuhl, auf dessen wissenschaftlichen Arbeiten, insbesondere dessen Habilitationsschrift diese Diplomarbeit gründet.

Studium: Technomathematik, U Bayreuth
Abschluss: September, 2005
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
E-Mail: armin.rund"at"uni-graz.at
Alte Homepage: Alte Homepage
Neue Homepage: Aktuelle Homepage
Promotion: Herr Rund promovierte im Jahre 2012 an der Universität Bayreuth mit der Dissertation Beiträge zur Optimalen Steuerung partiell-differential algebraischer Gleichungen. Betreuer: Prof. Pesch.
Herr Rund strebt eine Hochschullehrerkarriere an und ist zurzeit Postdoc in der Arbeitsgruppe von Prof. Karl Kunisch, Universität Graz, einem der führenden Wissenschaftler auf dem Gebiet der Optimalen Steuerung mit partiellen Differentialgleichungen.


Pattern Formation in a Metapopulation Model with Explicit Resource-Consumer Dynamics
von
Margarete Utz

Anhand zweier mathematischer Modelle (mit diversen Varianten), die zum Teil erst im Laufe der Diplomarbeit entwickelt wurden, sollte untersucht werden, ob eine Population von Spezies, deren Wachstumsrate von einer gewissen Ressource abhängig ist, von einem Lebensraum (Habitat) in einen benachbarten migriert, sobald dort Bedingungen herrschen, unter denen dieses Habitat erobert werden kann. Speziell sollte die Frage beantwortet werden, ob eine homogenen Umwelt, also eine Menge bezüglich der Ressourcen identischer Habitate, nach einer gewissen Zeitdauer auch eine identische Populationsdichte aufweisen wird. Oder stellen sich unter Umständen gar Gleichgewichte ein, bei denen andere Muster stabil sind als jene, die gleicher Populationsdichte in allen Habitaten entsprechen? Diese Frage gehört zu den grundlegenden Fragen der Ökologie.

In vielenökologischen Modellen spielen sogenannte Metapopulationen eine Rolle. Das sind Populationen von gleichen oder verschiedenen Spezies - in dieser Arbeit sind es Spezies verschiedener Altersklassen -, die zwischen den benachbarten Habitaten wandern können, dort von den gleichen Ressourcen abhängen und/oder dort von gleichen Raubtieren bedroht sind.

Im Vordergrund dieser Arbeit steht also die räumliche Verteilung der Spezies. Diese wird beschrieben durch eine kreisförmig angeordnete Kette von Habitaten. Ferner wird angenommen, dass die Spezies nur die beiden benachbarten bzw. die vier nächst benachbarten Habitate besuchen. Es herrscht also ein sogenannter "quasi-lokaler Wettbewerb" um die Ressourcen.

Frau Utz hat dazu zwei mathematische Modelle untersucht, bei denen Individuen eines bestimmten Habitats einen Teil ihrer zurückliegenden Zeit in einem benachbarten Habitat verbracht haben. Im ersten Modell legen die Erwachsenen Individuen Eier mit einer Rate proportional zur Menge der zur Verfügung stehenden Futterressourcen. Die Individuen, die den Eiern entschlüpfen, bilden die Erwachsenengeneration der nächsten Brutsaison. Das zweite Modell führt dann eine weitere Altersklasse ein, die der Heranwachsenden, die erst nach einem Jahr geschlechtsreif werden.

Nach einer Einführung in die Fragestellung werden im zweiten Kapitel zunächst die beiden Modelle (ohne und mit Heranwachsenden) vorgestellt. Nur die Erwachsenen werden als potentielle Migranten angenommen. Die Modelle bestehen jeweils aus zwei Teilen, einem System gewöhnlicher Differentialgleichungen für die Ressourcen und die Anzahl der Eier, der Heranwachsenden und der Erwachsenen sowie Differenzengleichungen, die den Übergang der Mitglieder der verschiedenen Altersklassen über die Wintersaison beschreiben. Zur Vereinfachung wird angenommen, dass sich über das Jahr die Ressourcen in einem quasi-stationären Gleichgewicht befinden, welches sich dann als stabil erweist. Als erstes wird dann untersucht, wann eine Population überlebensf$auml;hig ist, d. h., unter welchen Bedingungen an die Systemparameter mindestens ein Erwachsener einen Nachkommen erzeugt, der die Geschlechtsreife erreicht. Die aus der Forderung nach Überlebensf$auml;higkeit resultierende Bedingung wird im Folgenden stets angenommen.

Im dritten Kapitel wird zunächst das Modell ohne Heranwachsende untersucht, für ein, zwei und n Habitate. Es zeigt sich, dass bei all diesen Varianten, abgesehen von entarteten Fällen, das sogenannte homogene Gleichgewicht das einzige stabile Gleichgewicht ist. Eine andere Muster-Formation existiert nicht. Die entarteten Fälle hängen dabei von der Wahrscheinlichkeit ab, mit der Erwachsene in benachbarte Habitate wechseln und beschreiben biologisch unwahrscheinliche Situationen.

Das vierte Kapitel ist nun dem Modell mit Heranwachsenden gewidmet. Hier werden drei Varianten untersucht. Zunächst wird angenommen, dass die Heranwachsenden nur einen vernachlässigbaren Anteil der Ressourcen verbrauchen und ihre Mortalität unabhängig von den zur Verfügung stehenden Ressourcen ist. Diese Variante kann noch vollständig analytisch gellöst werden. Hängt jedoch die Mortalität der Heranwachsenden bei weiterhin zu vernachlässigbaren Ansprüchen an die Ressourcen von diesen ab, können Teile des Modells nur noch numerisch untersucht werden. Bei der vollen Modellvariante, bei der sowohl Wachstumsrate und Mortalität der Heranwachsenden von den Ressourcen abhängen, muss das gesamte Modell numerisch untersucht werden. Alle numerischen Rechnungen erfolgen mithilfe von MATHEMATICA.

Als Resultate ergeben sich jetzt Muster von Spezies-Formationen, wenn die Heranwachsenden entweder einen beträchtlichen Teil der Ressourcen benötigen oder deren Überlebensrate von diesen abhängt, insbesondere wenn die diese Situationen beschreibenden beiden Konstanten in den Kombinationen "klein" und "groß" bzw. "groß" und "klein" auftreten.

Das fünfte Kapitel enthält eine Zusammenfassung. Die Arbeit wird durch einen Anhang mit den MATHEMATICA-Programmen abgeschlossen.

Diese Diplomarbeit entstand vollständig an der Universität in Turku, Finnland, und wurde dort von Frau Prof. Dr. Eva Kisdi betreut. Da Frau Utz eine selten gewählte Nebenfachkombination, nämlich Biologie, gewählt hat, kann man den Umstand, dass Frau Utz ihre Diplomarbeit in Turku hat anfertigen können, nur als Glücksfall bezeichnen, da es dort eine international angesehene Gruppe auf dem Gebiet der Biomathematik gibt.

Der Auslandsaufenthalt von Frau Utz wurde teilweise vom DAAD finanziert.

Frau Utz hat über ihre Arbeit in Turku und Helsinki vorgetragen. Aus ihrer Diplomarbeit sind zwei Arbeiten und eine Posterpräsentation für eine internationale Tagung hervorgegangen; eine der beiden Arbeiten (mit E. Kisdi) ist bereits zur Publikation in Theoretical Population Biology angenommen, eine zweite wird noch eingereicht werden (Bulletin of Mathematical Biology). Bei der letzteren der beiden Arbeiten wird Frau Utz Erstautorin sein.

Frau Utz kann ihre Forschungen in Helsinki im Rahmen eines Dissertationsprojektes fortsetzen.

Studium: Mathematik mit Nebenfach Biologie, U Bayreuth
Abschluss: 06/2005
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftliche Mitarbeiterin
Firma: Universität Helsinki
Branche: Öffentlicher Dienst
E-Mail: margarete.utz"at"helsinki.fi
Promotion: Frau Utz promovierte im Jahre 2010 an der Universität Helsinki (Helsingin Yliopisto) mit einer Dissertation zum Thema Individuals On The Move - Body Condition Dependent Dispersal And Quasi-local Competition In Metapopulations auf dem Gebiet der Theoretischen Biologie/Mathematik.
Sonstiges: Frau Dr. Utz ist derzeit Postdoctoral Researcher, Behavioural Ecology & Self-organization Group and Theoretical Biology, University of Groningen, the Netherlands, und strebt eine Hochschullehrerkarriere an.
Homepage: Homepage an der Universität Groningen


Ausgewählte numerische Verfahren für den Mathematikunterricht am Gymnasium - Anwendungsbeispiele und Visualisierung
von
Lorenz Vohwinkel

Lorenz Vohwinkel Die Arbeit hat das Ziel, aufzuzeigen, wie Numerische Mathematik als eines der wichtigsten Teilgebiete der Angewandten Mathematik in den Unterricht am Gymnasium integriert werden kann. Im ersten Kapitel werden einige didaktische Grundprinzipien erläutert. Die weiteren Kapitel behandeln ausgewählte numerische Verfahren und deren Umsetzung im Unterricht: Dabei wird auf numerischen Grundlagen, wie die Darstellung von Zahlen am Rechner, Fehler beim numerischen Rechnen und der Begriff des Algorithmus eingegangen. Weitere Themen sind numerische Verfahren zur Lösung von linearen Gleichungssystemen und nichtlinearen Gleichungen. Das letzte Kapitel befasst sich mit Interpolation mittels Splines. Der Aufbau aller Kapitel ist zweigeteilt. Zunächst erfolgt eine vertiefte Einführung der mathematischen Sachverhalte für den Lehrenden. Anschließend wird eine Anleitung für die Umsetzung der Inhalte im Schulunterricht gegeben.

Da in den Lehrplänen moderne Anwendungsfelder der Mathematik immer noch unzureichend berücksichtigt sind, besteht ein Hauptanliegen der Arbeit darin, Schülern die Nützlichkeit von Mathematik für zahlreiche praxisrelevante Fragestellungen vor Augen zu führen. Dazu werden interessante Anwendungsbeispiele wie die Funktionsweise eines Computertomographen, Renditeberechnungen bei Geldanlagen oder die Erstellung von Computergraphiken sowie deren mathematische Hintergründe vorgestellt. Des Weiteren ist der Arbeit eine Begleit-CD mit einigen Programmen und Materialien zur Veranschaulichung der numerischen Inhalte beigefügt.

Im Vordergrund stand die Umsetzbarkeit auch im Unterrichtsalltag. Wo immer es möglich war wurde versucht an Inhalten aus dem Lehrplan anzuknüpfen. Die einzelnen Kapitel bauen dabei nicht aufeinander auf, so dass Lehrern selbst überlassen bleibt, welche Themen in welcher Intensität bearbeitet werden sollen. So ist je nach Leistungsstand der Schüler und verfügbarer Unterrichtszeit eine flexible Konzeption des Unterrichts möglich.

Es ist geplant, diese Zulassungsarbeit als Buch herauszugeben, eventuell angereichert um einige weitere Kapitel zur Abrundung des Stoffes.
Dafür wird noch ein Nachfolger für Herrn Vohwinkel gesucht!

Studium: Lehramt Mathematik und Wirtschaftswissenschaften für Gymnasien, U Bayreuth
Position: Gymnasiallehrer
Branche: Öffentlicher Dienst
E-Mail: lorenzvohwinkel"at"gmx.net


2006


1D-Modellierung und Simulation des dynamischen Verhaltens einer Schmelzkarbonat-Brennstoffzelle
von
Marco Bauer

Das Thema zu dieser Diplomarbeit entstammt einem aktuellen Drittmittelprojekt am Lehrstuhl für Ingenieurmathematik mit dem Titel Optimierte Prozessführung von Brennstoffzellen-Systemen mit Methoden der Nichtlinearen Dynamik.

In dieser Arbeit wird ein bereits vorliegendesörtlich zweidimensionales Schmelzkarbonat-Brennstoffzellen-Kreuzstrommodell (Abk. für Schmelzkarbonat-Brennstoffzelle: MCFC = molten carbonate fuel cell) auförtlich eine Dimension reduziert. Das resultierende sehr große gekoppelte semilineare partielle Differentialgleichungssystem der Dimension 28 stellt dann ein vereinfachtes Gegenstrommodell der MCFC dar und wird numerisch mittels der Linienmethode gellöst. Dazu wird das nach Semidiskretisierung im Ort (vertikale Linienmethode) entstehende gewöhnliche differential-algebraische Gleichungssystem mithilfe des Softwarepakets EASY-FIT von Prof. Klaus Schittkowski numerisch simuliert.

Dabei werden die auftretenden ersten und zweiten Ortsableitungen durch geeignete Differenzenquotienten approximiert, u.a. werden Upwind-Formeln benutzt, um die Transportterme zu diskretisieren. Insgesamt erhält man ein sehr großes steifes System gewöhnlicher Differentialgleichungen in der Zeit, das dann letztendlich mit Hilfe eines impliziten Integrationsverfahrens numerisch gellöst wird. In der Arbeit wird detailliert beschrieben, wie man dies alles mit dem Programmpaket EASY-FIT durchführt.

Die Intention dieser Diplomarbeit ist, ein aussagekräftiges eindimensionales Modell zu erstellen, das numerisch effizienter als dasörtlich zweidimensionale Modell behandelt werden kann und doch das dynamische Verhalten der diversen Größen wie die Temperaturen der Gasgemische in den Kanälen und im Solid, wie die Konzentrationen der an den elektro-chemischen Reaktionen beteiligten Substanzen und die Potentiale sicher voraussagen zu können. Demnach liegt der Schwerpunkt dieser Diplomarbeit in der Durchdringung des mathematischen Modells und seiner Modifikation auf eine Ortsdimension. Mit dieser Arbeit wurde die im oben genannten Projekt wegen kontinuierlicher Modellverbesserungen verlorengegangene Abwärtskompatibilität wieder hergestellt.

Damit liegen nun zwei kompatible Familien von MCFC-Modellen vor, für 1D-Gegenstrom und 2D-Kreuzstrom. Auf ähnliche Weise lassen sich auch 1D- und 2D-Gleich- und 2D-Gegenstrommodelle herleiten. Diese Diplomarbeit liefert die Anleitung dafür.

Die Arbeit schließt mit einem Vergleich der Ergebnisse aus dem 1D-Gegenstrommodell mit jenen aus dem 2D-Kreuzstrommodell, welche aus der Dissertation von Kati Sternberg stammen. Obwohl die wesentlichen Zustandsgrößen qualitativ ähnliche Ergebnisse liefern, bedingen die unterschiedliche Führung der Gasströme doch auch Unterschiede.

Bemerkung: In der Dissertation von K. Sternberg wurde noch ein 2D-Gegenstrommodell entwickelt, das sogar gewisse Vorteile gegenüber der im HotModule der Firma MTU CFC Solutions, München, realisierten Kreuzstromführung aufweist. Ein Vergleich damit steht noch aus; die Diplomarbeit von Herrn Bauer liefert dazu einen guten Ausgangspunkt.

Studium: Technomathematik, U Bayreuth
Abschluss: 11/2006
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche:
E-Mail: Marco_Bauer"at"gmx.net


Bistabile Resonanz bei Filmströmungen über gewellte Oberflächen
von
Christian Heining

Strömungen fluider Schichten spielen sowohl in natürlichen Systemen als auch in einer Vielzahl von technischen und industriellen Anwendungen eine wichtige Rolle. Die regennasse Fahrbahn, der Ölfilm eines Motors, der Tränenfilm auf dem Auge oder die Herstellung von CDs stellen nur einige Beispiele dar. In vielen Anwendungen spielt die Geometrie des Bodens eine herausragende Rolle, bei der das idealisierte Modell eines ebenen Bodens zur Modellierung nicht mehr ausreicht. Zum Beispiel sind in der Beschichtungsindustrie, bei Wärmetauschern oder Verdampfern und Kondensatoren gekrümmte bzw. gewellte Böden von speziellem Interesse. Um einen höheren Wirkungsgrad zu erreichen, werden z.B. bei Wärmetauschern die Oberflächen gekrümmt bzw. gerippt hergestellt. Andererseits kommt es bei der Produktion von glatten ebenen Materialien aufgrund von Herstellungsungenauigkeiten zu unebenen, gewellten Oberflächen. Für all diese Anwendungen stellt sich die Frage, welche Auswirkungen die gewellten Oberfächen auf die Eigenschaften des Systems und speziell die Strömung haben. Ein Teilaspekt dieses Einflusses der Bodenkontur auf stationäre Filmströmungen über gewellte Böden ist Gegenstand dieser Arbeit.

In vorausgehenden Untersuchungen wurden sowohl analytisch als auch numerisch und experimentell Phänomene beobachtet, die bei Strömungen über ebene Böden nicht auftreten. Z.B. gelingt es Oberflächenwirbel oder hydraulische Sprünge in Form von Schocks nachzuweisen. Der Einfluss einer gewellten oder allgemein gerippten Oberfläche kann aber auch zur Entstehung von Wirbeln in den Vertiefungen des Bodenprofils führen.

Neben den bereits diskutierten Eigenschaften können noch weitere Phänomene beobachtet werden: Bei gewellten bzw. rechteckig gerippten Böden bilden sich stehende resonante Wellen, die bei bestimmten Reynoldszahlen eine besonders hohe Amplitude erreichen. Dabei ist in vorausgehenden Veröffentlichungen durch numerische Rechnung ein aus der nichtlinearen Resonanz bekannter Effekt untersucht wordern: Für wachsende Bodenwelligkeiten "biegt" sich die Resonanzkurve zu größeren Reynoldszahlen, d.h. in einem bestimmten Reynoldszahlbereich existieren gleichzeitig drei verschiedene Amplituden der Filmdicke, abhängig vom vorherigen Zustand des Systems.

Dieses nichtlineare Resonanzproblem wird in dieser Arbeit sowohl analytisch als auch numerisch untersucht. Zunächst werden mit analytischen Methoden die nichtlinearen Resonanzeffekte des Strömungsproblems berechnet. Unter den Annahmen einer kleinen Welligkeit und eines dünnen Filmes kann ausgehend von den Navier Stokes Gleichungen und den Randbedingungen mit Hilfe einer integralen Grenzschichtmethode eine gewöhnliche nichtlineare Differentialgleichung für die Filmdicke in lokalen krummlinigen Koordinaten hergeleitet werden. Nach Transformation dieser Differentialgleichung in kartesische Koordinaten wird diese Gleichung mit störungstheoretischen Methoden auf Resonanz untersucht. Anschließende numerische Resultate des zugehörigen Randwertproblems liefern eine gute Übereinstimmung mit der Analytik im Gültigkeitsbereich der Störungsrechnung. Motiviert durch Resonanzuntersuchungen aus vorhergehenden Veröffentlichungen wird die mittels integraler Grenzschichttheorie hergeleitete Differentialgleichung analytisch und numerisch auf bistabiles Verhalten untersucht. Sowohl analytisch mit einem Fourieransatz als auch numerisch mit einem Randwertproblemlöser können Aussagen über die auftretende Bistabilität gemacht werden.

Um qualitative Aussagen zu gewinnen und um die bistabilen Effekte besser verstehen zu können, wird mit der Ausgangs-Differentialgleichung ein vereinfachtes Minimalmodell hergeleitet, mit dessen Hilfe dann ein Zusammenhang zum Duffing Oszillator hergestellt werden kann. Zudem gelingt es die für die Bistabilität verantwortliche Nichtlinearität zu identifizieren.

Studium: Technomathematik, U Bayreuth
Abschluss: 04/2006
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Lehrstuhl für Technische Mechanik und Strömungsmechnik
Branche: Öffentlicher Dienst
Promotion: Herr Heining wurde im Jahre 2009 zum Dr.-Ing. promoviert. Titel der Dissertation: Influence of two- and three-dimensional topography on viscous gravity-driven film flow. Betreuer: Prof. Aksel, Lehrstuhl für Technische Mechanik und Strömungsmechanik, Universität Bayreuth.
E-Mail: christian.heining"at"uni-bayreuth.de


Numerische Simulation und optimale Steuerung eines MCFC-Brennstoffzellenmodells mittels Linienmethode
von
Markus Hönick

Das Thema zu dieser Diplomarbeit entstammte einem laufenden Drittmittelprojekt am Lehrstuhl für Ingenieurmathematik mit dem Titel "Optimierte Prozessführung von Brennstoffzellen-Systemen mit Methoden der Nichtlinearen Dynamik".

In dieser Arbeit wird ein bereits vorliegendesörtlich zweidimensionales Schmelzkarbonat-Brennstoffzellen-Modell (Abk. für Schmelzkarbonat-Brennstoffzelle: MCFC = molten carbonate fuel cell) auf eine Ortsdimension reduziert. Das resultierende sehr große gekoppelte semilineare partielle Differentialgleichungssystem der Dimension 28 wird dann numerisch mittels der Linienmethode behandelt. Der Zweck dieser Diplomarbeit ist es, ein aussagekräftiges eindimensionales Modell zu erstellen, das numerisch effizienter als dasörtlich zweidimensionale Modell gelöst werden kann und doch das dynamische Verhalten der diversen Größen wie Temperaturen der Gasströme und im Solid, Konzentrationen der an den elektro-chemischen Reaktionen beteiligten Substanzen und Spannungen sicher voraussagen zu können. Dazu wird das nach Semidiskretisierung im Ort (Linienmethode) entstehende gewöhnliche differential-algebraische Gleichungssystem mithilfe eines direkten Optimierungslösers (NUDOCCCS von Büskens) numerisch simuliert und nach unterschiedlichen Vorgaben optimiert.

Dabei werden die auftretenden ersten und zweiten Ortsableitungen durch geeignete Differenzenquotienten approximiert, u.a. werden Upwind-Formeln benutzt, um die Transportterme so zu diskretisieren, dass die Erhaltungsgleichungen auch in ihrer diskretisierten Form gültig bleiben. Insgesamt erhält man am Ende ein sehr großes steifes System gewöhnlicher Differentialgleichungen in der Zeit, das dann mit Hilfe eines impliziten Integrationsverfahrens numerisch gel$ouml;st wird.

Zur Erläuterung der Vorgehensweise wird in den einzelnen Abschnitten der Diplomarbeit immer wieder auf die bekannte Wärmeleitungsgleichung zurückgegriffen.

Die wesentlichen Resultate für das Projekt sind die Untersuchung des Anfahrens der Brennstoffzellenstapels per Simulation. Dabei wird zunächst dem Stapel nur wenig Strom entzogen. Dieser Strom wird danach in Sprüngen bis zu einem Maximalwert angehoben. Optimiert wird das Brennstoffzellensystem dabei hinsichtlich maximaler Leistung und maximalem Wirkungsgrad durch Wahl einer geeigneten optimalen Steuerung. Des Weiteren wird das Verhalten der Zustände der Zelle mit und ohne Kathodenrückführung untersucht. Im letzten Abschnitt wird die optimale Steuerung nach einem Lastwechsel untersucht. Dabei wird nicht wie zuvor der Zellenstrom als Steuervariable verwendet, sondern bis zu sechs von außen regulierbare Eingangsgrößen, mit denen die Brennstoffzelle über die Randbedingungen gesteuert werden kann. Optimal gesteuert wird insbesondere mithilfe der Zellenspannung und zusätzlich noch der Mischertemperatur. Zum Abschluss wird noch untersucht, ob eine optimale Steuerung mit Beginn vor einem Lastwechsel bessere Ergebnisse erzielt als eine optimale Steuerung mit Beginn beim Lastwechsel.

Studium: Technomathematik, U Bayreuth
Abschluss: 10/2006
Erste Anstellung: sofort nach Studienabschluss
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: mhoenick"at"gmx.de


Simulation und Optimale Steuerung von chemotaktischen Strukturbildungsprozessen
von
Kathrin Hoffmann

Spontane Strukturbildung kommt in vielen Bereichen der Biologie vor - aber nicht nur dort. Sowohl innerhalb einzelner Zellen als auch in Zellkolonien stellen Strukturbildung und Selbstorganisation entscheidende Prozesse für die Funktionalität lebender Organismen dar. So können Veränderungen im Umfeld beweglicher Arten wie Bakterien deren Bewegungen beeinflussen. Man nennt dies Taxis. Von Chemotaxis spricht man, wenn Änderungen einer chemischen Substanz, z.B. einer Nährstoffkonzentration oder einer Konzentration schädlicher Chemikalien, auf die Bewegungen einer beweglichen Spezies Einfluss hat. In dieser Arbeit wird ein mathematisches Modell für die bakterielle Chemotaxis herangezogen, welches auf Evelyn Fox Keller und Lee A. Segel (1970) zurückgeht und welches experimentell anhand von Einzellern gut validiert ist.

Grundlage dieses Modells ist ein Signalübertragungsvorgang zwischen den Bakterien, bei dem als Antwort z.B. auf die Änderung der Nährstoffkonzentration eine chemotaktisch aktive Substanz (CAS) von den Bakterien ausgesondert wird, die zunächst in die Umgebung diffundiert. Angelockt durch dieses Signal wandern die Bakterien dann in Richtung der Nahrungsquelle, um sich dort zu sammeln. Die Registrierung der CAS erfolgt über Rezeptoren auf der Oberfläche der Bakterien, die dann nach der Bindung ein Signal in das Zellinnere leiten. Mithilfe ihrer Geiseln bewegen sich nun die Bakterien mit abwechselnd gerichteten und taumelnden Bewegungen in Richtung steigender CAS-Konzentration. Höhere CAS-Konzentrationen führen dabei zu häfigeren gerichteten Bewegungen.

Damit ist klar, dass die zeitliche undörtliche Veränderung der Zell- und der CAS-Konzentration durch ein Reaktions-Diffusionssystem beschrieben wird, das neben den Diffusionstermen (random walk, taumelnde Bewegungen) auch Transportterme (gerichtete Bewegungen) aufweist. Vernachlässigt man die Gleichung für die Nährstoffkonzentration, indem man diese als konstant betrachtet, erhält man zwei gekoppelte nicht-lineare parabolische partielle Differentialgleichungen zweiter Ordnung mit von Neumann-Randbedingungen. Das Gebiet kann als Intervall oder Quadrat angenommen werden, je nachdem ob manörtlich eindimensionale (in einer Kapillaren) oder zweidimensionale Probleme (in einer flachen Kulturschale) untersuchen möchte.

Nach einer Einführung in das Gebiet werden in Kapitel 2 die aus der Literatur bekannten Ergebnisse zur lokalen und globalen Existenz von Lösung parabolischer Chemotaxissysteme dargestellt. Bisher liegen mit einer Arbeit von Hillen und Painter (2001) nur Ergebnisse für ein stark vereinfachtes Modell vor, verglichen mit dem in dieser Diplomarbeit untersuchten Modell.

In Kapitel 3 werden dann verschiedene, für das Chemotaxissystem geeignete Finite-Differenzen-Verfahren vorgestellt und auf Konsitenz und Stabilität untersucht. Diese beiden Eigenschaften sichern dann nach dem Laxschen Äquivalenztheorem auch die Konvergenz dieser Verfahren. Speziell werden sogenannte IMEX-Verfahren (implicit explicit) untersucht. Hierbei wird der Diffusionsterm wegen seiner bekannten Steifheit implizit diskretisiert, um zu starke Restriktionen der Zeitschrittweite zu vermeiden. Da die Terme mit den partiellen Ableitungen zweiter Ordnung im Ort - die Diffusonsterme - nur linear in den beiden partiellen Gleichungen auftreten, ist pro Zeitschritt nur ein lineares Gleichungssystem der Dimension 2 zu lösen. Die nichtlinearen Terme erster bzw. nullter Ordnung im Ort werden dagegen explizit disktetisiert, so dass die aufwändige Lösung eines nichtlinearen Gleichungssystems vermieden wird. Approximiert man die Zeitableitung durch einen Rückwärts-Eulerschritt und den Diffusionsterm durch zentrale Differenzen zweiter Ordnung im Ort am neuen Zeitpunkt erhält man das sogenannte 1-SBDF-Verfahren (first order semi-implicit backward differentiation formula). Dieses Einschrittverfahren ist konsistent von erster Ordnung bzgl. der Zeitdiskretisierung und von zweiter Ordnung bzgl. der Ortsdiskretisierung. Dieses Verfahren lässt sich als Spezialfall eines allgemeinen Einschritt-IMEX-Verfahrens deuten, welches z.B. das explizite Euler-Verfahren, das Crank-Nicolson-Verfahren und das sogenannte 1-CNEU-Verfahren (first order Crank-Nicolson Euler) enthält.

Zusätzlich wird noch ein Zweischrittverfahren, das 2-SBDF-Verfahren, untersucht, welches sowohl im Ort als auch in der Zeit von zweiter Konsistenzordnung ist.

Zum Nachweis der Konvergenz dieser Verfahren muss deren Stabilität nachgewiesen werden. Anhand des 1-SBDF-Verfahrens zeigt Frau Hoffmann, wie Stabilität mithilfe einer Fourier-Analyse nach von Neumann nachgewiesen werden kann. Wegen der Nichtlinearität des Chemotaxissystems hängt diese vom Gradienten der CAS-Konzentration ab, so dass Stabilität "nur" numerisch und "nur" für einen weiten Bereich (sinnvoller) Zeit- und Ortsschrittweiten nachgewiesen werden kann, was natürlich für die Praxis ausreichend ist.

Da in der Arbeit auchörtlich zweidimensionale Probleme behandelt werden, werden auch Finite-Differenzenverfahren für diese Klasse von Reaktions-Diffusionsproblemen vorgestellt. Diese Verfahren gehören zur Klasse der ADI-Verfahren (alternating direction implicit}). Hierbei wird z.B. das 1-SBDF-Verfahren alternierend für die beiden Ortsrichtungen auf zwei Zeitschritte halber Länge aufgeteilt. Diese spezielle Methode ist auch unter dem Namen Douglas-Rachford-Methode bekannt. Wegen der Lösung zweier eindimensionaler Probleme verdoppelt sich gegenüber dem eindimensionalen Fall die Komplexität hinsichtlich der Lösung der linearen Gleichungssysteme nur, statt quadratisch anzusteigen. Insgesamt steigt die Anzahl der Unbekannten pro Zeitschritt natürlich dennoch quadratisch an und dominiert den rechnerischen Aufwand.

Umfangreiche numerische Untersuchungen belegen die theoretischen Ergebnisse. Insbesondere wurde die Stabilität der Verfahren in der Nähe stabiler stationärer Lösungen bei Schrittweiten- und Parametervariationen untersucht. Dabei erweist sich hinsichtlich Stablität bei größeren Schrittweiten das 1-SBDF-Verfahren dem 1-CNEU-Verfahren überlegen. Auch das Zweischrittverfahren 2-SBDF ist trotz seiner höheren Konsistenzordnung diesbezüglich dem 1-SBDF-Verfahren nicht überlegen. Dies besagt aber natürlich nichts hinsichtlich der Approximationsgüte.

Besonders interessant ist die Simulation von Wellenausbreitungsphänomenen, die sich bei lokalen Störungen vom Gleichgewicht ergeben. Es treten Bakterieninseln auf. Die numerischen Ergebnisse können dabei sehr anschaulich visualisiert werden.

In Kapitel 4 werden dann noch Optimale Steuerungsprobleme untersucht, bei denen das Anfangsrandwertproblem für die Chemotaxis-Gleichungen als Nebenbedingungen auftritt. Solche Optimierungsprobleme über Funktionenräumen stellen eine der derzeit größten Herausforderungen in der Angewandten Mathematik dar. Durch zeitlich veränderliche Steuerung der von Neumann-Randbedingungen soll der Verlauf der Zellkulturen zu einem festen Zeitpunkt einer vorgegebenen Sollverteilung möglichst genau entsprechen. Dabei wird dieses sogenannte tracking-Zielfunktional regularisiert, um möglichst glatte Steuerfunktionen zu erreichen. Als Zugang wird in dieser Arbeit eine sogenannte Direkte Methode verwendet, bei der das gesammte unendlich-dimensionale Optimierungsproblem durch Diskretisierung in ein sehr großes, aber endlich-dimensionale restringiertes nichtlineares Optimierungsproblem (NLP: nonlinear programming problem) transformiert wird. Zur Lösung solcher Probleme, insbesondere wenn sie wie bei der Diskretisierungörtlich zweidimensionaler Probleme extrem groß werden können, stehen nur sehr wenige "Standardverfahren" zur Verfügung. Frau Hoffmann hat hier den Innere-Punkte-Löser IPOPT von Andreas Wächter (2002) verwendet, eines der derzeit leistungsf$auml;higsten Verfahren. Dieses Verfahren wird über die Programmierumgebung AMPL aufgerufen. Bereits im eindimensionalen Fall sind Optimierungsprobleme mit mehr als 20000 Variablen zu lösen. Die Rechenzeiten variieren, abhängig vom Bereich der zulässigen Steuerungen, zwischen ca. 20 Minuten und ca. 80 Stunden. Die Approximation der vorgegeben Zellverteilung gelingt dabei mit hoher bis sehr hoher Genauigkeit. Kleine Regularisierungsparameter weisen auf die Existenz von bang-bang- und singulären Steuerungen hin.

Bei der Optimierung vonörtlich zweidimensionalen Problemen stößt man an die Grenze des heute Rechenbaren. Ergebnisse können nur noch für relativ grobe Schrittweiten erzielt werden, will man die Rechenzeiten im einstelligen Stundenbereich halten. Die erreichte Genauigkeit bei der Approximation der vorgegebenen Soll-Zellkonzentration ist damit naturgemäß nur noch gering. Die prinzipielle Vorgehensweise erweist sich jedoch auch hier als gangbar.

Fazit: Will man Optimale Steuerungsprobleme fürörtlich zweidimensionale partielle Differentialgleichungsprobleme lösen, wird man derzeit nicht an der Verwendung Indirekter Methoden vorbeikommen. Dieser mathematisch schwierige und sehr anspruchsvolle Zugang muss jedoch für jedes Problem erneut begangen werden und erfordert einen hohen Aufwand bereits bei der analytischen Vorarbeit. Die dem gegenüber relativ einfach zu handhabende Direkte Methode wird aber erst dann hinreichend effizient sein, wenn hinreichend leistungsfägige Löser für die Lösung von NLPs zur Verfügung stehen, die auch "wirklich" große Probleme lösen können.

Studium: Mathematik, Nebenfach Biologie, U Bayreuth
Abschluss: 07/2006
Erste Anstellung: sofort nach Studienabschluss
Position: Client-Server-Programmierer
Firma: IREKS GmbH, Kulmbach
Branche: Back- und Braugewerbe
E-Mail: hoffkmann"at"web.de


Modellprädiktive Regelung bei Optimalsteuerungsproblemen mit partiellen Differentialgleichungen:
Parabolische Optimalsteuerungsprobleme mit verteilter Steuerung und hyperbolische Optimalsteuerungsprobleme

von
Nadine Kaiser-Hugel

und

Modellprädiktive Regelung bei Optimalsteuerungsproblemen mit partiellen Differentialgleichungen:
Parabolische Optimalsteuerungsprobleme mit Randsteuerungen und hyperbolische Optimalsteuerungsprobleme

von
Stephanie Gallardo Yances geb. Vogel

Nadine Kaiser-Hugel Stephanie Gallardo Yances geb. Vogel Vorbemerkung. Diese beiden Diplomarbeiten sind Teile einer Gemeinschaftsarbeit. Ziel der Arbeiten war es, anhand gemeinsamer Beispielklassen von Optimalsteuerungsproblemen, sowohl mit parabolischen, als auch mit hyperbolischen Anfangsrandwertproblemen als Nebenbedingungen, die auf der vertikalen Linienmethode basierenden Zugänge über Optimalsteuerungsprobleme mit gewöhnlichen Differentialgleichungen bzw. differential-algebraischen Gleichungen als Nebenbedingungen bzw. über Methoden der modellprädiktiven Regelung für Anwendungen auf Optimalsteuerungsprobleme bei partiellen Differentialgleichungen zu vergleichen. Diese sollten gemeinsam entwickelt werden. Jeder der beiden Diplomandinnen war dann für "ihre" Beispielklassen zuständig. Gemeinsam sollten dann die numerischen Resultate dargestellt werden, um die jeweiligen Vor- und Nachteile der Methoden herauszuarbeiten. Der besseren Lesbarkeit der Arbeit wegen enthält aber jede Diplomarbeit auch die Teile der jeweils anderen Kooperationspartnerin.

Diese Vorgehensweise ist nicht nur aus inhaltlichen Gründen gerechtfertigt, sondern auch durch die Schwierigkeit des Gebietes und den Umfang der Aufgaben bedingt.

Inhaltsangabe. Die im Focus der beiden Diplomarbeiten stehenden instationären partiellen Differentialgleichungen, die mit ihren zugehörigen Anfangs- und Randbedingungen als Nebenbedingungen in Optimalsteuerungsproblemen auftreten, sind zwei Varianten mit derörtlich ein- und zweidimensionalen parabolischen Wärmeleitungsgleichung mitörtlich verteilter Steuerung und homogenen Neumann-Randbedingungen bzw. mit gesteuerten Robin-Randbedingungen (Randbedingungen dritter Art) sowie zwei Varianten derörtlich eindimensionalen Burgers-Gleichung, der parabolischen, aber konvektionsdominanten und daher "fast" hyperbolischen viskosen Burgers-Gleichung und der hyperbolischen, nicht-viskosen Burgers-Gleichung, jeweils mitörtlich verteilter Steuerung und homogenen Randbedingungen. Als Zielfunktional wird stets ein tracking-Funktional verwendet, bei dem eine vorgegebene Orts-Verteilung der Zustandsvariablen zu fest vorgegebener Endzeit optimal im Sinne der $L^2$-Norm angesteuert werden soll. Alle Probleme werden durch Einbeziehung eines zusätzlichen Terms in den Zielfunktionalen regularisiert, der die Kosten der Steuerung je nach Wahl des Regularisierungsparameters mehr oder weniger mitminimiert.

Zunächst werden die zweiten Ableitungen in den partiellen Differentialgleichungen mithilfe von Finite-Differenzen-Verfahren der Konsistenzordnung zwei diskretisert. Die partiellen Ableitungen ersten Ordnung werden mit Upwind-Verfahren der Konsistenzordnung eins diskretisiert. Die diversen Randbedingungen werden passend einbezogen.

Erste Simulationen zeigen durch Vergleiche mit dem PDE-Löser aus MATLAB und einem Problem mit bekannter analytischer Lösung die Korrektheit der Diskretisierung.

Dann treten Steuerung bzw. Optimale Steuerung gegen Regelung bzw. Optimale Regelung an. Obwohl verwandt, haben die Methoden dieser Gebiete verschiedene, aber auch sich überschneidende Zielrichtungen. Bei der (Optimalen) Steuerung eines dynamischen Systems wird eine festgelegte Abfolge von Eingangssignalen in das System eingegeben, die zuvor anhand eines mathematischen Modells des dynamischen Systems (optimal) bestimmt wurde. A priori unbekannte Störungen werden nicht berücksichtigt.

Die Regelung umfasst einen permanenten Vergleich zwischen gewünschtem Sollwert und dem gemessenen Istwert der interessierenden Ausgangssignale des dynamischen Systems und daraus folgend eine permanente Veränderung der Eingabesignale für das System mit dem Ziel, den Unterschied zwischen Soll- und Istwert zu verringern. A priori unbekannte Störungen werden berücksichtigt. Die optimale Regelung führt aufgrund von Beobachtungen (Messungen) automatische Eingriffe in das System durch, um den gewünschten Zustand des Systems optimal zu erzeugen oder zu bewahren.

Bei der modellprädiktiven Regelung (MPC steht für model predictive control wird eine zustandsabhängige Kontrollstrategie, also eine reine Feedback-Steuerung, gesucht, die basierend auf einer endlichen Zahl von Auswertungen des Zustandes (Abtastpunkte) neue Kontrollsignale berechnet, die zwischen den Abtastpunkten konstant gehalten werden, wobei das Steuerungsproblem über einem endlichen, sich mitbewegenden Zeithorizont optimiert wird, im Gegensatz zur Optimalen Steuerung, bei der über den gesamten Prädiktionshorizont optimiert wird. Hierbei wird dann aber nur der Wert der Steuerung im ersten Teilintervall des Prädiktionshorizontes verwendet, die restliche Kontrollfolge wird nach Neuberechnung verworfen. An den Abtastpunkten können demnach Sprünge auftreten.

Bei der Optimalen Steuerung kann man z.B. mit der Software NUDOCCCS von C. Büskens nach der Offline-Berechnung der optimalen Lösung des nominellen Problems die zugehörigen Sensitivitätsdifferentiale mitberechnen. Diese erlauben im Prinzip eine sehr effiziente Echtzeitsteuerung, mit der dann Modellungenauigkeiten und parametrische Unsicherheiten kompensiert werden können, sofern nominelle und aktuelle Trajektorie nicht zu weit voneinander abweichen, insbesondere aber die gleiche Schaltstruktur in den optimalen Steuerungen aufweisen. Leider zeigten die Untersuchungen in dieser Diplomarbeit, dass nur bei denörtlich eindimensionalen Aufgabenstellungen eine Berechnung der Sensitivitätsdifferentiale aus Gründen der Rechenzeit möglich war.

Der Vorteil von MPC gegenüber Optimaler Steuerung ist, dass diese von jedweder Vorausberechnung unabhängig ist, ja diese kann sogar oft nicht möglich sein. Sie ist daher vom Prinzip her auch unabhängig von der optimalen Schaltstrukur der aktuellen, gestörten optimalen Lösung. Auch hierbei erfolgt die Optimierung des dynamischen Systems auf den sich mitbewegenden Zeitfenstern über die Software NUDOCCCS.

Ein numerischer Vergleich anhand eines ersten Beispiels, der optimalen Randsteuerung für die eindimensionale Wärmeleitungsgleichung, offenbart eine (eigentlich zu erwartende) Schwäche des MPCs: Da ein Endzeit-Funktional vorliegt, reicht ein begrenzter Zeithorizont nicht aus, die vorgegebene Zustandsreferenz zum Endzeitpunkt hinreichend genau anzusteuern. Bei optimaler Steuerung ist das natürlich kein Problem, da über den gesamten Zeithorizont optimiert wird. Als Abhilfe wird daher vorgeschlagen, als Referenz nicht die Zustandsverteilung am Endzeitpunkt, sondern die gerade aktuelle optimale Lösung aus NUDOCCCS anzusteuern, diese also "nachzufahren". Hier liefert eine Vergrößerung des Prädiktionshorizontes keine Verbesserung der Resultate mit MPC. Insgesamt scheint diese Variante jedoch nicht sinnvoll, weil damit ja gerade gewisse Vorteile von MPC aufgegeben werden: Die optimale Lösung sollte ja a priori nicht bekannt sein.

Ähnlich verhalten sich die Resultate bei der 2D-Wärmeleitungsgleichung mit verteilter Steuerung (Kaiser-Hugel) und Randsteuerung (Vogel) sowie den beiden Varianten der Burgers-Gleichung. Bei den 2D-Problemen zeigt sich allerdings, dass man die Resultate mit Optimaler Steuerung erst nach einer Rechenzeit von Tagen erhält, die Resultate mit MPC zwar schon nach weniger als einer Stunde, aber dafür sind sie aus oben genannten Gründen leider nicht überzeugend. Eine Kopplung von Optimaler Steuerung und MPC wurde hier, da nicht sinnvoll, nicht mehr durchgeführt, zumal die Rechenzeiten für die Optimierung über den gesamten Zeithorizont prohibitiv gewesen wären.

Schließlich wurden noch Rechnungen mit abweichenden Parametern durchgeführt; sie sollten experimentell untersuchen, wie "sensitiv" das MPC-Verfahren auf Parameterunsicherheiten reagiert (Man beachte, dass die Optimierung dabei jeweils mit dem nominellen Parameter durchgeführt wurde und das ganze dann in die jeweiligen Gleichungen mit geändertem "unbekannten" Parameter eingesetzt wurde). Durch die iterative Neuoptimierung im MPC-Verfahren ergibt sich eine Rückkopplung, welche die Fehler durch die Parameterunsicherheiten zumindest in der Theorie teilweise ausgleichen sollte. Die Experimente zeigen, dass dies in gewissem Maße tatsächlich funktioniert.

Nadine Kaiser-Hugel:

Studium: Mathematik, U Bayreuth
Abschluss: 12/2006
Erste Anstellung: sofort nach Studienabschluss
Position: Gymnasiallehrerin
Firma: Gymnasium (Ort nicht bekannt)
Branche: Öffentlicher Dienst
E-Mail: kaiser_nadine"at"gmx.de


Stephanie Gallardo Yances geb. Vogel:

Studium: Mathematik, U Bayreuth
Abschluss: 12/2006
Erste Anstellung: sofort nach Studienabschluss
Position: Berechnungsingenieurin
Firma: Fossil Power Generation, Siemens AG, Erlangen
Branche:
E-Mail: stephanie.gallardo``at''gmx.de
Sonstiges: Frau Gallardo in ihrer Email vom 13.10.2013: Ich habe vor ein paar Jahren in ein anderes Team mit dem Namen 'Simulation und Optimierung von dynamischen Prozessen im Kraftwerk' gewechselt und beschäftige mich momentan wieder mit dem Thema Optimierung, was mir sehr viel Spaß macht. Wir entwickeln unsere Modelle auf Basis von Modelica und arbeiten überwiegend mit dem Simulationstool Dymola (Simulation) und JModelica (Simulation und Optimierung).


Analytical Modeling and Numerical Simulation of Unsteady Flows in Open Capillary Channels
von
Jörg Klatte

Joerg Klatte Aus "Abstract" und "Summary" der Diplomarbeit:
This thesis studies the effects and limits of unsteady liquid transport in open capillary channels. Analytical modeling and numerical computations are present for the capillary flow between parallel plates.

Open capillary channels are fluid channels with open sides. At the free surface there is a two phase interface between moving liquid inside the channel and the surrounding gas phase outside the channel. Due to capillary forces, the curvature of the interface is dependent on the gas and liquid pressure. At higher velocities the interface bends inward and restricts the liquid transport.

Liquid transport in open channels is restricted to environments where gravitational forces can be neglected, like in micro-scale channels or outer space. Today open capillary channels are successfully used for liquid management in all kind of space applications, like in satellites or at the International Space Station. The dominating effects of the surface tension can be used for transporting and positioning propellant to ensure gas free propellant supply for the operating system (see here). Capillary solutions are attractive because of their simple passive nature and their potential to improve system weight, volume, cost and reliability. Because of their simple structure, capillary solutions also have a great potential for earth applications. Microlabs-on-a-chip (see Annual Reviews of Fluid Mechanics 2006), also known as $μ$TASs (Micro Total Analysis Systems), is just one application of the biochemistry to run fast and cheap lab processes, like DNA testing or biomaterial analysis on a chip with micro-channels. Therefore, the effects and the limits of channel flow must be well understood to avoid greater design margins or redundancy.

Few publications that study a forced liquid flow through open capillary channels consider the limiting flow rates. The effects of the capillary channel flow consisting of two parallel plates is examined by Rosendahl and is well understood for steady flow rate $Q$. Jaekle applied a computational model for unsteady flow in an open rectangle vane. The present thesis derives analytical equations and performs numerical computations for the unsteady flow between parallel plates.

The basic equations, like the general mass balance, the momentum or the free surface equation were studied for the flow between parallel plates. Finally, a two-dimensional differential equation system, with additional time-dependent factors, was applied. In the scope of this theses a numerical tool was developed, which computes with a modified Lax method the disturbed mean velocity, the pressure and the free surface profile numerically within half an hour. Three disturbance models are available to study the dynamics of the capillary flow. The unsteady model can also recognize the choking phenomena of the channel flow.

For constant flow rate at the outlet the solutions were successful compared with the existing steady model. A smaller flow rate limit could be observed than expected from the steady model for a linear flow increase at the outlet. Due to the oscillation of the free surface, the limit is dependent on the speed of the flow rate change. For sufficient small changes the unsteady solution also tends to the steady solution for constant flow rates.

Aus der "Preamble" der Diplomarbeit:
Within the scope of my diploma thesis, I visited the United States of America from October 2005 to June 2006. PD Dr. Michael Dreyer of the Multiphase group at ZARM (Center of Applied Space Technology and Microgravity, University of Bremen, Germany) intended this international collaboration with Prof. Steven Collicott and Prof. Mark Weislogel.

The first four months Prof. Collicott was advising me as a research assistant at Purdue University (Department of Aeronautics and Astronautics, Purdue University, Lafayette, Indiana), which is proud of its "cradle for astronauts" reputation. Beside the work on my thesis, I was calculating numerical solutions for the paper of the capillary rise in the Vane-Wall Gap Geometry. Moreover Prof. Collicott, specialized in low-gravity fluid dynamics, provided me the opportunity to teach a lecture at Purdue and to visit the annual Aerospace Science Conference in Reno, Nevada.

In February 2006, I transferred to Portland State University (Department of Mechanical and Materials Engineering, Portland State University, Oregon), where I continued the cooperation with Prof. Weislogel. To study the dynamic contact line boundary condition and to gauge the accuracy of present commercial fluid software, we compared the numerical results to zero gravity sloshing experiments aboard the International Space Station. Moreover, we were studying the stability and the contact angle hysteresis of droplets on rough surfaces.

Before my journey started, I was working at the drop tower facility ZARM for seven months, as part of my practical semester for my studies at the University Bayreuth. By successfully solving multiphase flow problems in microgravity conditions, I was able to get in contact with Prof. Collicott and Prof. Weislogel at the international Drop Tower Days conference in Bremen.

Working together with international departments, experiencing the culture and the way of life at different parts of America was a great experience for myself. I believe that the exchange was also beneficial for all institutions and will lead to future collaborative research between them.

Studium: Technomathematik, U Bayreuth
Abschluss: 08/2006
Erste Anstellung: sofort nach Studienabschluss
1. Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bremen, ZARM (Zentrum für angewandte Raumfahrttechnologie und Mikrogravitation)
Branche: Öffentlicher Dienst
E-Mail: klatte"at"zarm.uni-bremen.de
Promotion: Herr Klatte wurde im Jahre 2011 an der Universität Bremen am Zentrum für angewandte Raumfahrttechnologie und Mikrogravitation, in der Arbeitsgruppe für Mehrphasenströmungen (PD Dr.-Ing. Michael Dreyer) zum Dr.-Ing. promoviert. Thema: Capillary Flow and Collapse in Wedge-Shaped Channels.
2. Position: Entwicklungsingenieur
Firma: Astrium Space Transportation, Bremen
Branche: Luft- und Raumfahrt


Schaltstrukturerkennung und Schaltpunkte-Optimierung bei Optimalsteuerungsproblemen
mit linear eingehenden Steuerungen am Beispiel eines Steuerungsproblems aus der Mikroökonomie

von
Matthias Lang

Mathematische Methoden sind heute oft unerlässliches Werkzeug bei der Lösung schwieriger Probleme in den Natur-, Ingenieur- und Wirtschaftswissenschaften, ja sogar in den sogenannten Life Sciences. Ihr Erfolg hat zur Einstufung der Mathematik als Schlüsseltechnologie beigetragen. In dieser Arbeit konzentrieren wir uns auf sogenannte Optimalsteuerungsprobleme. Hierbei werden die Zustände eines dynamischen Prozesses quasi von außen durch Steuerungen so beeinflusst, dass der Prozess, gemessen an einer vorgegebenen Zielgröße, optimal verläuft. Darunter fallen z.B. Aufgaben wie die Bestimmung des optimalen Schubprogramms eines Raumfahrzeugs für eine komplizierte Planetenmission, bei der eine möglichst große Nutzlast transportiert werden soll, die Berechnung zeit- oder minimaler Verfahrbahnen von Industrierobotern oder die Bestimmung des optimalen Feeds und der optimalen Kühlung und Aufheizung von Batchreaktoren in der chemischen Industrie, der gewinnmaximalen Steuerung eines Betriebes modelliert vermöge eines mikroökonomischen Modells oder der optimalen Dosierung von Chemotherapeutika bei der Tumorbehandlung, um nur einige wenige zu nennen.

Allen diesen oben genannten Beispielen gemein ist die Tatsache, dass einige oder evtl. sogar alle Komponennten des Vektors der Steuerungen linear sowohl in die Bewegungsgleichungen, als auch in das Zielfunktional eingehen. Erstaunlicherweise existieren gerade für diese, auf den ersten Blick einfacher klingenden Problemstellungen, im Vergleich zu Aufgaben mit nichtlinear eingehenden Steuerungen, einige der letzten großen Lücken, sowohl in der Theorie, als auch in der Numerik der Optimalen Steuerungen. Das Gebiet der Optimalen Steuerungen ist heute wohl erforscht, sofern man Nebenbedingungen in Form gewöhnlicher Differentialgleichungen zur Beschreibung der Prozessdynamik verwendet. Auch in dieser Diplomarbeit konzentrieren wir uns ausschließlich auf diesen Fall. Optimalsteuerungsaufgaben bei partiellen Differentialgleichungen sind dagegen ein hochaktuelles Forschungsgebiet, das erst am Anfang seiner Entwicklung steht.

Worin bestehen nun die Schwierigkeiten bei der Analyse und numerischen Lösung von Optimalsteuerungsproblemen mit linear eingehenden Steuerungen? Diese sind gegeben durch die Tatsache, dass das Minimumprinzip, die fundamentale notwendige Bedingung zur Bestimmung und expliziten numerischen Berechnung von Kandidaten für optimale Steuerungen auf sogenannte bang-bang oder singuläre Steuerungen führt. Im allgemeinen ist die Abfolge von Extremalenbögen mit bang-bang oder singulären Steuerungen a priori unbekannt und kann auch i. Allg. nicht sicher berechnet werden. Wegen der damit verbundenen Nicht-Regularität der Hamiltonfunktion sind in diesen Fällen auch keine allgemeinen hinreichenden Bedingungen bekannt, wenn man einmal von den extrem einfachen Fällen einer durchgehenden bang-bang-Struktur oder einer ausschließlich singulären Steuerung absieht.

Ausgehend von aktuellen Doktorarbeiten von Winderl (U Bayreuth) und Vossen (U Münster) wird dieses Defizit dadurch umgangen, dass das (unendlichdimensionale) Optimalsteuerungsproblem zunächst mithilfe einer Diskretisierung in ein endlichdimensionales, restringiertes nichtlineares Optimierungsproblem transformiert wird. Dafür werden die notwendigen Bedingungen der Optimalsteuerungstheorie nicht benötigt. Dann transformiert man das resultierende nichtlineare Programm um in ein sogenanntes Schaltintervall-Optimierungsproblem. Hierfür kann dann aber das Minimumprinzip zu Rate gezogen werden. Voraussetzung dafür ist, dass der verwendete Löser, in dieser Arbeit das Softwarepaket NUDOCCCS von Büskens, zuverlässig Schätzungen für die aus der Theorie der Optimalen Steuerung hervorgehenden adjungierten Variablen liefert. Diese werden nämlich zur Berechnung der die Schatstrukur bestimmenden Schaltfunktionen benötigt.

Für das letztendlich entstehende nichtlineare Programm, dessen optimale Lösung im wesentlichen hilft, die optimale Schaltstruktur zu verifizieren, lassen sich jedoch notwendige und hinreichende Bedingungen überprüfen. Ebenso können sogenannte Sensitivitätsdifferentiale berechnet werden, die auf hinreichenden Bedingungen basieren und die Empfindlichkeit der optimalen Lösung von Systemparametern messen können. Darüber hinaus bilden sie die Basis für echtzeitf$auml;hige Algorithmen wie NUDOCCCS, mit denen vorausberechnete optimale Steuerungen online nachjustiert werden können, wenn (unvermeidbare) Modellungenauigkeiten oder (unvorhersehbare) Parameterschwankungen auftreten.

Es muss jedoch herausgestellt werden, dass diese Vorgehensweise nach wie vor eine Lücke aufweist. Zum Nachweis der Konvergenz der optimalen Lösung des diskretisierten Problems gegen die optimale Lösung des ursprünglichen Optimalsteuerungsproblems werden wieder hinreichende Bedingungen benötigt, die bei den in dieser Arbeit im Zentrum stehenden Optimalsteuerungsaufgaben, wie bereits erwähnt, nicht bekant sind. Die Untersuchungen in dieser Diplomarbeit helfen also "nur", diese Lücke zu umgehen, um Anwenderprobleme praxisnahe zu lösen, auch wenn nicht garantiert werden kann, dass die berechneten Lösungen näherungsweise lokal optimal sind. "Gute" Kandidaten für lokale optimale Lösungen sind sie jedoch allemal. Und global optimale Lösungen sind im Allg. eh nicht berechenbar.

In dieser Diplomarbeit werden zwei Beispiele untersucht, die klassische Höhenrakete nach Goddard und ein hochkompliziertes mikroökonomisches Modell, das wegen seiner vier linear eingehenden Steuerungen und der damit verbundenen hochkomplexen Schaltstruktur mit zu den kompliziertesten bisher berechneten Optimalsteuerungsproblemen zählt. Die erzielten Ergebnisse gegen damit über die in der Dissertation von Winderl gewonnenen Ergebnisse hinaus und ermöglichen evtl. den Einsatz der Ersatzmethoden zum Nachweis hinreichender Bedingungen der Lösungen des Schaltintervall-Optimierungsproblems nach Vossen. Weitere Untersuchungen in dieser Richtung hätten aber den Rahmen dieser Diplomarbeit gesprengt.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 05/2006
Erste Anstellung: sofort nach Studienabschluss
Position:
Firma: BodeHewitt AG & Co. KG
Branche: Betriebliche Altersversorgung
E-Mail: matthiasglang"at"gmx.de


Modellieren mit Differentialgleichungen und deren numerische Behandlung
im Kontext des gymnasialen Mathematikunterrichts

von
Peter Maul

Peter Maul Aufgabenstellung: Die Diskrepanz zwischen allgemeiner Kenntnis in Mathematik und ihrer Bedeutung für den technologischen Fortschritt ist wohl in keinem anderen Schulfach so groß wie in Mathematik. Dies wird zudem noch verstärkt durch die allgemein verbreitete Unsitte, mit seiner Unkenntnis in Mathematik zu kokettieren, und durch veraltete Lehrinhalte an Gymnasien, die seit Jahren scheinbar resistent gegen$uuml;ber jeder Öffnung zu neuen Inhalten aus den Gebieten der modernen Mathematik sind.

Ziel dieser Zulassungsarbeit war es, ein Schulbuch zu schreiben, dass Lehrern und Schülern das Gebiet der Differentialgleichungen näherbringt und so darstellt, dass es für den Unterricht am Gymnasium verwertbar und verstehbar ist. Warum gerade Differentialgleichungen? Nun, die Lösung vieler praktischer Probleme in nahezu allen Wissenschaftsbereichen führt auf Differentialgleichungen. Deshalb sollte in dem Buch insbesondere dem Modellieren mit Differentialgleichungen ein breiter Raum gewährt werden. Damit kommt man dann auch der häfig gestellten Forderung nach mehr Praxisnähe entgegen. Da sich jedoch selbst einfach aussehende Differentialgleichungen nicht analytisch lösen lassen, wird man an numerischen Lösungsmethoden nicht vorbei kommen. Auch sie sind Gegenstand des Buches.

Inhaltsangabe:

Nach zwei einführenden Kapiteln über grundlegende Begriffe aus der Theorie der gewöhnlichen Differentialgleichungen sowie über die Behandlung von Existenz- und Eindeutigkeitsfragen und die Analyse numerischer Methoden, praktisch als Wiederholung bzw. Auffrischung für den Lehrer gedacht, bildet Kapitel 3 den Hauptteil des Buches für Schülerinnen und Schüler: Anfangswertprobleme im Unterricht.

Es werden so Fragen beantwortet wie: Warum sieht der Eiffelturm so aus, wie er aussieht? Stirbt Deutschland aus? Wieviele Menschen trägt die Erde? Dahinter stecken die grundsätzlichen Wachstumsprinzipien, exponentielles und logistisches Wachstum; sie sind omnipräsent bei der Modellierung vieler Phänomene in Naturwissenschaften und Ökonomie.

Auf Systeme von Differentialgleichungen, bei denen solche Wachstumsprinzipien gekoppelt sind, stößt man bei der Modellierung epidemiologischer und populationsdynamischer Phänomene. Warum kommen gewisse Epidemien schneller als andere zum Stillstand? Wie hoch muss die Durchimpfung einer Population sein? - übrigens gehorchen auch viele chemische Reaktionen diesen Gesetzen.

Ohne Numerik geht's nun nicht mehr: Das Euler-Cauchysche Polygonzugverfahren ist nicht nur simpel, sondern auch sehr hilfreich bei der numerischen Lösung dieser Probleme mithilfe von SCILAB, einer kostenfreien Variante von MATLAB - ein für den Unterricht wichtiger Punkt. "Sinnvolles" Umgehen mit Computern und Programmieren mit einer höheren, modernen Sprache lernt man also auch noch.

Die berühmten Räuber-Beutetier-Modelle nach Alfred James Lotka (1880--1949; 69), einemösterreichisch-amerikanischem Biophysiker, und Vito Volterra (1860--1940;80), einem italienischen Mathematiker, führen je nach Modellvariante auf periodische Lösungen oder Gleichgewichtslösungen. Stabilitätsfragen bei Differentialgleichungen "blitzen" hier kurz auf; ihre Behandlung würde jedoch zu weit führen.

Ein besseres Verfahren zur numerischen Lösung der Räuber-Beutetier-Gleichungen - eine analytische Lösung ist im Allg. nicht möglich - wird aber jetzt benötigt: Das Verfahren von Heun.

Den Abschluss der Beispiele bildet ein Katz-und-Maus-Verfolgungsspiel, vom Autor "Tom & Jerry"-Spiel genannt; dies war eine Aufgabenstellung aus dem schon traditionellen Mathematikkalender der Berliner Universitäten und mathematischen Forschungsinstitute.

Schließlich wird zum Schluss des 3. Kapitels mithilfe des Lorenz-Attraktors, einem nichtlinearen System 3. Ordnung und einem Minimodell mit ähnlichen Eigenschaften wie die modernen Wettergleichungen, die Gläubigkeit in die von einem Computer produzierten Zahlen in Frage gestellt: Seine kritische Analyse führt auf den Begriff der empfindlichen Abhängigkeit der Lösung eines Anfangswertproblems von seinen Daten - oft fälschlich mit Chaos bezeichnet.

Letztendlich bleibt dann für einen ersten Einstieg in das Gebiet der gewöhnlichen Differentialgleichungen noch die bisher nicht behandelte Frage zu beantworten, wann Lösungen von Anfangswertproblemen für gewöhnliche Differemtialgleichungen eindeutig sind und wann nicht.

Das Buch schließt ab mit einem großen Kapitel über Himmelsmechanik, sicherlich schwierig, aber faszinierend und äußerst lehrreich. Wann lernt man schon die grundlegenden Gesetze von Newton und Kepler in einem einheitlichen mathematischen Kontext in der Schule kennen? Und so nebenbei lernt man vieles über Ellipsen, Trigonometrie und die verschiedenen Koordinatensysteme zur Beschreibung der Planetenbahnen unseres Sonnensystems. Konkret werden, ausgehend vom allgemeinen N-Körperproblem, das planetare Zwei- und Dreikörperproblem mit SCILAB behandelt; wieder muss ein besseres numerisches Verfahren her: Das klassische Runge-Kutta-Verfahren.

Schließlich werden noch die Fragen beantwortet, ob unser Sonnensystem stabil ist bzw. wie lange mindestens und was die "Große Ungleichheit" in den Planetenbahnen von Saturn und Juppiter bewirkt. An der Lösung des letzten Phänomens, entdeckt von Edmond Halley (1656-1742; 86), haben sich viele berühmte Mathematiker versucht. Wesentliche Beiträge stammen von Euler, Lambert und Lagrange. Aber erst Laplace gelang im Jahre 1784 mithilfe seiner Störungsrechnung die vollständige Lösung.

Den Brückenschlag zur Moderne bildet schließlich die Berechnung von Satelliten im Gravitationsfeld von Erde und Mond, mathematisch durch das sogenannte eingeschränkte Dreiköperproblem beschrieben. Auch hier wird wieder eine Frage aufgeworfen, im bereits oben erwähnten Sinne: Gibt es Chaos bei Satellitenbahnen? Letztendlich wird noch auf die Nützlichkeit der Lagrangschen Punkte bei zukünftigen Raumflugmissionen eingegangen.

Der Autor beginnt sein Vorwort mit der Frage "Differentialgleichungen … auch das noch?" Ohne Zweifel ist man nach Lesen des "Schulbuches" überzeugt: "Differentialgleichungen … es ist einen Versuch wert!"

Studium: Lehramt Mathematik und Physik für Gymnasien, U Bayreuth
Abschluss: 7/2007
Referendariat: E.T.A.-Hoffmann Gymnasium Bamberg (Seminarschule)
Zweites Staatsexamen: 7/2009
Erste Anstellung: sofort nach Studienabschluss
Position: Studienrat
Schule: Kaiser-Heinrich-Gymnasium Bamberg
E-Mail: maulpeter"at"web.de


Numerische Berechnung optimaler Steuerungen bei elliptischen Differentialgleichungen:
Erst Diskretisierung, dann Optimierung

von
Michael Perner

und

Numerische Berechnung optimaler Steuerungen bei elliptischen Differentialgleichungen:
Erst Optimierung, dann Diskretisierung

von
Stefan Wendl

Stefan Wendl Michael Perner Diese beiden Diplomarbeiten sind Teile einer Gemeinschaftsarbeit von Michael Perner und Stefan Wendl. Ziel war es, anhand einer gemeinsamen Beispielsammlung von Optimalsteuerungsproblemen bei elliptischen Randwertproblemen zwei Lösungsmethoden miteinander zu vergleichen. Dazu mussten zunächst die theoretischen Grundlagen der Theorie Optimaler Steuerungen bei partiellen Differentialgleichungen gemeinsam erarbeitet werden. Jeder der beiden Diplomanden war dann für "sein" Verfahren zuständig. Gemeinsam sollten dann wieder die numerischen Resultate dargestellt werden, um die jeweiligen Vor- und Nachteile der Methoden herauszuarbeiten. Der besseren Lesbarkeit der Arbeit wegen enthält aber jede Diplomarbeit auch die Teile des Kooperationspartners.

Die Optimierung von zeit- undörtlich veränderlichen Prozessen, deren Dynamik durch partielle Differentialgleichungen beschrieben werden, ist ein hochaktuelles Forschungsgebiet der Angewandten Mathematik mit großem Anwendungspotential, etwa bei der Steuerung von Strömungsvorgängen, in der Herzmedizin, der Bildverarbeitung, bei der Tumorbehandlung durch Hyperthermie; die ingenieurtechnischen Anwendungen sind sogar geradezu unübersehbar.

Gegenüber der optimalen Steuerung von gewöhnlichen Differentialgleichungen treten bei der optimalen Steuerung mit partiellen Differentialgleichungen zunächst einmal viele Schwierigkeiten dadurch auf, dass man bei der Lösung des zugrundliegenden - in dieser Arbeit - elliptischen Randwertproblems schwache Lösungen zulassen muss. Dies macht eine funktionalanalytische Untersuchung der Aufgabenstellung in geeigneten Hilberträumen (Sobolev-Räumen) notwendig.

Basierend auf den bekannten Existenz- und Eindeutigkeitssätzen für schwache Lösungen von elliptischen Randwertproblemen kann man einen linearen, beschränkten und damit stetigen Lösungsoperator definieren, der jeder Steuerung aus der (konvexen) Menge der zulässigen Steuerungen eine eindeutig definierte Lösung des elliptischen Randwertproblems zuordnet. Diese wird Zustandsvariable oder kurz Zustand genannt. Damit kann man diesen theoretisch aus dem zu optimierenden (konvexen) Zielfunktional eliminieren. Aus Gründen der Einfachheit werden in dieser Diplomarbeit, wie zumeist auch in der Literatur, ausschließlich quadratische Zielfunktionen vom sogenannten tracking type behandelt. In den Diplomarbeiten werden sowohl regularisierte als auch nicht regularisierte Zielfunktionale zugelassen. Darüber hinaus sind in dieser Arbeit die zugrundeliegenden elliptischen Randwertprobleme stets linear.

Die Optimierung des auf diese Weise resultierenden abstrakten Optimierungsproblems in einem geeigneten Hilbertraum führt dann auf eine notwendige und hinreichende Optimalitätsbedingung in Form einer Variationsungleichung für das optimale Paar aus Zustand und Steuerung. In dieser Variationsungleichung kann dann der "variierte" Zustand, der der variierten Steuerung aus der Menge der zulässigen Steuerungen zugeordnet ist, durch den sogenannten adjungierten Zustand eliminiert werden. Dieser gehorcht ebenfalls einem elliptischen Randwertproblem und ist mit dem Randwertproblem für den Zustand gekoppelt.

Die transformierte Variationsungleichung erlaubt dann die Elimination der optimalen Steuerung über eine Projektionsformel oder als sogenannte bang-bang-Steuerung als Funktion von Zustand und adjungiertem Zustand. Diese muss iterativ so berechnet werden, dass das gegebene Zielfunktional minimal wird.

Damit liegt die erste numerische Lösungsmethode - erst optimieren, dann diskretisieren - auf der Hand: Man muss in jedem Iterationsschritt eines Optimierungsverfahrens [Gradientenverfahren, (präkonditioniertes) konjugiertes Gradientenverfahren (CG- bzw. PCG-Verfahren)] ein gekoppelte elliptisches Randwertproblem lösen, dass bei den hier untersuchten Beispielen stets von der Dimension 2 ist. Für diese Methode zeichnet Herr Wendl verantwortlich. Die Randwertprobleme werden dabei mit der Finiten-Element-Methode (FEM) numerisch gel$ouml;st. Diese sogenannte indirekte Methode, bei der die Optimalitätsbedingungen im Hilbertraum in jedem Iterationsschritt des Optimierungsverfahrens näherungsweise ausgewertet werden müssen, erfolgt auf MATLAB-Basis unter Verwendung des kommerziellen Finite-Element-Lösers COMSOL Muliphysics. Die Berechnung des für die Optimierung benötigten Gradienten der Zielfunktion erfolgt mithilfe des adjungierten Zustandes. Die näherungsweise Auswertung der Hessematrix - benötigt wird beim CG-Verfahren eigentlich nur eine Näherung des Produktes der Hessematrix mit einem Vektor - kann sehr effizient durch eine zusätzliche Auswertung des Gradienten des Zielfunktionals erfolgen. Pro Optimierungsiterationsschritt werden also nur 2 Aufrufe des FE-Lösers benötigt. Dies gilt jedoch nicht für das eigentlich bessere PCG-Verfahren. Der höhere Aufwand für das PCG-Verfahren durch Verbesserung der Kondition der zulösenden endlich-dimensionalen Optimierungsaufgabe zahlt sich für die hier untersuchten Beispiele jedoch nicht aus.

Die zweite Lösungsmethode - erst diskretisieren, dann optimieren -, für die Herr Perner verantwortlich zeichnet, basiert auf einer vollen Diskretisierung der partiellen Differentialgleichung für den Zustand. Die Optimalitätsbedingungen aus der Minimierung des abstrakten Optimierungsproblems im Hilbertraum spielen keine Rolle. Die Diskretisierung des elliptischen Randwertproblems für den Zustand erfolgt diesmal mithilfe finiter Differenzen (FD). Damit lässt sich das unendlich-dimensionale Optimierungsproblem in ein sehr großes endlich-dimensionales Optimierungsproblem transformieren, das mit spezieller, für sehr große Probleme geeigneter Software gel$ouml;st werden kann. Verwendet wird hier die Barriere- bzw. Innere-Punkte-Methode IPOPT von Andreas Wächter, die man mittels der Modellierungssprache AMPL relativ komfortabel aufrufen kann. Obwohl auch bei dieser Vorgehensweise das endlich-dimensionale Optimierungsproblem quadratisch ist, wurde wegen der allgemeineren Verwendbarkeit bewusst ein allgemeiner Löser für sehr große, restringierte, nichtlineare Optimierungsprobleme eingesetzt.

Die numerischen Vergleiche der beiden Methoden werden anhand von vier Modellproblemen aus der Literatur durchgeführt, einer zweidimensionalen Laplace-Gleichung mit einer gesteuerten Robin-Randbedingung auf dem Einheitskreis und bekannter analytischer Lösung, einer Poisson-Gleichung mit Dirichletscher Randbedingung auf dem Einheitsquadrat und einer verteilten Steuerung im Innern und ebenfalls bekannter analytischer Lösung, einer weiteren Poisson-Gleichung auf dem Einheitsquadrat mit Neumannscher Randbedingung und verteilter Steuerung sowie als Besonderheit, einer Poisson-Gleichung, ebenfalls auf dem Einheitsquadrat, aber mit einer Dirichletschen Randsteuerung. Für letzteres Beispiel gestaltet sich im übrigen die Analysis der notwendigen und hinreichenden Bedingungen grundsätzlich verschieden von jener der übrigen Beispiele. In allen Fällen kann man jedoch mithilfe der formalen Lagrangetechnik die Optimalitätsbedingungen aufstellen. Die Analyse von Dirichletschen Randbedingungen ist aktuelles Forschungsgebiet und würde den Rahmen dieser Diplomarbeit sprengen. Für die übrigen Beispiele ist der Beweis der Herleitung der Optimalitätsbedingungen nach einem kürzlich erschienenen Buch von Fredi Tröltzsch skizziert.

Der Vergleich der numerischen Lösungsmethoden ergibt, das die indirekte Methode über COMSOL Multiphysics hinsichtlich der zugrundeliegenden Geometrie allgemeiner anwendbar ist, während die direkte Methode über AMPL/IPOPT nur auf rechteckige Gebiete oder solche, die auf rechteckige Gebiete transformierbar sind, anwendbar ist. Dies kehrt sich jedoch um, wenn man Zustandsbeschränkungen berücksichtigen wollte - was in der vorliegenden Diplomarbeit allerdings nicht untersucht worden ist. Dennoch lässt sich sagen, dass diese im Prinzip genauso einfach zu behandeln wären wie Steuerungsbeschränkungen. Jedoch muss man dabei die verwickelten theoretischen Probleme beachten, die mit der Behandlung von Zustandsbeschränkungen verbunden sind und derzeit Gegenstand intensiver Forschungen sind.

Hinsichtlich der Handhabung der beiden Methoden sind die Unterschiede enorm. Die indirekte Methode erfordert viel Vorwissen aus der Theorie optimaler Steuerungen, auch der Implementierungsaufwand ist erheblich, da ein geeignetes Optimierungsverfahren erst noch implementiert werden musste. Handhabung und Implementierungsaufwand sind demgegenüber bei der direkten Methode einfach und schnell zu erledigen. Der Rechenzeitbedarf ist bei der direkten Methode erstaunlich gering bei durchaus hoher Genauigkeit.

Abschließenden kann man sagen, dass die Wahl der in den beiden Diplomarbeiten entwickelten Methoden von den zu lösenden Problemstellungen abhängt und damit in erster Linie durch die Form des Gebietes gegeben ist.

Michael Perner:

Studium:Wirtschaftsmathematik, U Bayreuth
Abschluss: Oktober 2006
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Technische Universität München, Lehrstuhl für Regelungstechnik
Branche: Öffentlicher Dienst
E-Mail: perner at tum.de
Homepage: http://www.rt.mw.tum.de/de/personen/mitarbeiter/?mid=33


Stefan Wendl:

Studium: Mathematik mit Nebenfach Physik, U Bayreuth
Abschluss: Oktober 2006
Erste Anstellung: Februar 2007
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
E-Mail: stwendl"at"web.de
Homepage an der UBT: http://www.ingmath.uni-bayreuth.de/Wendl
Sonstiges: Herr Wendl hatte u.a. ein Stipendium im Internationalen Doktorandenkolleg Identifikation, Optimierung und Steuerung für technische Anwendungen im Rahmen des Elitenetzwerks Bayern inne. Er hat kürzlich an der Fakultät für Mathematik, Physik und Informatik der Universität Bayreuth eine Dissertation mit dem Thema On a Prototype of an Optimal Control Problem Governed by Ordinary and Partial Differential Equations eingereicht. Betreuer: Prof. Pesch.


Dynamische Systeme aus der Biomathematik
von
Tobias Ramming

Tobias Ramming Zentrales Interesse gilt in dieser Diplomarbeit den Anwendungen der Mathematik in den Gebieten, die man im weiteren Sinne im Englischen unter dem Begriff "Life Sciences" zusammenfasst, also etwa Biologie, Biochemie und anderen Wissenschaften, die sich im engeren oder weiteren Sinn mit dem Leben beschäftigen. Mathematische Modelle haben in diesen Gebieten in den letzten Jahren und Jahrzehnten teilweise zu erheblichen Fortschritten geführt. In der Arbeit wird exemplarisch dargestellt, wie man auf diesen Gebieten zu mathematischen Modellen gelangt und wie die resultierenden dynamischen Systeme mit unterschiedlichen mathematischen Methoden behandelt werden können. Die Arbeit gliedert sich in drei zentrale Bereiche:

Das erste Kapitel behandelt Fragen der Populationsdynamik, wobei hier vor allem Fragen nach einer stabilen Koexistenz der Spezies untersucht werden. Vom mathematischen Standpunkt handelt es sich hierbei um die Frage nach asymptotisch stabilen Punkten des Systems in Abhängigkeit der bestimmenden Parameter. Die Untersuchung eines Modells von J.C. Flores (1998) zur Modellierung des Wettbewerbs zwischen Neanderthalern und dem frühen Menschen ergibt Hinweise auf das in der Biologie bedeutsame Korkurrenzausschlussprinzip. Ein zweites Modell beschäftigt sich mit der Interaktion zwischen Plankton und Pflanzenfressern. Hierbei erkennt man grundlegende Voraussetzungen einer stabilen Räuber-Beute-Beziehung, die durchaus auch auf andere Systeme übertragbar erscheinen.

Das zweite Kapitel beschäftigt sich mit Modellen für die Aktivität neuronaler Zellen. Charakteristische Eigenschaften dieser Modelle sind das Zerfallen der Dynamik in zwei Zeitebenen und die Erregbarkeit dieser Systeme. Diese Erregbarkeit ist Basis für die Modellierung neuronaler Aktionspotentiale. Treten diese in schneller Abfolge auf, so lassen sich Effekte wie das neuronale Feuern simulieren und untersuchen. Wird dieses Feuern periodisch durch Phasen der Ruhe unterbrochen, so spricht man von Bursting. In der Arbeit wird ein Modell für dieses Bursting untersucht und anschließend simuliert um die Vorhersagen zu verifizieren. In der Analyse derartiger Modelle spielen Bifurkationen eine zentrale Rolle.

Das Thema des letzten Teils der Arbeit ist die Enzymkinetik. Bei der Modellierung enzymgesteuerter Reaktionen treten typischerweise singulär gestörte dynamische Systeme auf, deren Lösungen für sinkende Enzymkonzentrationen zum Startzeitpunkt nicht-gleichmäßiges Verhalten zeigen. Mit Hilfe des Verfahrens von O´Malley-Hoppensteadt wird hier die Näherung zweiter Ordnung für die Basisreaktion berechnet und mit numerischen Ergebnissen verglichen. Zuletzt wird mit Hilfe der Quasi-Steady-State-Approximation die für die Anwendung wichtige Reaktionsrate für die Reaktion der gemischten Hemmung berechnet.

Studium: Mathematik mit Nebenfach Physik und Lehramt Mathematik und Physik, U Bayreuth
Abschluss Diplom: 7/2007
Abschluss Lehramt: 12/2006
Erste Anstellung: 09/2007
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Institut für Mathematik
Branche: Öffentlicher Dienst
E-Mail: Tobias.Ramming"at"uni-bayreuth.de
Homepage: Homepage von Tobias Ramming
Promotion: an der Universität Bayreuth mit der Dissertation Über Familien sphärisch symmetrischer stationärer Lösungen des Vlasov-Poisson-Systems. Betreuer: Prof. Rein.
Sonstiges: Herr Ramming ist zurzeit Wissenschaftlicher Assistent (Postdoc) am Lehrstuhl für Angewandte und Numerische Analysis von Prof. Wendland, Mathematisches Institut der Universität Bayreuth.


Portfolio-Optimierung mittels des dualen Critical-Line-Algorithmus:
Analyse, Implementierung und Vergleichstests mit dem primalen Algorithmus

von
Stephan Schott

und

Portfolio-Optimierung mittels des primalen Critical-Line-Algorithmus:
Analyse, Implementierung und Vergleichstests mit dem dualen Algorithmus

von
Martin Uhl

Martin Uhl Stephan Schott Vorbemerkung. Diese Diplomarbeit wurde nach dem sogenannten "$Φ$-Modell" angefertigt: Dabei arbeiten zwei Diplomanden an eine gemeinsamen Thema zusammen, bei dem - wie bei dieser Diplomarbeit - zwei verschiedene, hier sogar "verwandte" Verfahren gegeneinander in einen Wettstreit treten. Nach einer gemeinsam erarbeiteten oder in Teilen aufgeteilten Einführung in das zu bearbeitende Gebiet teilt sich der Mittelteil der "gemeinsamen" Arbeit in (mindestens) zwei parallele, individuell zu bearbeitende Äste, in denen z.B. die verschiedenen Algoritmen analysiert, implementiert und an einer gemeinsamen Beispielsammlung getestet werden. Der Schlussteil, der den Vergleich der beiden Verfahren und ihre kritische Analyse enthält, muss dann in jedem Fall gemeinsam abgefasst werden, um einen möglichst objektiven Vergleich der beiden Methoden zu erhalten.

Der besseren Lesbarkeit wegen wurden alle Teile der beiden Diplomarbeiten so geschrieben, dass sie als ein gemeinsamens Werk "zusammengeschoben" werden können. Die hier vorliegende Diplomarbeit von Herrn Schott umfasst also auch jene Teile, die von dem zweiten Diplomanden, Herrn Martin Uhl, verfasst worden sind. Der Titel seiner Diplomarbeit lautet Portfolio-Optimierung mittels des primalen Critical-Line-Algorithmus - Analyse, Implementierung und Vergleichstests mit dem dualen Algorithmus. In der Einleitung wird die individuelle bzw. gemeinsame Autorenschaft der einzelnen Kapitel herausgestellt.

Herrn Schotts Beitrag umfasst die Kapitel 2 und 4 (ohne Abschnitt 4.4), die Abschnitte 5.2 und 6.2 sowie alle Inhalte von Abschnitt 7, die sich nicht auf die numerischen Resultate des primalen Algorithmus beziehen.

Herrn Uhls Beitrag umfasst die Kapitel 1 und 3, die Abschnitte 5.1 und 6.1 sowie alle Inhalte von Abschnitt 7, die sich nicht auf die numerischen Resultate des dualen Algorithmus beziehen. Gemeinsam verfasst wurde Abschnitt 6.3.

Inhaltsangabe. Von Harry M. Markowitz, der 1990 für seine Portfolio-Theorie und seine moderne Kapitalmarkttheorie den Nobelpries bekam, stammt das Zitat: Ein gutes Portfolio ist mehr als eine lange Liste von Wertpapieren. Es ist eine ausbalancierte Einheit, die dem Investor gleichermaßen Chance und Absicherung unter einer Vielzahl von möglichen Entwicklungen bietet.

Die traditionelle, fundamentale Aktien-Analyse geht von einem zielgerichtet-rationalen Verhalten aller Marktteilnehmer aus, deren Hauptmotivation Ertragsstreben ist, so dass jeder Aktienkurs aufgrund der sich herausbildenden Angebots- und Nachfragekonstellation langfristig um seinen inneren Wert oszillieren sollte, der sich aus einem in bestimmter Weise abgeleiteten Ertragswert ergibt. Demnach ist also nur die monovariable Zielfunktion "Rendite" Gegenstand quantitativer Überlegungen, die Zusammensetzung des Depots erfolgt lediglich nach qualitativen Gesichtspunkten.

Im Gegensatz dazu werden in der modernen Portfoliotheorie nach Markowitz - im Jahre 1952 veröffentlichten Allen Douglas Roy und Harry Max Markowitz übrigens unabhängig voneinander Modelle zur optimalen Depotzusammensetzung - mittels eines mathematisch-statistischen Ansatzes Portfolio-Zusammensetzungen berechnet, die ein Optimum bzgl. der beiden konkurrierenden Hauptanlageziele Ertragsmaximierung und Risikominimierung darstellen. Mathematisch gesehen liegt hier also ein sogenanntes Pareto-Optimierungsproblem mit einer zweidimensionalen Zielfunktion vor, das ja im Allg. unendlich viele Lösungen aufweist. Man kann stattdessen aber auch einen Mindest-Erwartungswert für die Rendite vorgeben und minimiert dann das Risiko: Man wählt somit unter den im Allg. unendlich vielen Pareto-Optima eines aus. Man nennt das resultierende Portfolio dann risikoeffizient. In dieser Arbeit wird aber auch die Kurve aller Pareto-Optima berechnet, die auf der sogenannten Efficient Fontier liegen.

Nach Markowitz geht man davon aus, dass jeder Anleger möglichst hohe Erträge aus Kursgewinnen und Dividenden erzielen will und danach seine Anlagemöglichkeiten (Assets) auswählt, wobei allerdings die zugehörigen Riskiken mitberücksichtigt werden müssen. Betrachtet man den zukünftigen Ertrag einer Aktie statistisch als eine normalverteilte Zufallsgröße und als Maß für das zugehörige Anlagerisiko deren Standardabweichung oder Varianz - letztere bietet rechentechnische Vorteile -, so lassen sich Formeln für Erwartungswert und Varianz eines Gesamtportefeuilles aus einzelnen gegebenen Assets angeben. Dabei sind die Gewichte der Assets die zu bestimmenden Unbekannten eines Optimierungsproblems. Eine Analyse zeigt überdies, dass man unter gewissen Annahmen durch eine geeignete Gewichtung der Assets ein im Vergleich zu den Einzelinvestitionen geringeres Risiko erzielen kann.

Mathematisch führen diese Überlegungen auf spezielle quadratische Optimierungsprobleme mit linearen Gleichungs- und Ungleichungsrestriktionen.

Die mathematischen Grundlagen für quadratische Optimierungsprobleme mit positiv definiter Matrix des quadratischen Terms auf abgeschlossenen und beschränkten Teilmengen des $R^n$ werden in Kapitel 2 dargestellt. Solche Optimierungsprobleme besitzen ein eindeutig bestimmtes globales Minimum, das sich durch die bekannten Karush-Kuhn-Tucker-Bedingungen (KKT-Bedingungen) charakterisieren lässt. Eine wesentliche Voraussetzung ist hierbei die Abadie Constraint Qualification (ACQ); sie ist erfüllt, wenn die (bekanntere) Linear Indepence Constraint Qualification (LICQ) erfüllt ist. Letztere besagt, dass die die Gleichungs- und Ungleichungsrestriktionen beschreibende Matrix vollen Rang besitzt. Für konvexe quadratische Optimierungsprobleme sind die KKT-Bedingungen sowohl notwendig als auch hinreichend. Die ACQ ist bei linearen Nebenbedingungen zudem immer erfüllt. Liegen überdies nur lineare Gleichungsrestriktionen vor, dann lässt sich die Minimalstelle sogar direkt berechnen.

Schließlich werden noch die Beziehungen zwischen dem sogenannten primalen Problem - das ist hier das ursprüngliche Optimierungsproblem zur Bestimmung der optimalen Assetgewichte - und dem sogenannten dualen Problem dargestellt. Letzteres ist ein Sattelpunktsproblem für die zum primalen Problem gehörige Lagrangefunktion. Es gilt zum Beispiel: Jeder primal zulässige Punkt beschränkt den Zielfunktionswert des dualen Problems nach oben und umgekehrt, jeder dual zulässige Punkt beschränkt den Zielfunktionswert des primalen Problems nach unten. Und weiter: Ist eine Lösung des dualen Problems bekannt, lässt sich auch die primale Lösung sofort angeben. Der Vorteil des dualen Problems, ebenfalls ein quadratisches Optimierungsproblem, liegt in einer einfacher angebbaren konvexen Menge der zulässigen Lösungen. Schließlich ist seine Dimension kleiner als die des primalen Problems, wenn die Summe der Restriktionen kleiner als die Zahl der Asset-Gewichte ist. Ein Nachteil ist, dass die Matrix des quadratischen Terms des dualen Problems nicht notwendig positiv definit sein muss; das duale Problem kann also unendlich viele Lösungen haben, die allesamt globale Lösungen des primalen Problems (mit gleichem Zielfunktionswert) sind. Dies entspricht der Nichteindeutigkeit der Lagrangeparameter im primalen Problem.

In Kapitel 3 werden dann für gleichungsbeschränkte Probleme alle risikoeffizienten Portfolios charakterisiert; sie liegen auf einem Hyperbelast, der sogenannten Efficient Frontier. Für realitätsnahe Probleme müssen jedoch auch Ungleichungsrestriktionen behandelt werden. In Kapitel 4 wird dann gezeigt, wie man in endlich vielen Schritten eine Lösung solcher Probleme - sofern diese existieren - berechnet, indem man eine Folge von gleichungsrestringierten Problemen löst. Daraus resultieren zwei Verfahren, ein primales (Diplomarbeit Uhl) und ein duales (Diplomarbeit Schott) Verfahren, deren Algorithmen in den Abschnitten 4.4 (Uhl) und 4.5 (Schott) dargestellt werden. Kapitel 5 ist dann den Eigenschaften und der Berechnung der Efficient Frontier gewidmet, resultierend in dem sogenannten Critical Line Algorithmus.

Die MATLAB-Implementierungen des primalen (Uhl) und des dualen (Schott) Algorithmus zur Berechnung des Minimumvarianz-Portfolios sowie des Critical Line-Algorithmus (Schott und Uhl) bzw. deren Pseudo-Codes werden in Kapitel 6 beschrieben. Numerische Tests beschließen dann die Arbeit mit Kapitel 7, wobei die erhaltenen Ergebnisse auch noch mit jenen verglichen werden, die mithilfe der MATLAB-Routine quadprog erzielt wurden.

Zusammenfassend kann festgestellt werden, dass die positive Definitheit der Matrix des quadratischen Terms wesentlich für beide Algorithmen ist. Es zeigt sich, dass bei Problemen höherer Dimension (etwa n > 100) der primale Algorithmus klar im Vorteil ist. Der Vorteil des dualen Algorithmus liegt darin, dass - im Falle der Existenz einer Lösung - das Minimumvarianz-Portfolio auf jeden Fall berechnet werden kann.

Stephan Schott:

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 07/2006
Erste Anstellung: sofort nach Studienabschluss
Position:
Firma: RISK-CONSULTING Prof. Dr. Weyer GmbH, Köln
Branche: Dienstleistung: Aktuarielle Risikobewertung, Gesundheitsmanagement, Database-Marketing
E-Mail: stephan.schott"at"web.de


Martin Uhl:

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 07/2006
Erste Anstellung:
1. Position: Consultant
Firma: Dr. Nagler und Company GmbH, Schnaittenbach
Branche: Finanzdienstleister
Zweite Anstellung:
2. Position: Consultant
Firma: KPMG, München, Frankfurt, etc.
Branche: Weltweites Netzwerk von Wirtschaftsprüfungs- und Beratungsunternehmen
Tätigkeit: Unternehmensberater im Bankensektor
E-Mail: uhlson``at''web.de


Optimale Mischung von Sanden unter unsicherer Lagerinformation
von
Stefanie Sutter

Dieses Diplomarbeitsthema wurde von Herrn Dr. Kastner-Maresch von der Firma LivingLogic, Bayreuth, an den Gutachter herangetragen. Frau Sutter, bereits bei dieser Firma zeitweise beschäftigt, sollte dieses Thema im Rahmen ihrer Diplomarbeit bearbeiten. Nachdem sich herausstellte, dass der mathematische Hintergrund in den Kompetenzbereich meines Kollegen, Prof. Jörg Rambau, fällt, hat er dankenswerterweise die Betreuung übernommen.

Sand und Kies, uns allen von vielen Stränden bekannt, sind äußerst vielfältig, lassen sich nach ihrer Zusammensetzung und ihrer Korngröße unterscheiden, und insbesondere Sand ist, was man vielleicht nicht glauben mag, ein Basisprodukt für viele Hochtechnologieprodukte. Wir finden Sand, speziell Quarzsand (Siliziumdioxid) nicht nur in unserer Zahnpasta, in allen Gläsern, sondern als reines Silizium in praktischen allen Produkten der Mikroelektronik, in denen Halbleiter Verwendung finden. Gleiches gilt für zahllose Hochleistungswerkstoffe im Motoren-, Maschinen- und Anlagenbau, deren Ausgangsprodukte meist getrocknete Quarzsande, Quarzkiese oder Quarzmehle sind (z.B. auch für die Formel 1). Quarzfüllstoffe vermindern den Kunststoffbedarf und helfen somit unmittelbar bei der Reduzierung des Erdölverbrauchs und der CO2-Emissionen. Sand ist also überall um uns herum "drin".

Hintergrund dieser Diplomarbeit ist folgendes Mischungsproblem. Gegeben ist eine bestimmte Menge von Silos, die mit Sanden eines bestimmten Körnungsverhältnisses (aus verschieden Sandgruben) gefüllt sind. Die Körnungsverhältnisse je Silo können anhand von Proben mithilfe eines Siebroboters experimentell bestimmt werden. Man soll nun aus den Sanden der verschiedenen Silos eine neue Sandmischung mit vorgegebener Korngrößenverteilung optimal zusammenmischen. Dabei können die Silos während des Mischungsvorganges leerlaufen, da ihre Füllmenge nur ungenau bestimmt werden kann. Die mathematische Optimierung des zugrundeliegenden restringierten quadratischen Optimierungsproblems erfolgt bei der Firma LivingLogic derzeit mit dem Wolfe-Algorithmus.

Nach erfolgreicher (optimaler) Mischung wird noch eine Endprobe von der Charge genommen; es kann dabei zu mehr oder weniger großen Abweichungen kommen, zumal die Charge nicht mehr homogen durchgemischt werden kann.

Das derzeit in der Realität verwendete mathematische Modell ist ein restringiertes lineares Ausgleichsproblem, welches sich nach Diskretisierung des integralen Zielfunktionals in ein restringiertes quadratisches Optimierungsproblem mit positiv semidefiniter Systemmatrix transformieren lässt. Das Problem ist also konvex. Bei dem Verfahren von Wolfe werden die Kuhn-Tucker-Bedingungen ausgewertet. Das resultierende System aus Gleichungen und Ungleichungen lässt sich dann in ein lineares Optimierungsproblem überführen, welches mit dem Simplex-Verfahren gel$ouml;st werden kann.

Zu dem Verfahren von Wolfe gibt es jedoch Alternativen, von denen zwei in der Diplomarbeit diskutiert wurden: Bei dem Verfahren zulässiger Richtungen wird eine konvexe, stetig differenzierbare Funktion unter linearen Restriktionen iterativ über eine Folge von Minimierungsproblemen in einer Variablen minimiert. Beim Penalty-Verfahren wird die Verletzung der Restriktionen im Zielfunktional bestraft. Die Minimallösung wird dabei durch eine Folge unrestringierter Minimierungsprobleme approximiert.

Wie behandelt man nun das Leerlaufen eines Silos? Bisher wird in diesem Falle die Optimierung ohne das leergelaufene Silo wiederholt. Dies führt bei der Gesamtmischung hinsichtlich der Qualitätsendkontrolle zu einer problematischen Schichtenbildung in der Charge. Aufgabe ist es, die Reoptimierung und die damit einhergehenden Probleme zu vermeiden. Eine mathematische Modellierung (im Sinne robuster Optimierung), bei der die Füllmenge je Silo (bis auf fest vorgegebene Unsicherheiten intervallweise) bekannt ist, führt zu einer weiteren Nebenbedingung, die in dem Optimierungsproblem berücksichtigt werden muss. Bei der robusten Optimierung (Variante in Klammern) versucht man, unter allen schlechten Ergebnissen das beste zu finden.

Anhang konkreter Daten wird dann in Testrechnungen die Leistungsf$auml;higkeit der verschiedenen Modellierungen (Reoptimierung, Berücksichtigung der Füllstände ohne Unsicherheiten bzw. mit Unsicherheiten im robusten Sinne) und den daraus resultierenden Verfahren getestet. Diese werden über die Modellierungssprache AMPL bzw. ZIMPL mit dem Hochleistungs-Simplexlöser CPLEX realisiert. Vergleichsrechnungen zeigen, dass die Berücksichtigung der Füllstände Vorteile gegenüber der Reoptimierung bietet, eine Optimierung im robusten Sinne ist dagegen nicht empfehlenswert bzw. dürfte dem Kunden nicht vermittelbar sein, da sie von extrem pessimistischen Annahmen ausgeht.


Studium: Technomathematik, U Bayreuth
Abschluss: 12/2006
Erste Anstellung: noch vor Studienabschluss
Position: Softwareingenieurin
Firma: LivingLogic, Bayreuth
Branche: Web Content Management, Web-Marketing und Branchenlösungen für den Mittelstand
E-Mail: steffi-sutter"at"gmx.de


2007


Hinreichende Optimalitätsbedingungen für Optimalsteuerungsaufgaben mit bang-bang und singulären Steuerungen: Theorie, Herleitung und Anwendung auf ein Beispiel
von
Stefan Allescher

Inhaltsangabe. In Zeiten knapper Ressourcen stellt sich die Frage nach deren optimaler Verwendung. So treten in nahezu allen Bereichen der Technik, der Wissenschaft und auch der Wirtschaft Fragestellungen auf, die Entscheidungen über den Einsatz von Materialien, Kapital oder des Faktors Zeit erfordern. Die mathematische Modellierung dieser realen Vorgänge spielt eine immer wichtiger werdende Rolle. Diese lassen sich häfig durch Systeme von Differentialgleichungen beschreiben, die wiederum oft von außen durch Steuergrößen beeinflusst werden können. Ist dies der Fall, wird von optimalen Steuerprozessen gesprochen. Das Ziel ist es dann, unter Optimalitätskriterien bestimmte Steuerfunktionen zu identifizieren. Ein bekanntes Beispiel ist die Maximierung der Höhe einer vertikal aufsteigenden Rakete unter Berücksichtigung von Widerstand und Schwerkraft, das so genannte Goddard-Problem.

Der Spezialfall einer in der Modellierung linear auftretenden Steuervariablen verdient besondere Beachtung. Diese kann in wirtschaftlichen Problemstellungen ein Verhältnis zwischen Investitionen in verschiedene Sektoren oder zwischen Eigen- und Fremdkapital ausdrücken. Im erwähnten Goddard-Problem entspricht die Steuergröße dem Schub der Rakete. Hier kann jeweils die Erfüllung der so genannten strengen Legendre-Clebsch-Bedingung, die ein wichtiges Optimalitätskriterium bei nichtlinear eingehenden Steuerungen darstellt, nicht vorausgesetzt werden. Durch eine in dieser Arbeit nicht näher behandelte Regularisierung des Steuerproblems durch die Hinzunahme einer quadratischen Kostenfunktion kann diese Schwierigkeit umgangen werden. Jedoch wird dadurch die Aufgabenstellung oft nicht unerheblich verfälscht.

Bei Problemen mit linear eingehender Steuerungsfunktion treten generell drei verschiedene Typen von optimalen Steuerungen auf. Verläuft sie überall an den Rändern des Steuerbereichs, bezeichnet man sie als bang-bang Steuerung. Ist dies nicht der Fall, ist sie singulär. Besteht die Steuerung sowohl aus bang-bang als auch aus singulären Teilstücken, wird sie bang-singulär genannt. Für diesen Fall untersuchte erstmals Georg Vossen, U Münster, hinreichende Optimalitätsbedingungen. Dabei wird zunüchst das Hilfsmittel der Multiprozessformulierung gewählt, wobei die Zustands- und Steuervariablen auf jedem Teilstück gesondert betrachtet werden. Durch die so genannte Goh-Transformation werden Zustands- und Steuerungsvariationen eingeführt, anhand derer eine bestimmte Koerzivitätsbedingung aus den hinreichenden Bedingungen überprüft werden kann. Dies geschieht schließlich durch die Bestimmung einer Lösung gewisser Riccati-Differenzialgleichungen.

In der vorliegenden Arbeit werden zunächst Grundlagen zu optimalen Steuerprozessen vorgestellt. Zudem werden insbesondere zu Problemen mit linear eingehender Steuerung notwendige Optimalitätsbedingungen angegeben, anhand welcher in einem Beispiel schließlich eine Lösung bestimmt wird. Kapitel 2 befasst sich ausführlich mit der Herleitung der hinreichenden Optimalitätsbedingungen. Zunächst werden reguläre Steuerungen betrachtet, d.h. solche, bei denen die Minimumbedingung fast überall eindeutig lösbar ist. Zu dieser Kategorie zählen die bang-bang Steuerungen. Die anschließend behandelten nichtregulären Steuerungen beinhalten singuläre Teilstücke. Optimalitätsbedingungen werden mit Hilfe der Goh-Transformation für Probleme mit total singulärer und bang-singulärer Steuerung vorgestellt, wobei analog zu Vossons Dissertation vorgegangen wird. Eine Anleitung zur Überprüfung der hinreichenden Optimalitätsbedingungen wird in Kapitel 3 gegeben. Anhand eines Beispiels, der optimalen Steuerung des in der Physik weithin bekannten Van der Pol-Oszillators, werden diese exemplarisch formuliert und durch die Mehrziel-Software MUMUS von Hiltmann et al. numerisch ausgewertet.

Die vorliegende Arbeit liefert also insbesondere eine Anleitung zur Überprüfung der von Vossen, U Münster, vorgestellten neuen hinreichenden Optimalitätsbedingungen für Probleme mit linear eingehender Steuervariable. Ein besonderes Augenmerk wird dabei auf das Auftreten einer bang-singulären Steuerungsfunktion gelegt. Somit kann die Diplomarbeit als Leitfaden zur Lösung ähnlich gelagerter Problemstellungen dienen. Für Modelle niedriger Komplexität, wie dem betrachteten Optimalsteuerungsproblem des Van der Pol-Oszillators, lässt sich das behandelte Verfahren übersichtliür die Berechnung der Randbedingungen der zur Überprüfung der hinreichenden Bedingungen zu lösenden Riccati-Gleichungen.

Ein allgemeiner Beweis der hinreichenden Optimalitätsbedingungen für Optimalsteuerungsprobleme mit linear eingehender Steuerung steht noch aus. Erweiterungsmöglichkeiten für die Theorie bestehen darin, kompliziertere Schaltstrukturen zu betrachten. Eine interessante Erweiterung wäre auch die Berücksichtigung von Zustandsbeschränkungen in dem optimalen Steuerprozess.

Studium: Mathematik mit Nebenfach Informatik, U Bayreuth
Abschluss: 03/2007
Erste Anstellung: unmittelbar nach Studienabschluss und einer großen Reise
Position: Finanzmathematiker
Firma: BayernInvest, München
Branche: Banken (Asset Management)
E-Mail: stefan.allescher"at"gmx.de


Poiseuille- und Quetschströmungen zwischen gewellten Platten
von
Nils Altmüller

Vorbemerkung: Die Aufgabenstellung der Diplomarbeit im Studiengang Technomathematik geht auf Herrn PD Dr. Markus Scholle vom Lehrstuhl für Technische Mechanik und Strömungsmechanik (Prof. Dr. Nuri Aksel) zurück.

Inhaltsangabe: Gegenstand der Untersuchungen dieser Diplomarbeit sind grundlegende Fragen der Strömungsmechanik Poiseuille- und Quetschströmungen betreffend.

In der Strömungsmechanik wird das Verhalten von Fluiden untersucht, also von Gasen oder Flüssigkeiten, die sich bekanntermaßen unter dem Einfluss von Scherkräften unbegrenzt verformen können. Untersucht werden Newtonsche Fluide, bei denen zwischen Spannungs- und Deformationstensor ein linearer Zusammenhang besteht. Zudem wird das Fluid als inkompressibel angenommen, d.h. die materielle Zeitableitung der Dichte verschwindet - was nicht bedeutet, dass die Dichte im gesamtem Fluid konstant ist. Dann ergeben die Erhaltungsgesetze für Masse, Impuls und Energie die bekannten Navier-Stokes-Gleichungen inkl. der Kontinuitätsgleichung ein System von vier nichtlinearen, partiellen Differentialgleichungen zweiter Ordnung für das dreidimensionale Geschwindigkeitsfeld und den Druck als Funktionen von Ort und Zeit. Normal- und Tangentialgeschwindigkeiten an den Rändern des Ortsgebietes komplettieren die Aufgabenstellung mit den daraus resultierenden Randbedingungen.

Eine wichtige Kennzahl für Strömungen ist die Reynoldszahl, die das Verhältnis von Reibung zu Trägheit definiert. In der Diplomarbeit von Herrn Altmüller wird der Grenzfall beliebig kleiner Reynoldszahlen untersucht; sie stellen schleichende Strömungen dar, also langsame und/oder sehr zähe Strömungen.

Bei der Quetschströmungen wird das Verhalten von Fluiden zwischen Wänden untersucht, die sich aufeinander zubewegen. Diese Arbeit konzentriert sich auf eine ebene Quetschströmung, bei der sich die obere Platte mit konstanter Sinkgeschwindigkeit gegen die zweite Platte bewegt, deren Kontur - mit gewissen Eigenschaften - als gewellt angenommen wird. Die obere Platte wird dabei vereinfachend als Sieb modelliert, sodass die Höhe zwischen den Platten zeitabhängig dargestellt werden kann.

Aufgrund dieser Annahmen, insbesondere wegen des Grenzfalles beliebig keiner Reynoldszahlen und der Annahme einer ebenen Strömung, reduziert sich das Ausgangsproblem über die Stokesgleichungen zu einer Bi-Laplace-Gleichung, einer elliptischen partiellen Differentialgleichung 4. Ordnung, für die Stromfunktion. Die Niveaulinien der Stromfunktion sind die Stromlinien, also die Tangentialkurven des Geschwindigkeitsfeldes. Der Druck ist eliminiert. Durch Zerlegung der Stromfuktion in eine sogenannte Fern- und eine Nahfeldlösung, die sich in ihrem Einfluss auf den Staupunkt unterscheiden, lässt sich die Bi-Laplace-Gleichung auf zwei einseitig entkoppelte Laplace-Gleichungen transformieren; hier ist die Fernfeldlösung unabhängig von der Nahfeldlösung.

Als verwandtes Problem wird des Weiteren noch die Poiseuille-Strömung untersucht; sie wird durch den Druckgradienten angetrieben - hier durch Vorgabe des Volumenstroms modelliert - und ist stationär. Auch hier werden nur ebene schleichende Strömungen zwischen einer ebenen oberen und einer gewellten unteren Platte untersucht.

Auf beide Problemstellungen wird nun der auf M. Scholle (Habilitation, 2004) zurückgehende Lösungsweg angepasst, bei der die Stromfunktion als Superposition holomorpher Funktionen dargestellt wird. Da holomorphe Funktionen bereits durch ihre Randwerte vollständig festgelegt sind, gelingt die Reduktion der Fernfeldgleichungen mithilfe einer Diskretisierung durch Fourier-Reihen auf ein lineares Gleichungssystem zur Bestimmung der Fourier-Koeffizienten. Ein wesentlicher eigenständiger Beitrag von Herrn Altmüller liegt in der Anpassung der Randbedingungen an diese Vorgehensweise. Herrn Altmüller gelingt die Sichtbarmachung von Wirbeln, hervorgerufen durch die gewellte Bodenplatte. Überdies wurden diese Berechnungen durch Finite-Element-Rechnungen mittels Comsol Multiphysics auf einem zweiten Weg bestätigt.

Des Weiteren wurden in umfangreichen Parameterstudien die Entstehung und Vermeidung von Wirbeln sowie bei der Quetschströmung der Zusammenhang zwischen Plattenabstand und aufzubringender Kraft untersucht. Im Gegensatz zur Quetschströmung zwischen ebenen Platten zeigt sich, dass die Wirbel wie Gleitlager wirken, sodass die aufzubrinende Kraft deutlich gegenüber ebenen Platten reduziert ist. Ein Vergleich mit einer Störungsrechnung bestätigen diese Ergebnisse wiederum zusätzlich noch auf einem anderen Rechnungsweg.

In diesen Untersuchungen liegt ohne Zweifel großes Potential für technische Umsetzungen der theoretischen Erkenntnisse.

Studium: Technomathematik, TU Clausthal und U Bayreuth
Abschluss: 07/2007
Erste Anstellung: April 2008
Position: Wissenschaftlicher Mitarbeiter (Doktorand)
Firma: Universität Bayreuth, Arbeitsgruppe Prof. Grüne
Branche: ÖffentlicherDienst
E-Mail: nils.altmueller at gmx.de
Homepage: von Nils Altmüller
Sonstiges: Herr Altmüller wird in Kürze eine Dissertation einreichen.


A Solution Method for Nonsmooth Optimal Control Problems and the Application on an Economic Life-Cycle Model
von
Julia Fischer

Julia Fischer Inhaltsangabe. In dieser Arbeit werden nichtglatte Optimalsteuerungsprobleme untersucht, die auf aktuelle Arbeiten von Oberle (2006) und Oberle, Rosendahl (2006) zurückgehen. Hierbei weisen die dynamischen Gleichungen Unstetigkeiten an inneren Punkten auf, die von der Vorzeichenverteilung einer zustandsabhängigen Schaltfunktion bestimmt werden. Zum einen wird ein Problem untersucht, bei dem die Schaltfunktion sowohl von den Zustands- als auch den Steuervariablen abhängig ist, zum anderen aber auch ein Problem, bei dem die Schaltfunktion rein zustandsabhängig ist. Unabhängig von der funktionalen Gestalt besitzt die zur Optimalsteuerung bzw. die zur Optimaltrajektorie gehörige Schaltfunktion im einfachen Fall nur isolierte Nullstellen und impliziert reguläre Extremalenbögen. Interessant ist der zweite Fall, wenn die Schaltfunktion auf einem Teilintervall identisch verschwindet. Dann können singuläre Teilbögen besonderer Art auftreten. Bis zu den Arbeiten von Oberle (2006) und Oberle und Rosendahl (2006) waren solche Probleme noch nicht untersucht worden.

Neben einem frühen Beispiel von Bryson und Ho (1975) mit regulären Teilbögen wird ein abstraktes Lebenszyklusmodell von Pohmer (1985) untersucht. Hierbei werden Konsumrate und die Zeitanteile an Freizeit, Arbeitszeit und Ausbildungszeit optimal so gewählt, dass ein Nutzenfunktional maximiert wird. Zustandsvariablen sind Humankapital und Geldvermögen. Die angenommenen Zinssätze spielen sowohl bzgl.ökonomischer Aspekte, als auch hinsichtlich der mathematischen Analyse eine große Rolle. Bereits in Pohmer (1985) wurde das Problem bei identischen Zinssätzen für Anlagekapital und Kredite untersucht. In der Realität werden jedoch häfig nicht vollständige Märkte mit unterschiedlichen Zinswerten beobachtet. In diesem Fall treten die oben genannten neuartigen Phänomene, reguläre und singuläre Teilstücke, auf.

Als weiteres Beispiel wird ein Modell eines elektrischen Schaltkreises untersucht, bei dem die Schaltfunktion direkt von Zustand und Steuerung abhängt. Dieses Beispiel lässt sich mit Hilfe eines Euler-Multiplikators weitestgehend analytisch lösen, genauer gesagt auf ein einfaches Nullstellenproblem zurückführen.

Die notwendigen Bedingungen für diese Art von Optimalsteuerungsproblemen werden in dieser Arbeit gründlich analysiert und basierend auf dem Buch von Vinter (2000) hergeleitet, wobei neue Beweise für zwei Lemmata von Du Bois-Raymond angegeben werden. Auch die Herleitung der Eulerschen Gleichung gelingt Frau Fischer unter einer abgeschwächten Voraussetzung als im Buch von Vinter.

Verglichen mit den oben genannten Arbeiten von Oberle und Oberle und Rosendahl werden die dort getroffenen Annahmen bzgl. hinreichender Glattheit der Modellfunktionen in dieser Diplomarbeit genauer spezifiziert, um das Minimum-Prinzip in der Formulierung von Vinter anwenden zu können. Im Fall singulärer Teilbögen werden glatte Hilfsprobleme mit Zustandsbeschränkungen abgeleitet. Diese können durch totale Differentiation der Schaltfunktion nach der Zeit und Substitution der rechten Seite der Differentialgleichungen vermieden werden; man erhält ein glattes Hilfsproblem mit einer gemischten Beschränkung.

Die notwendigen Bedingungen führen im Allgemeinen auf Mehrpunkt-Randwertprobleme, die nur noch numerisch gel$ouml;st werden können. Hierzu bietet sich die bewährte Mehrzielmethode an. Frau Fischer verwendete eine auf Hiltmann (1993) zurückgehende Implementierung, die auf früheren Implementierungen von Bulirsch, Deuflhard und Oberle aufbaut. Auf Grund der oft geringen Ausdehnung der Konvergenzeinzugsgebiete der Mehrzielmethode mussten Homotopieverfahren angewandt werden. Dieses Vorgehen ist typisch bei der Lösung von nichtlinearen Randwertproblemen mit Hilfe der Mehrzielmethode und stellt einen gewissen Nachteil gegenüber direkten Verfahren dar, der aber zur Lösung der Problemstellungen dieser Diplomarbeit in Kauf zu nehmen war, um präzise numerische Resultate hinsichtlich Schaltstruktur und Schaltpunkte zu bekommen.

Studium: 1. Mathematik mit Nebenfach Informatik und 2. Wirtschaftsmathematik, Universität Bayreuth
1. Abschluss: 06/2006
1. Diplomarbeit: Robuste Schätzung im semiparametrischen Mixture-Modell (bei Prof. Rieder)
2. Abschluss: 03/2007
1. Diplomarbeit: A solution method for nonsmooth optimal control problems and the application on an economic life-cyle model (bei Prof. Pesch)
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Wissenschaftliche Mitarbeiterin (Doktorandin)
Firma: Universität Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
E-Mail: julia.fischer at uni-bayreuth.de
Frau Fischer hat u.a. ein Stipendium nach dem Bayerischen Eliteförderungsgesetz erhalten.
Homepage: von Julia Fischer
Sonstiges: Frau Julia Fischer wurde im Jahre 2010 in Rekordzeit promoviert, parallel zur Geburt ihrer ersten Tochter,
gefördert durch ein Stipendium nach dem Bayerischen Eliteförderungsgesetz.
Thema der Dissertation: Optimal Control Problems Governed by Nonlinear Partial Differential Equations and Inclusions. Betreuer: Prof. Pesch.
Frau Julia Fischer wurde am 28.10.2010 im Beisein des bayerischen Staatsministers für Wissenschaft, Forschung und Kunst, Dr. Wolgang Heubisch, für ihre Dissertation in der Sparte "Universitäten" der hochrangige Kulturpreis Bayern der E.ON Bayern AG verliehen; siehe den Bericht des Nordbayerischen Kuriers.
Frau Dr. Fischer hatte zudem im Wintersemester 2010/11 die Vertretungsprofessur für Numerik an der Universität Bayreuth übernommen.



Parameteridentifizierung bei parabolischen partiellen Differentialgleichungen
mittels Optimaler Steuerung
von
Sebastian Götschel
Sebastian Götschel

Vorbemerkung. Die Aufgabenstellung entstand in Kooperation mit der Firma inuTech GmbH, Nürnberg, die einen kommerziellen FEM-Löser für partielle Differentialgleichungen vertreibt, basierend auf einer C++ Klassenbibliothek zur Entwicklung numerischer Software.

Inhaltsangabe. In dieser Arbeit wurde ein Verfahren zur Identifizierung des Diffusionskoeffizienten in parabolischen partiellen Differentialgleichungen untersucht. Dabei wurden die zu bestimmende, ortsabhängige Parameterfunktion als Steuerung interpretiert und Methoden der Optimalen Steuerung angewandt, um diese Funktion zu erhalten.

Ausgehend von einem Steuerung-Zustand-Operator wurden im Funktionenraum notwendige Optimalitätsbedingungen aufgestellt. Zu ihrer Überprüfung müssen für eine gegebene Steuerung zwei parabolische Differentialgleichungen gel$ouml;st werden, die Zustandsgleichung und die Adjungiertengleichung. Für die numerische Lösung dieser PDEs wurde die C++-Klassenbibliothek DIFFPACK verwendet, die hierfür außerordentlich gute Dienste leistet. Die Implementierung des Lösers ist sehr nahe an der mathematischen schwachen Formulierung, so dass hier keine zusätzliche Arbeit anfällt. Auch die Anbindung der Optimierungsroutinen stellt keine große Schwierigkeit dar.

Die Kandidaten für eine Optimalsteuerung wurden mit einem Gradienten-Projektions-Verfahren bestimmt. Dieses weist den bekannten Nachteil der langsamen Konvergenzgeschwindigkeit auf. Als Abhilfe wurden Konjugierte-Gradienten-Verfahren oder Quasi-Newton-Verfahren vorgeschlagen. Eine Schwierigkeit bei der Bestimmung des Gradienten sind hier insbesondere auch numerische Fehler, gehen doch die Ableitung des Zustandes und die Ableitung der Adjungierten in die Berechnung ein. Da beide nur als FEM-Approximationen vorhanden sind und ihre Ableitungen deshalb an den Elementgrenzen unstetig sind, muss eine Glättung erfolgen. Hinzu kommen noch Fehler, die bei der numerischen Approximation des Zeitintegrals unvermeidlich sind. Diese kann man jedoch durch ein hinreichend gutes Verfahren begrenzen.

Die Implementierung des Verfahrens wurde an verschiedenen Testbeispielen mit bekannten analytischen Lösungen verifiziert, und man sieht, dass bei vertretbarer Rechenzeit zum Teil sehr gute Ergebnisse erhalten werden können. Das Hauptproblem bei dem beschriebenen Ansatz ist jedoch, dass der Gradient des unregularisierten Zielfunktionals bei lokalen Extrema des Zustandes Nullstellen besitzt. Hier kann mit einer passend gewählten Regularisierung Abhilfe geschaffen werden. Die in dieser Arbeit untersuchte Regularisierung mit Hilfe der Norm der Steuerung ist jedoch nur eingeschränkt nützlich. Wesentlich bessere Resultate könnten mittels einer Regularisierung mit der Seminorm, also einer Bestrafung der Größe der ersten Ableitung der Steuerung erzielt werden. Untersuchungen dazu wären eine interessante Fortsetzung dieser Arbeit. Reizvoll wäre auch eine Erweiterung auf quasilineare Probleme, bei denen der Diffusionskoeffizient vom Zustand abhängt.

Ein weiterer Punkt, der in Zukunft Aufmerksamkeit verdient, ist die Untersuchung von Zustandsbeschränkungen, die mathematisch sehr anspruchsvoll ist. Auch effiziente Techniken zur Verringerung des Speicheraufwands - wie beschrieben muss zur Berechnung der Adjungierten die Lösung der Zustandsgleichung gespeichert werden - sind eine interessante Erweiterung, genau wie die Verwendung adaptiver Gitter, um die Lösung der PDEs genauer und schneller berechnen zu können.

Studium: Technomathematik, Universität Bayreuth
Abschluss: 12/2007
Erste Anstellung: unmittelbar nach Studienabschluss
1. Position: Projektentwickler
Firma: inuTech GmbH, Nürnberg
Branche: Software, Numerische Dienstleistungen,
Entwickler von DIFFPACK zur numerischen Modellierung und Lösung von partiellen Differentialgleichungen
2. Position: Wissenschaftlicher Mitarbeiter
Firma: Computational Medicine-Gruppe, Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB),
Bereich Scientific Computing, Abteilung Numerische Analysis und Modellierung, Berlin-Dahlem
Branche: Öffentlicher Dienst
E-Mail: goetschel at zib.de
Homepage: http://www.zib.de/goetschel/
Sonstiges: Herr Götschel arbeitet derzeit an seiner Dissertation und steht kurz vor dem Abschluss.


Konjugierte Gradientenverfahren zur Lösung von Optimalsteuerungsproblemen
mit semi-linearen elliptischen Differentialgleichungen

von
Ekue-sse Situ Tomety

Ekue-sse Situ Frantz Tomety Vorbemerkung. Die Aufgabenstellung soll eine Kooperation mit der Firma inuTech GmbH, Nürnberg, einleiten, die einen kommerziellen FEM-Löser für partielle Differentialgleichungen vertreibt, basierend auf einer C++ Klassenbibliothek zur Entwicklung numerischer Software. Die Betreuung der Diplomarbeit erfolgte zusammen mit Herrn Prof. Klaus Schittkowski.

Inhaltsangabe. Software zur numerischen Lösung partieller Differentialgleichungen wird mittlerweile in den Natur-, Ingenieur- und Wirtschaftswissenschaften so häfig benötigt, dass eine Vielzahl von Firmen leistungsf$auml;hige und gut zu bedienende Software kommerziell anbietet. Sie unterscheidet sich u.a. auch dadurch, dass sie mehr oder weniger flexibel auf verschiedene Aufgabenstellungen mit partiellen Differentialgleichungen anwendbar ist. Die von der Firma inuTech GmbH, Nürnberg, vertriebene Software DIFFPACK basiert auf einer C++ Klassenbibliothek zur Entwicklung numerischer Software und bietet damit ein Höchstmaß an Flexibilität, erfordert jedoch vom Nutzer Kenntnisse in objektorientierter Programmierung. Eine Vielzahl von bereits vorgefertigten Beispielen erleichtert allerdings den Einstieg.

Wie bei vielen praktischen mathematischen Aufgabenstellungen ist deren numerische Lösung oft nur der erste Schritt. Danach will man häfig Freiheiten im Modell dahingehend auszunutzen, dass die Lösung der zugrundeliegenden mathematischen Aufgabe nach gewissen Kriterien optimiert wird. Damit ist man bei Optimierungsaufgabenstellungen mit partiellen Differentialgleichungen angelangt, also bei der Optimierung oder optimalen Steuerung von (dynamischen) Systemen, bei denen wesentliche Nebenbedingungen durch partielle Rand- oder Anfangs-Randwertprobleme gegeben sind. Insbesondere das Gebiet der Optimalen Steuerung, bei dem die Freiheit in optimal einzustellenden Funktionen liegt, die in die Differentialgleichungen oder die Randbedingungen eingehen, ist eines der derzeit schwierigsten und hochaktuellen Gebiete der Angewandten Mathematik, das obendrein noch von großem wirtschaftlichen Nutzen ist.

Die Diplomarbeit von Herrn Tomety liefert einen Beitrag zu diesem Gebiet, mit dem erstmalig das Softwarepaket DIFFPACK bei der Lösung von Optimalsteuerungsproblemen mit partiellen Gleichungen zum Einsatz kommt.

Zunächst einmal sei bemerkt, dass es im Wesentlichen zwei Methoden zur numerischen Lösung von Optimalsteuerungsaufgaben mit partiellen Differentialgleichungen gibt: 1.) Erst Optimieren, dann Diskretisieren; 2.) Erst Diskretisieren, dann Optimieren; vgl. auch die Diplomarbeiten von Michael Perner und Stefan Wendl. In der Diplomarbeit von Herrn Tomety wird wie bei der Diplomarbeit von Wendl nach der ersten Methode, auch adjungierten-basierte Methode genannt, vorgegangen. Diese Methode hat Vorteile hinsichtlich Genauigkeit und Sicherheit der Lösung, insbesondere wegen der Möglichkeit der Überprüfung notwendiger Optimalitätsbedingungen; sie ist überdies effizient hinsichtlich Rechenzeiten. Ihr Nachteil ist die hohe Hürde mathematischer Kenntnisse, die man mitbringen muss. Diese liegt insbesondere in der Herleitung der sogenannten adjungierten Gleichung, einer weiteren partiellen Differentialgleichungsaufgabe, deren Lösung die effiziente Berechnung des Gradienten der zu optimierenden Zielfunktion nach den Optimierungsvariablen erlaubt. Dagegen ist die zweite Methode hinsichtlich Mensch-Maschine-Kommunikation deutlich effizienter, dafür aber weniger sicher. Bei Problemen in zwei oder drei Raumdimensionen kommt man zudem schnell an die Grenze des heute Rechenbaren.

Neben der Verwendung von DIFFPACK zur Lösung der partiellen Differentialgleichungen wird hier im Vergleich zur Diplomarbeit von Wendl ein konjugiertes Gradientenverfahren nach Hager und Zhang eingesetzt. In der Beispielsammlung werden auch semi-lineare Probleme, wie bei Perner und Wendl ausschließlich elliptische gel$ouml;st.

Nach einigen funktionalanalytischen Grundlagen wird die Theorie der Optimalen Steuerung von (semi-linearen) elliptischen Differentialgleichungen zusammengefasst sowie auf diverse Optimierungsverfahren zu deren Lösung eingegangen, das Gradienten-Projektionsverfahren, das CG-Verfahren nach Hager und Zhang sowie das CG-Projektionsverfahren, das von Herrn Tomety entwickelt wurde, um die Vorteile der beiden zuvor genannten Verfahren zu vereinen. Eine Einführung in die Implementierung von Finite-Element-Methoden mit DIFFPACK basierend auf schwachen Formulierungen der partiellen Aufgabenstellungen und umfangreiche numerische Testrechnungen, die die Leistungsf$auml;higkeit des CG-Projektionsverfahrens belegen, beschließen diese Diplomarbeit.

Studium: Mathematik, U Bayreuth
Abschluss: 01/2007
Erste Anstellung: schon vor Studienabschluss
Position: Projektentwickler
Firma: inuTech GmbH, Nürnberg
Branche: Software, Numerische Dienstleistungen,
Entwickler von DIFFPACK zur numerischen Modellierung und Lösung von partiellen Differentialgleichungen
E-Mail: tomety_f"at"yahoo.com


2008


Regularisierungsmethoden für Optimalsteuerungsprobleme bei partiellen Differenzialgleichungen
mit punktweisen Zustandsbeschränkungen: Moreau-Yosida-Regularisierung

von
Simon Bechmann

und

Regularisierungsmethoden für Optimalsteuerungsprobleme bei partiellen Differenzialgleichungen
mit punktweisen Zustandsbeschränkungen: Lavrentiev-Regularisierung

von
Michael Frey

Michael Frey Simon Bechmann Vorbemerkung. Ist schon das Gesamtgebiet der Optimalen Steuerung bei partiellen Differentialgleichungen eines der hochaktuellen Gebiete der Angewandten Mathematik mit sehr hohem Anwendungspotential von den Ingenieurwissenschaften bis hin zum Financial Engineering, so ist es das Teilgebiet der zustandsbeschränkten Optimalsteuerungsprobleme allemal. In der Anfang Mai abgehaltenen SIAM Conference on Optimization in Boston, USA, - SIAM steht für (die amerikanische) Society of Industrial and Applied Mathematics - war dieses Gebiet mit der größten Zahl an Vorträgen tonangebend auf dem der gesamten mathematischen Optimierung gewidmeten Tagung mit ca. 500 Teilnehmern, wobei auf diesem Teilgebiet der Optimierung (junge) deutschsprachige Wissenschaftler dominierend sind und mehr als 60% der Teilnehmer stellten.

Ohne die Vorbereitung durch die über drei Semester gehende Vorlesung Optimal Control of Partial Differential Equations, die den Stand der Forschung auf diesem Gebiet nach dem Buch Optimale Steuerung bei partiellen Differentialgleichungen von Prof. Fredi Tröltzsch, TU Berlin, darstellte, wäre diese, über das Übliche hinausgehende Diplomarbeit nicht machbar gewesen, insbesondere da das für praktische Problemstellungen wichtige Teilgebiet der Optimalen Steuerung bei partiellen Differentialgleichungen mit punktweisen Zustandsbeschränkungen nur andeutungsweise behandelt wurde.

Damit aber jeder der beiden Diplomanden sein eigenes Profil herausarbeiten konnte, sollten sie sich auf zwei der drei wesentlichen Regularisierungsmethoden konzentrieren, die Moreau-Yosida- und die Lavrentiev-Regularisierung. Insgesamt sollte aber eine gemeinsame Arbeit erstellt werden, die die gemeinsam erstellten Teile und die individuellen Teile enthalten.

Ziel war es an den state of the art auf dem Gebiet der Zustandsbeschränkungen heranzuführen.

Inhaltsangabe.

Die Arbeit gliedert sich in 15 Kapitel, die ihrerseits in VII Teilen zusammengefasst sind.

Teil I stellt die Grundlagen bereit, wobei Dopplungen mit Tröltzschs Buch weitgehend vermieden werden.

Zunächst werden die behandelten Modellprobleme dargestellt. Hier beschränken sich die Autoren auf semilineare elliptische Probleme mit verteilten Steuerungen und Randsteuerungen, wobei erstere aus Gründen der Beschränkung des Umfangs und der noch bestehenden Lücken bei Randsteuerungen im Vordergrund stehen. Entscheidend bei den Modellproblemen ist die Einbeziehung von gemischten Steuerungs-Zustandsbeschränkungen und (reinen) Zustandsbeschränkungen.

Der besseren Lesbarkeit wegen wird ein grundlegender Satz über die Existenz einer global optimalen Steuerung für die drei behandelten Modellvarianten vorangestellt und auch bewiesen, da die dazu notwendigen Beweisideen grundlegend für das Verständnis von Optimalsteuerungsaufgaben (mit partiellen Differentialgleichungen) sind.

In Teil II wird die Existenz von Lagrangemultiplikatoren diskutiert und Regularitätsaussagen sowie notwendige Bedingungen erster Ordnung vorgestellt. Behandelt werden, wie oben bereits gesagt, gemischte Steuerungs-Zustandsbeschränkungen und (reine) Zustandsbeschränkungen. Da diese Ergebnisse aus der Literatur bekannt sind, werden die Beweise nicht rekapituliert - das hätte die Dimension der Arbeit auch gesprengt.

In Teil III werden dann für zustandsbeschränkte Optimalsteuerungsprobleme mit verteilter Steuerung die Lavrentiev-Regularisierung (Michael Frey) und die Moreau-Yosida-Regularisierung (Simon Bechmann) ausführlich, auch mit den notwendigen Beweisen dargestellt und diskutiert. Diese Regularisierungtechniken werden notwendig, um die ``unangenehmen'' Eigenschaften der zu den Zustandsbeschränkungen gehörenden Lagrangeparameter weitgehend ``glatt zu bügeln'' und erfolgversprechende numerische Methoden zur expliziten Lösung solcher Probleme zu ermöglichen.

Die Lavrentiev-Regularisierung (Frey) überführt das rein zustandsbeschränkte Problem in ein gemischt-steuerungs-zustandsbeschränktes Problem, das von einem Parameter abhängt, der im Grenzfall gegen Null gehen muss, um (numerisch) eine Lösung des ursprünglichen Problems zu erhalten. Das restringierte Problem bleibt also erhalten, der Lagrangeparameter wird aber regulärer.

Bei der Moreau-Yosida-Regularisierung (Bechmann) formuliert man dagegen ein unrestringiertes Problem durch Erweiterung des Zielfunktionals mithilfe eines quadratischen Strafterms hinsichtlich der Verletzung der Zustandsbeschränkung. Hier muss im Grenzfall der Parameter gegen unendlich gehen - mit allen damit verbundenen Schwierigkeiten - und definiert den sogenannten primal-dualen Pfad der parametrisierten unrestringierten Optimalsteuerungsprobleme.

Teil IV ist einer bestimmten, sehr wichtigen Klasse numerischer Lösungsverfahren gewidmet, der primal-dualen Mengenstrategie, die global konvergiert und lokal superlinear konvergent ist. Diese Methode ist noch relativ jung, gehört zu den indirekten, also auf notwendigen Bedingungen beruhenden Verfahren und wird in der aktuellen Literatur weitgehend bevorzugt (gegenüber z.B. Inneren-Punkte-Methoden). Damit besteht auch gute Vergleichbarkeit der numerischen Resultate mit jenen aus der Literatur. Individuell wurden die beiden Regularisierungsmethoden mit der primal-dualen Mengenstrategie verbunden.

In den Teilen V und VI werden schließlich die numerischen Experimente mit den beiden Regularisierungsmethoden dargestellt und die beiden Methoden verglichen. Das Ergebnis: unentschieden, sowohl hinsichtlich guter numerischer Eigenschaften (Gitterunanhängigleit: beweisbar bei der Lavrentiev-Regularisierung - aber (leider) nur bei Abwesenheit expliziter Steuerungsbeschränkungen - bisher nur numerisch beobachtbar bei der Moreau-Yosida-Regularisierung; superlineare Konvergenz), als auch hinichtlich noch vorhandener Defizite (fehlende Konvergenzaussagen, aber praktische Wirksamkeit z.B. bei semilinearen Problemen, Frage nach optimalen Update-Strategien bzgl. der Parameter). Bei letzterem hat die Lavrentiev-Regularisierung Vorteile.

Im Ausblick (Teil VII) werden Probleme mit Randsteuerungen skizziert - in der Arbeit selbst wird aber bereits immer wieder erwähnt, wenn Ergebnisse für verteilte Steuerungen auf Randsteuerungen übertragbar sind - sowie auf ein drittes, ganz neue Konzept zur Regularisierung mithilfe sogenannter virtueller Steuerungen kurz eingegangen.

Simon Bechmann:

Studium: Lehramt für Gymnasien und Diplom, Mathematik, Physik, U Bayreuth
Abschluss: Dezember 2008
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
E-Mail: simonbechmann at gmx.de
Homepage: Homepage von Simon Bechmann
Sonstiges: Herr Bechmann arbeitet derzeit an seiner Dissertation und wird diese in Kürze einreichen.


Michael Frey:

Studium: Lehramt für Gymnasien und Diplom, Mathematik, Physik, U Bayreuth
Abschluss: Dezember 2008
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
E-Mail: aleus-frey at web.de
Alte Homepage an der UBT: Homepage von Michael Frey
Sonstiges: Herr Frey wurde im Jahre 2012 mit der Dissertation Shape calculus applied to state-constrained elliptic optimal control problems an der Fakultät Mathematik, Physik und Informatik der Universität Bayreuth promoviert. Betreuer: Prof. Pesch. Weitere Gutachter: Profs. Casas, Santander, und Tröltzsch, TU Berlin, zwei der international führenden Experten auf dem Gebiet der Optimalen Steuerung von partiellen Differentialgleichungen.


Optimierung einer Fahrwerkachse mittels der Response-Surface-Methode
von
Christian Bernhard

Christian Bernhard Vorbemerkung. Die Diplomarbeit wurde im Rahmen des BMW-Projektes Advanced Chassis Engineering mit der BMW Group München, Abtlg. Fahrdynamik: Vorderachse, angefertigt.

Zusammenfassung. Diese Diplomarbeit bearbeitet die Problemstellung der optimalen Positionierung der Gelenkpunkte einer Fahrwerkachse zum Einstellen der kinematischen Kennwerte und somit der gewünschten fahrdynamischen Eigenschaften. Dazu wird die Response-Surface-Methode angewendet, um den Zusammenhang zwischen der Ausrichtung der Gelenkpunkte und den kinematischen Kenngrößen durch ein Ersatzmodell darzustellen und mit anschließender Optimierung eine optimale Achskonfiguration zu finden. Dabei werden die wichtigsten Einflussfaktoren auf die Qualität des Ersatzmodells, die ideale Versuchsmethodik (Design of Computer Experiments) sowie verschiedene Ansätze zur Erstellung eines Ersatzmodells und die Verwendung eines geeigneten Optimierungsalgorithmus untersucht.

Mit den steigenden Anforderungen bei der Entwicklung neuer Pkw-Fahrwerke vergrößerte sich in den letzten Jahren der Einsatz an computergestützten Simulationswerkzeugen. Die virtuelle Produktentwicklung wurde in den Entwicklungsprozess integriert, bei dem alle Aspekte betrachtet werden, die für das Fahrverhalten relevant sind. Die Simulation bietet die Möglichkeit, neue Konzeptideen sowie bereits vorhandene Achssysteme zu validieren und zu verbessern.

Im Rahmen der virtuellen Produktentwicklung eines Fahrwerks werden zunächst die charakteristischen fahrdynamischen Eigenschaften des Fahrzeugs definiert. Diese setzen sich in der Regel aus den Eigenschaften des Vorgängermodells unter Einbeziehung von Verbesserungspotentialen und marktstrategischen Motiven zusammen. Aus diesen Eigenschaften werden Zielwerte für Kinematik, Elastokinematik und Lastverhalten des Fahrwerks abgeleitet, welche die Basis für die Geometrieauslegung des Achssystems sind und die Fahrdynamik im Wesentlichen beeinflussen. Die Randbedingungen ergeben sich aus den bauraumtechnischen Vorgaben des Entwicklungsingenieurs sowie aus den strategischen Überlegungen, wie beispielsweise die Verwendung von Gleichteilen, um Entwicklungsarbeit und -kosten einzusparen.

Um ein Fahrwerk den Anforderungen entsprechend zu konstruieren, muss der Entwicklungsingenieur die veränderbaren Designparameter so wählen, dass ein oder mehrere Antwortgrößen einen gewissen Zielwert erreichen oder sich innerhalb eines vordefinierten Intervalls befinden. Dieser Prozess beruhte bisher häufig auf Erfahrungswerten und Trial-and-Error-Methoden. Das Problem, ein geeignetes Design einer Achskinematik zu finden, lässt sich als mathematisches Optimierungsproblem formulieren.

Der Funktionszusammenhang, in dem Designparameter und Antwortgrößen stehen, lassen sich mit verschiedenen Analysetools berechnen. Diese Analysetools beinhalten oftmals keine explizite Funktion zur Berechnung der Antwortgrößen und werden daher im Folgenden als ``Black Box'' bezeichnet. Da eine Optimierung unter Umständen sehr viele Aufrufe benötigt und eine Berechnung sehr lange dauern kann, liegt es nahe, Analyse und Optimierung zu trennen. Mittels geeignet gewählter und ausgewerteter Samplepunkte soll im Designraum ein mathematisches Ersatzmodell erstellt werden, das anstelle der ursprünglichen Funktion eine Approximation der wahren Antwortgröße liefert. So kann der Funktionswert auch an Stellen ermittelt werden, die nicht vorher mittels eines aufwändigen Berechnungsaufrufes einer Black Box bestimmt wurden. Dies hat den Vorteil, dass während der Optimierung kein Aufruf des Analysetools mehr erfolgen muss. Des Weiteren lässt sich so auf wechselnde Optimalitätskriterien und Nebenbedingungen schnell reagieren. Der Entwicklungsingenieur kann nach einem Optimierungsprozess sehr leicht Einfluss auf sein gewünschtes Ergebnis nehmen, indem er beispielsweise Nebenbedingungen lockert oder verschärft und eine erneute Optimierung durchführt.

Diese deutlich schnellere und robustere Möglichkeit der multidisziplinären Designoptimierung wird als Response-Surface-Methode (RSM) bezeichnet. Äquivalente Begriffe in der Literatur sind Metamodellierung und Surrogate Modelling. Ein weiterer Vorteil dieser Methode ist, dass sie Aufschluss über den gesamten Designraum liefert. In der Literatur lassen sich mehrere sequentielle Methoden finden, die diesen Vorteil nicht beinhalten. Diese Methoden suchen lediglich in einem verkleinerten Definitionsbereich nach einem optimalen Design und verschieben diesen Bereich nach jedem Schritt in Richtung Optimum. Dabei wird iterativ zwischen Funktionsauswertungen der Black-Box-Funktion und Ersatzmodellbildung gewechselt. Oftmals sind für den Entwickler allerdings genau diese Einblicke in den gesamten Designraum entscheidend, um Funktionszusammenhänge zu überschauen und Einsparpotentiale zu erkennen.

Die Vorgehensweise mittels der Response-Surface-Methode lässt sich im Wesentlichen in fünf Schritte unterteilen, die sich mit unterschiedlichen mathematischen Verfahren realisieren lassen:

Manchmal wird in diese Liste das sogenannte Screening eingefügt. Es dient dazu, Variablen mit geringem Einfluss auf die Antwortgröße a priori zu identifizieren und zu entfernen, um so die Dimension und damit die Komplexität zu reduzieren. Meistens ist dafür jedoch ein größerer Mehraufwand nötig und verlangt weitere Aufrufe des Analysetools. Da zudem die Auswahl der Designvariablen auch zu Zwecken des Erkenntnisgewinns erfolgt, ist das Screening kein Gegenstand dieser Diplomarbeit.

Zum Abschluss der Arbeit wird anhand der Ergebnisse ein Fazit über Vorteile und mögliche Probleme dieser Vorgehensweise sowie ein Ausblick und Weiterentwicklungsmöglichkeiten gezogen. Unterstützt werden die Ergebnisse durch Beispiele aus der Praxis, die an jeweils passender Stelle in der Arbeit angeführt werden.

Studium: Technomathematik, U Bayreuth
Abschluss: Oktober, 2008
Erste Anstellung: noch vor Studienabschluss
Position: Engineer Prozessrechner
Firma: Siemens AG, Erlangen, Industry Solutions Division, Metals Technologies
Branche: Hochtechnologie
E-Mail: christian.bc.bernhard``at''siemens.com


Reactive-Transport Applied to CO2 Geological Storage Modelling
von
Florian Häberlein

Florian_Haeberlein Vorbemerkung. Diese Diplomarbeit entstand im Rahmen eines Projektes am Institut Français du Pétrole (IFP) in Rueil-Malmaison bei Paris unter der Betreuung von Prof. Anthony Michel. Herr Häberlein fertigte diese Diplomarbeit im Rahmen eines halbjährigen Auslandsstudiums an. Die unterirdische Speicherung von CO2 wird als eine vielversprechende Lösung angesehen, die Auswirkungen der Emmission des Treibhausgases CO2 zu reduzieren. Dazu sollte in der Diplomarbeit ein mathematisches Modell entwickelt werden, mit dem der unterirdische reaktive Transport von CO2 numerisch simuliert werden kann.

Inhaltsangabe. In our days, we act from the assumption that the greenhouse effect is a due to anthropogenic release of CO2 into the atmosphere. Hence, one possible way to retard the greenhouse effect is reducing the CO2 release by injecting it as an aqueous phase into deep geological formations with regard to a long-term storage. Those storage processes can be simulated with reactive transport modelling.

Reactive transport modelling is an interdisciplinary part of mathematical modelling. Applications can be found in several domains especially in earth sciences where coupled physical, chemical and biological processes appear within advective-diffusive transport. On the one hand, those models are very powerful because they can describe real phenomena on a high level. On the other hand, the complexity makes it hard to explain the numerical behaviour. As a consequence, many efforts have been put in the improvement of power and performance of numerical approximations.

In this Diploma thesis we present a fully coupled non-linear reactive-transport system which models an advective and diffusive transport process coupled with a chemical equilibrium system modelled by a non-linear system of equations.

Studium: Technomathematik, U Bayreuth
Abschluss: Oktober, 2008
Erste Anstellung: sofort nach Studienabschluss
1. Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: Institut Français du Pétrole (IFP), Rueil-Malmaison
Branche: Forschungsinstitut
Promotion: Time Space Domain Decomposition Methods for Reactive Transport - Application to CO2 Geological Storage, Oktober 2011, Université Paris XIII, Frankreich
2. Position: Projektmanager Forschung und Entwicklung im Energiesektor bei einer Firma in Deutschland
E-Mail: florian.haeberlein"at"yahoo.fr
Sonstiges: Herr Häberlein hat im Rahmen seiner Dissertation am Institut Français du Pétrole (IFP) in Zusammenarbeit mit der Universität Paris XIII folgendes Forschungsprojekt bearbeitet.

Zusammenfassung: Reactive transport modelling is a basic tool to model chemical reactions andflow processes in porous media. A totally reduced multi-species reactive transport model including kinetic and equilibrium reactions is presented. A structured numerical formulation is developed and different numerical approaches are proposed. Domain decomposition methods offer the possibility to split large problems into smaller subproblems that can be treated in parallel. The class of Schwarz-type domain decomposition methods that have proved to be high-performing algorithms in many fields of applications is presented with a special emphasis on the geometrical viewpoint. Numerical issues for the realisation of geometrical domain decomposition methods and transmission conditions in the context of finite volumes are discussed. We propose and validate numerically a hybrid finite volume scheme for advection-diffusion processes that is particularly well-suited for the use in a domain decomposition context. Optimised Schwarz waveform relaxation methods are studied in detail on a theoretical and numerical level for a two species coupled reactive transport system with linear and nonlinear coupling terms. Wellposedness and convergence results are developed and the influence of the coupling term on the convergence behaviour of the Schwarz algorithm is studied. Finally, we apply a Schwarz waveform relaxation method on the presented multi-species reactive transport system.

Kommentar zum Studium in einer Email vom 9.11.2008: Nach meinem Studium bereue ich es nicht, mich bewusst für Technomathematik und nicht für reine Mathematik entschieden zu haben. Mein besseres Verständnis bei Anwendungsfragen, das ich unter anderem in den Ingenieurwissenschaften erhalten habe, hilft mir in meinem neuen Umfeld enorm. Desweiteren habe ich die Erfahrung gemacht, dass die Industrie und Forschung händeringend nach Mathematikern sucht, die eben dieses Verständnis mitbringen.

Und in seiner Email vom 6.2.2012: Nachdem ich dreieinhalb Jahre Frankreich und Paris auskosten konnte, hat es mich wieder nach Deutschland zurückgezogen. Ich habe deswegen frühzeitig nach Jobs Ausschau gehalten und habe auch eine interessante Stelle gefunden: Seit Dezember arbeite ich als Projektmanager Forschung und Entwicklung im Energiesektor und beschäftige mich jetzt mit der numerischen Modellierung und Simulation von Strömungs- und Diffusionsvorgängen. Auch hier kann ich wieder meinen "Joker" als Allroundtalent ausspielen, den ich während des Technomathematikstudiums erhalten habe.


Eine direkte Methode für Optimalsteuerungsprobleme mit parabolischen Differentialgleichungen
von
Florian Loos

Florian Loos Vorbemerkung und Ziel der Arbeit. Diese Diplomarbeit entstand, wie bereits etliche zuvor, in bewährter Zusammenarbeit mit der Firma inuTech, Nürnberg. Sie vertreibt, wartet und entwickelt seit 2003 das Softwaresystem DIFFPACK weiter, welches 1991 von H. P. Langtangen und A. M. Magnus Bruaset an der Universität Oslo entwickelt wurde. DIFFPACK ist ein umfangreiches, objektorientiertes Softwaresystem numerischer Programme, das sich insbesondere sehr gut zur Lösung partieller Differentialgleichungen mittels der Finite-Element-Methode eignet. Mit seinen über 600 C++ - Klassen stellt es u. a. Hilfsmittel zur Gittergenerierung inkl. adaptiver Gitter, zur effizienten Lösung linearer und nichtlinearer Gleichungssysteme durch iterative Löser und zur Dokumentation der Ergebnisse bereit.

Ziel der Arbeit war es, für Optimalsteuerungsprobleme mit (semi-)linearen parabolischen partiellen Differentialgleichungen eine sogenannte direkte (adjungiertenfreie) Methode zu entwickeln, die DIFFPACK mit zwei sehr leistungsfähigen Lösern für große endlichdimensionale, restringierte, nichtlineare Optimierungsprobleme koppelt. Beide Verfahren sind Innere-Punkte-Methoden und eignen sich besonders gut für nichtlineare Optimierungsprobleme mit einer großen Anzahl von Optimierungsvariablen und Nebenbedingungen. Zum einen ist dies das Softwarepaket IPOPT (Interior Point Optimizer) von A. Wächter und L. Biegler, Carnegie Mellon University (2003). IPOPT basiert auf einem primal-dualen Innere-Punkte-Algorithmus mit Filter-Line-Search. Zum anderen ist dies das Softwarepaket SCPIP (Sequential Convex Programming Interior Points) von C. Zillober und K. Schittkowski, Universität Bayreuth (2005). SCPIP kombiniert ein Innere-Punkte-Verfahren mit der Methode der beweglichen Asymptoten und sequentieller konvexer Optimierung.

Zusammenfassung. Nach einer ausführlichen Einleitung und der Bereitstellung des benötigten Hintergrundwissens zu schwachen Formulierungen von Anfangs-Randwertaufgaben für (semi-)lineare parabolische Differentialgleichungen werden die verwendeten Diskretisierungsverfahren vorgestellt (Kapitel 1 -4). Herr Loos geht nach der Rothe-Methode vor, semidiskretisiert also die parabolische Differentialgleichung erst nach der Zeit. Hierfür wird das bekannte Zweischichtschema nach der $\theta$-Regel verwendet, das ja bekanntlich sowohl das explizite, als auch das implizite Euler-Verfahren und das Crank-Nicolson-Schema einschließt. Die Ortsdiskretisierung der in jedem Zeitschritt zu lösenden stationären elliptischen Probleme erfolgt dann mithilfe von Finite-Element-Methoden. Letztendlich resultiert diese Diskretisierung in der Anforderung der Lösung eines sehr großen - je nach Aufgabenstellung - (nicht-)linearen Gleichungssystems.

Herr Loos beschränkt sich in seiner Arbeit auf die aus praktischer Sicht wichtige Klasse von Optimalsteurungsproblemen mit Randsteuerungen. Optimierungsvariable sind demnach lediglich die diskreten Werte der Steuerungen auf dem Rand des Definitionsbereiches des Problems. Die partiellen Differentialgleichungen werden dann mithilfe der oben genannten Diskretisierungsmethoden und mit Unterstützung durch die Klassenbibliothek DIFFPACK numerisch gelöst. Von DIFFPACK werden dann die beiden in Konkurrenz stehenden Innere-Punkte-Verfahren aufgerufen. Die Berechnung der Gradienten erfolgt (aufwändig) mithilfe von Finiten Differenzen. (Hier könnte als Fortführung der Arbeit von Herrn Loos einmal der Einsatz von Methoden des automatischen Differenzierens getestet werden.)

Den Kern des theoretischen und informatischen Teils der Arbeit bilden dann Kapitel 5 mit einer sehr ausführlichen Darstellung der beiden Optimierungslöser IPOPT und SCPIP sowie Kapitel 6 mit der Darstellung der Implementierung der eingesetzten Diskretisierungsverfahren mithilfe von DIFFPACK.

In Kapitel 7 erfolgt dann der Vergleich der Optimierungsverfahren anhand von fünf Testbeispielen, die sowohl ein- wie auch zweidimensionale Ortsbereiche bzw. lineare und nichtlineare Randbedingungen aufweisen. Bei einigen Beispielen sind analytische Lösungen bekannt, bei anderen nur Referenzlösungen aus der Literatur (Mittelmann, Tröltzsch, Rund, Wachsmuth u. a.).

Als Ergebnis ergibt sich eine eindeutige Überlegenheit des Verfahrens IPOPT hinsichtlich Schnelligkeit in Relation zur Güte der Approximation, wobei für ein Beispiel keine Übereinstimmung der in dieser Arbeit berechneten Lösung mit der in der Literatur publizierten Lösung nachgewiesen werden konnte. Hier besteht weitgehend Unklarheit über das ``Warum?''.

Dass sich bei diesem Vergleich IPOPT gegenüber SCPIP überlegen zeigt, könnte an der speziellen Struktur der entstehenden endlichdimensionalen Optimierungsprobleme liegen: Bei der in der Diplomarbeit von Herrn Loos verwendeten Vorgehensweise geht alle Information in das Zielfunktional ein, aber keinerlei Information in die Nebenbedingungen. Damit hält er die Zahl der Optimierungsvariablen zwar klein, verhindert so aber möglicherweise, dass SCPIP seine Überlegenheit bei einer Vielzahl von Nebenbedingungen ausspielen kann. (Auch hier wäre eine Fortsetzung der Diplomarbeit von Herrn Loos denkbar, bei der die diskretisierten partiellen Gleichungen als Nebenbedingungen eingehen, auch wenn dadurch die Zahl der Optimierungsvariablen aufgebläht wird.)

Insgesamt kann man feststellen, dass (wegen der Glättungseigenschaft parabolischer Gleichungen) bereits relativ grobe Diskretisierungen für eine erstaunlich genaue Approximation der optimalen Steuerung und des Zielfunktionalwertes ausreichen. Auch das Optimierungsverfahren SCPIP liefert mit Ausnahmes eines Beispiels ebenfalls korrekte Ergebnisse. Ein Grund hierfür ist in der Arbeit angegeben.

Damit wird der prinzipielle Nachteil Direkter Methoden, die fehlende näherungsweise Überprüfung der notwendigen Optimalitätsbedingungen im Funktionenraum, durch die deutlich geringeren Forderungen an Vorkenntnissen und die dadurch bedingte deutlich einfachere Handhabung bei allerdings hohem Rechenaufwand wegen der Approximation der Gradienten aufgewogen. Zusammenfassend sieht man jedoch, dass der Rechenaufwand bei feiner Diskretisierung selbst für diese relativ einfachen akademischen Beispiele enorm steigt - und daher gegen den geringen Aufwand für die Ausbildung eines Anwenders dieser Methode verrechnet werden muss. Derzeit kommt man unabhängig vom verwendeten Verfahren mit Blick auf anspruchsvolle Anwendungsprobleme noch immer sehr schnell an die Grenzen der Rechenbarkeit, sei es wegen des Aufwandes zur Aufstellung der adjungierten Gleichungen bei den sogenannten indirekten Methoden oder beim Rechen- und Speicheraufwand bei den direkten Methoden.

Studium: Mathematik (NF Informatik), U Bayreuth
Abschluss: Dezember, 2008
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: Universität der Bundeswehr, München
Branche: Bundeswehr
E-Mail: florian.loos"at"unibw.de
Homepage: Dr.-Ing. Florian Loos
Promotion: Herr Loos wurde im Jahre 2014 an der Universität der Bundeswehr München an der Fakultät Bau- und Umweltingenieurwesen (Institut für Mathematik und Bauinformatik) zum Dr.-Ing. promoviert.
Thema: Joule Heating in Connecting Structures of Automotive Electric Devices - Modelling, Simulation and Optimization.
Betreuer: Prof. Dr.-Ing. Hans-Dieter Ließ Univ.-Prof. Dr. rer. nat. habil. Thomas Apel.
Sonstiges: Aktuell ist Herr Loos zusammen mit zwei weiteren promovierten Wissenschaftlern und seinem Doktorvater in Vorbereitung der Gründung eines Unternehmens, das im Bereich des Themas der Doktorarbeit tätig sein wird. Geplanter Name: PSS (Physical Software Solutions).

2009


Analyse verschiedener Diskretisierungsansätze bei der numerischen Lösung von Optimalsteuerungsproblemen bei der ein- und zweidimensionalen Wärmeleitungsgleichung
von
Nicole Frank

Nicole_Frank Aufgabenstellung und Inhaltsangabe. In dieser Diplomarbeit werden Finite-Differenzen-Diskretisierungen zur direkten numerischen Lösung von Optimalsteuerungsproblemen mit parabolischen partiellen Differentialgleichungen nach der Methode First discretize, then optimize untersucht. Insbesondere wird das Zusammenspiel zwischen verschiedenen Diskretisierung des Zielfunktionals (Rechtecks-, Sehnetrapez- sowie Simpsonregel) mit der Methode von Crank-Nicolson zur Diskretisierung von ein- und zweidimensionalen Wärmeleitungsproblemen numerisch untersucht.

Die Transkription des unendlich-dimensionalen Optimalsteuerungsproblems auf ein Problem der nichtlinearen Programmierung erfolgt mithilfe der Modellierungssprache AMPL, die die effiziente automatische Differentiation der diskretisierten partiellen Differentialgleichung gewährleistet. Das große resultierende nichtlineare Programm wird dann mit der Inneren-Punkt-Methode IPOPT von Wächter und Biegler gelöst.

Die numerischen Resultate anhand von akademischen Beispielproblemen, die allesamt eine analytische Lösung besitzen, belegen, dass die Kombination Rechtecks bzw. Sehnentrapezregel mit der Methode von Crank-Nicolson die besten Ergebnisse liefert. Die Kombination der Methode von Crank-Nicolson mit der Regel von Simpson ist nicht zu empfehlen. Zusätzlich wird mithilfe der diskreten Adjungierten, die von IPOPT geschätzt werden können, die Güte der Approximation der notwendigen Bedingungen validiert, um die Zuverlässigkeit des hier verwendeten Zugangs im Gegensatz zum Zugang First optimize, then discretize zu erhöhen.

Leider lässt sich nicht feststellen, welcher Integrationsmethode zur numerischen Lösung der kontinuierlichen adjungierten partiellen Gleichung die Schätzung der diskreten Adjungierten in IPOPT entspricht, um neue Resultate von Hager bzgl. der korrekten Wahl der Integrationsverfahren für die Zustands- und die Adjungiertengleichungen bzw. bzgl. der Vertauschbarkeit der Operatoren optimize und discretize von Vexler anwenden zu können.

Studium: Mathematik mit Nebenfach Informatik, U Bayreuth
Abschluss: September, 2009
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: nici.frank@"at"gmx.de

Analyse und Implementierung des Lanczos-Algorithmus zur Eigenwertberechnung großer, dünn besetzter Matrizen
von
Martin Neidnicht

Martin_Neidnicht Vorbemerkung und Ziel der Arbeit. Diese Diplomarbeit entstand auf Anregung von Herrn Professor Dr.-Ing. Rieg, Lehrstuhl für Konstruktionslehre und Computer Aided Design (CAD). Ziel war die Entwicklung eines Softwaremoduls zur Berechnung der kleinsten und damit technisch wichtigsten Eigenfrequenzen für das am o.g. Lehrstuhl entwickelte Softwarepaket Z88 zur statischen Finite-Element-Analyse von mechanischen Bauteilen.

Zusammenfassung. Sobald eine mechanische Konstruktion einer zyklischen, zeitlich veränderlichen Belastung unterworfen ist, muss zur Sicherung der Stabilität des Bauteils eine sogenannte Modalanalyse durchgeführt werden. Dabei werden die Eigenfrequenzen der Konstruktion berechnet. Liegt die anregende Kreisfrequenz unterhalb der kleinsten Eigenfrequenz, ist eine statische Belastungsanalyse ausreichend. Wird jedoch die kleinste Eigenfrequenz exakt getroffen oder überschritten, können zerstörerische Schwingungen am Bauteil auftreten.

Die statische Finite-Element-Analyse, mithilfe derer die partiellen Differentialgleichungen der Kontinuumsmechanik näherungsweise gelöst werden, stellt im Wesentlichen bereits alle benötigten Informationen bereit, um das erforderliche Eigenwertproblem zur Bestimmung der Eigenfrequenzen zu lösen. Da die Matrizen i.Allg. sehr groß sind, muss man spezielle Eigenwertlöser für große algebraische Eigenwertprobleme verwenden.

Konkret zu lösen ist ein verallgemeinertes Eigenwertproblem, in das die symmetrischen Steifigkeits- und Massenmatrizen der Finite-Element-Analyse eingehen. Die Massenmatrix ist abhängig vom verwendeten Finite-Element-Typ und muss i.Allg. durch numerische Quadratur berechnet werden. Durch eine Cholesky-Zerlegung der Steifigkeitsmatrix und einer anschließenden Koordinatentransformation lässt sich dann das verallgemeinerte Eigenwertproblem auf ein sehr großes symmetrisches Standard-Eigenwertproblem transformieren.

Zur Lösung dieses Eigenwertproblems bietet sich die Klasse der Lanczos-Verfahren an, die auf Arbeiten von Cornelius Lanczos (1893-1974; 84), einemösterreichisch-ungarischen Mathematiker und Physiker, aus dem Jahre 1950 zurückgehen und die bis in die heutige Zeit immer wieder modifiziert und verbessert wurden. Sie gehören der Klasse der Krylov-Unterraum-Methoden an (nach Arbeiten von Alexei Krylov (1863-1945; 82) aus dem Jahre 1931, einem russischen Marineingenieur und angewandten Mathematiker). Dabei wird sukzessive durch Matrix-Vektor-Multiplikationen mit der unveränderten Ausgangsmatrix eine Folge von orthogonalen Vektoren erzeugt, mit denen sich eine zur Ausgangsmatrix ähnliche Tridiagonalmatrix aufbauen lässt. Deren Eigenwerte lassen sich bekanntlich durch Sturmsche Ketten effizient und höchstgenau berechnen. Wesentlich bei dem Verfahren insbesondere mit Blick auf große Matrizen ist, dass bei sorgfältiger Re-Orthogonalisierung der i.Allg. durch Rundungsfehler verlorengegangenen Orthogonalität der Krylov-Vektoren bereits ein deutlich vorzeitiges Ende der endlichen Folge von Tridiagonalmatrizen ausreichend genaue Approximationen der kleinsten Eigenwerte liefert, weit vor der Zahl, die der Dimension der Matrizen entspricht.

Dieses Verfahren wurde in C implementiert, wobei insbesondere aus Kompatibilitäts- und Effizienzgründen spezielle im Finite-Element-Löser Z88 verwendete Speicherstrukturen für dünnbesetzte Matrizen zur Anwendung kommen mussten. Neben einem Standardbeispiel der FEM-Analyse, dem Schraubenschlüssel, wurden auch konkrete Bauteile des Rennwagens FR8 Chromo des Elephant-Racing-Teams der Universität Bayreuth untersucht. Zur Absicherung des entwickelten Verfahrens wurden kleinere Probleme (Dimension ca. 5600) mit dem Eigenwertlöser aus MATLAB verglichen. Die größten untersuchten Probleme waren von der Dimension ca. 68000.

Studium: Technomathematik, U Bayreuth
Abschluss: Februar, 2009
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: Universität Bayreuth, LS Konstruktionslehre und CAD
Branche: Öffentlicher Dienst
E-Mail: martin.neidnicht''at''uni-bayreuth.de
Homepage:
Sonstiges: Herr Neidnicht hat im Rahmen seines Dissertationsvorhabens seine Arbeiten aus der Diplomarbeit fortgesetzt. Er wurde im Jahre 2012 mit der Dissertation Numerisches Abbildungsvermögen als Maßgabe zuverlässiger Finite Elemente-Netzgenerierung bei Prof. Dr.-Ing. Frank Rieg an der Universität Bayreuth zum Dr.-Ing. promoviert.


Zweidimensionale numerische Simulation der bewegten Zweiphasengrenzschicht eines Doppelrohr-Latentwärmespeichers
von
Nicole Vasold

Nicole_Vasold Vorbemerkung und Ziel der Arbeit. Diese Diplomarbeit entstand auf Anregung von Herrn Professor Dr.-Ing. Brüggemann, Lehrstuhl für Technische Thermodynamik und Transportprozesse. Ziel der Diplomarbeit war die Entwicklung eines numerischen Verfahrens zur Simulation von Schmelzvorgängen in einem Doppelrohr-Latentwärmespeicher.

Hintergrund, Aufgabenstellung und Zusammenfassung. Die Entwicklung von Energie- und Wärmespeichern gewinnt zunehmend an Bedeutung, insbesondere da in vielen industriellen Prozessen Abwärme als unvermeidbares Nebenprodukt auftritt, welches nicht immer an Ort und Stelle genutzt werden kann. Gleichzeitig mögen andere technische Verfahren gerade diese Wärme benötigen, wo aber eine Nahwärmeleitung zu unrentabel wäre. Hier bietet sich der Transport der überschüssigen Abwärme mithilfe mobiler Speicher an.

Die Speicherung der thermischen Energie kann zum Beispiel in sogenannten Latentwärmespeichern erfolgen, die den Vorteil haben, auf der Straße transportierbar zu sein. Die Funktion dieser Speicher beruht hauptsächlich auf der Bindung und Freisetzung der Phasenänderungsenergie beim Schmelzen bzw. Erstarren des Speichermediums. Bewährt haben sich hier zum Beispiel Parafine.

Diese sind in einem isolierten zylindrischen Rohr eingeschlossen, durch das mittig ein Wärmeträgerrohr fließt und durch welches erhitztes Wasser geführt wird.

Nach einer ausführlichen Einleitung in die ingenieurtechnischen Hintergründe der mobilen Wärmespeicherung wird nach den Grundlagen der Thermodynamik das mathematische Modell entwickelt. Grundlage des Modells ist natürlich die aus Symmetriegründen zweidimensionale Wärmeleitungsgleichung, hier in Zylinderkoordinaten. Neben der Wärmeleitung im sogenannten Phasenübergangsmaterial müssen aber auch Konvektionsaspekte im Wärmeträgermaterial berücksichtigt werden, hier durch die eindimensionale Konvektionsgleichung, ebenfalls in Zylinderkoordinaten. Der Übergang zwischen Innen- und Außenrohr wird durch Newtonsche Randbedingungen beschrieben: Der Temperaturgradient in radialer Richtung ist proportional zur Temperaturdifferenz der beiden Medien. Homogene Neumannsche Randbedingungen (Isolation) am Außenrohr, eine Dirichletsche Randbedingung am Einlass des Innenrohrs und eine weitere homogene Neumannsche Randbedingung am Auslass des Innenrohr komplettieren das Grundmodell.

Wesentliches Element zur Beschreibung des Phasenübergangs im Phasenübergangsmaterial ist eine zusätzliche Stefan-Bedingung im Inneren des Außenrohrs, da Temperatur und innere Energie phasenabhängig sind. Denn bis zum Zeitpunkt, an dem der Phasenübergang abgeschlossen ist und die Temperatur des Stoffes weiter steigen kann, wird die Temperatur in Form von latenter Wärme im Innern des Mediums gespeichert. Die Wärmeleitungsgleichung gilt zwar jeweils in den einzelnen Phasen, nicht jedoch an der Phasengrenze. Die Kopplung der beiden Bereiche erfolgt dann durch die oben genannte Stefan-Bedingung.

Diese bewegliche Phasengrenze muss natürlich bei der numerischen Diskretisierung, hier mithilfe Finiter Volumenmethoden berücksichtigt werden. In der Diplomarbeit von Frau Vasold wird eine sogenannte Enthalpie-Methode mit festen Gittern, entnommen aus der Literatur, umgesetzt. Das nach Diskretisierung entstehende nichtlineare Gleichungssystem wird mit einem gedämpften Newtonverfahren gelöst.

Umfangreiche Simulationsrechnungen zur Berechnung des Temperaturverlaufs im Speichermedium und der Bewegung der Phasengrenze sowie Parameterstudien zur Abschätzung geometrischer und betriebstechnischer Parameter beschließen die Arbeit, die in einem nachfolgenden Ausblick noch die Notwendigkeit der Erweiterung des Modells hinsichtlich freier Konvektion im Speichermedium erörtert.

Ohne Zweifel bietet diese Problemstellung überdies noch vielfältige weitere Mäglichkeiten sowohl der ingenieurwissenschaftlichen als auch der mathematischen Forschung, zu denen Frau Vasold mit ihrer Diplomarbeit den Weg bereitet hat.

Studium: Technomathematik, U Bayreuth
Abschluss: Mai, 2009
Erste Anstellung: sofort nach Studienabschluss
1. Position: Wissenschaftliche Mitarbeiterin
Firma: Universität Bayreuth, LS Technische Thermodynamik und Transportprozesse
Branche: Öffentlicher Dienst
2. Position: Mathematikerin
Firma: CD-Adapco, Nürnberg
Branche: Software-Entwicklung
E-Mail: nicole.vasold''at''cd-adapco.com
Sonstiges: Frau Vasold hat zunächst auf dem Gebiet ihrer Diplomarbeit weitergeforscht und damit ihre ingenieurwissenschaftlichen Kenntnisse verbreitert. Danach wechselte sie zu einer weltweit agierenden Firma, die Simulationssoftware für fluiddynamische Anwendungen herstellt und alle damit verbundenen Dienstleistungen anbietet.

Optimale Steuerung eines Hyperschallflugzeugs mit Beschränkung
der instationären aerothermischen Aufheizung

von
Matthias Witzgall

Matthias_Witzgall Hintergrund, Aufgabenstellung und Zusammenfassung. Zurzeit werden erheblich Anstrengungen unternommen, die auch in beträchtlichem Maße von der Europäischen Gemeinschaft gefördert werden, eine neue Generation von Hyperschallflugzeugen für den Passagiertransport zu entwickeln. Ziel sind Geschwindigkeiten bis Mach 5 und sogar darüber hinaus bis Mach 8 bis 12, letzteres wohl eher für den militärischen Bereich. Hinsichtlich Antriebs- und Werkstofftechnik sind die Herausforderung enorm, insbesondere sind hierzu neuartige sogenannte Scramjet-Triebwerke zu entwickeln. Bereits mit Mach 5 kann man von Europa die USA in gut zwei Stunden, Australien in weniger als fünf Stunden erreichen - ohne Zweifel ein enormer Zeit- und Bequemlichkeitsgewinn gegenüber heutigen Verkehrsflugzeugen.

In der Diplomarbeit von Herrn Witzgall sollte ein entscheidender Teilaspekt näher untersucht werden, die instationäre aerothermische Aufheizung des Flugzeugsrumpfs, genauer des bei hohen Geschwindigkeiten unerlässlichen Hitzeschutzschildes. Auf der Basis eines Anfang der 1990er Jahre an der Technischen Universität München im SFB 255 unter Federführung von Prof. G. Sachs, dem ehemaligen Inhaber des Lehrstuhls für Flugsystemdynamik, entwickelten Modells für die Unterstufe eines zweistufigen Raumtransportersystems, dem sogenannten Sänger II, und einer Reihe von an diesem Lehrstuhl bearbeiteten Dissertationsprojekten (R. Baier, M. Dinkelmann, M. Wächter) sollte in dieser Diplomarbeit das gesamte komplexe mathematische Modell in kompakter Form und mit allen Daten zusammengestellt und Flugbahnen für den Hyperschallbereich berechnet werden.

Mathematisch handelt es sich dabei um eine extrem anspruchsvolle Aufgabe aus der Optimalen Steuerung von gekoppelten dynamischen Systemen aus gewöhnlichen und einer quasilinearen parabolischen Gleichung. Während die gewöhnlichen Differentialgleichungen die Dynamik des Fluges beschreiben - hier eines Fluges entlang eines Großkreises in einer vertikalen Ebene - modelliert die partielle Differentialgleichung die Aufheizung des Flugzeuges aufgrund der hohen Geschwindigkeiten. Wie üblich in der Flugbahnoptimierung gehen die Nebenbedingungen für die Flugdynamik einher mit einer Reihe von Steuerungs- und Zustandsbeschränkungen. Entscheidend für die Komplexität der hier vorliegenden Aufgabenstellung ist jedoch die durch die Aufheizung induzierte neue Art von Zustandsbeschränkung an die partielle Variable, die Temperatur des Hitzeschutzschildes. Dadurch dass nur die gewöhnlichen Zustandsvariablen über die nichtlinearen Randbedingungen der parabolischen Gleichung in die Aufheizungsbegrenzung eingehen, kann die Einhaltung einer Höchsttemperatur nur indirekt durch die Steuerungen des Flugzeugs beeinflusst werden. Die Zustandsbeschränkung an die partielle Zustandsvariable koppelt demzufolge erst das gewöhnliche System einseitig mit der partiellen Gleichung.

Die Komplexität der Aufgabe erlaubt nur numerische Berechnungen. In der Tat haben durch diese Aufgabe inspirierte aktuelle Forschungen zu "extrem einfachen" akademischen Aufgaben, die gerade noch physikalisch sinnvoll interpretierbar sind und eine vergleichbare Kopplungsstruktur wie das Hyperschallproblem haben, gezeigt, dass die Kopplung von gewöhnlichen und partiellen Differentialgleichungen unerwartete versteckte Schwierigkeiten in den Optimalitätsbedingungen nach sich zieht, die dann selbst für dieses sogenannte "hypersonische Raketenauto" nur die Anwendung der Methode "First discretize, then optimize" zulassen. Diese Methode wurde dann auch hier verwendet. Nach Semidiskretisierung der partiellen Gleichung mithilfe einer Finite-Volumen-Methode wird damit das gekoppelte gewöhnlich-partielle Optimalsteuerungsproblem zunächst in ein großes gewöhnliches Optimalsteuerungsproblem transformiert und dann mithilfe eines Direkten Kollokationsverfahrens nach O. Stryk in ein nichtlineares restringiertes Optimierungsproblem überführt, das letztendlich mit einem Sparse-SQP-Verfahren nach P. Gill numerisch gelöst wird.

Herr Witzgall hat im ersten Kapitel das gesamte Modell in kompakter Form (auf 32 Seiten!) zusammengestellt. Dazu mussten verschiedene Literaturquellen zu Rate gezogen, Fehler korrigiert und zum Teil Daten aus den Quellcodes rekonstruiert werden.

Herr Witzgall hat sodann eine saubere Implementierung und Kommentierung, die nahezu einer Neuprogrammierung des verschachtelten und undokumentierten Quellcodes gleich kam, durchgeführt und anschließend in einem wichtigen Spezialfall optimale Flugbahnen für einen treibstoffminimalen Reichweitenflug über 9000 km berechnet. Die numerischen Resultate wurden zudem eingehend diskutiert und in einem kritischen Ausblick bewertet.

Die Arbeit ist geradezu idealtypisch für eine Diplomarbeit in Technomathematik, wo mathematische, informatische und ingenieurwissenschaftliche Fähigkeiten zusammenfließen müssen, um dieses komplexe Problem mit modernen Methoden der numerischen Mathematik zu lösen.

Studium: Technomathematik, U Bayreuth
Abschluss: September, 2009
Erste Anstellung: ziemlich direkt nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Institut für Informatik, LS Angewandte Informatik II (Verteilte und parallele Systeme), Universität Bayreuth
Branche: Öffentlicher Dienst
E-Mail: matthias.witzgall"at"uni-bayreuth.de
Homepage: Siehe hier
Sonstiges: Promotionsvorhaben: Entwicklung von parallelen Lösern für große Systeme von Anfangswertaufgaben für gewöhnliche Differentialgleichungen

2010


Gebietszerlegungsmethoden in Anwendung auf Optimalsteuerungsprobleme mit partiellen Differentialgleichungen
von
Dominik Heller

Dominik_Heller Aufgabenstellung. In dieser Diplomarbeit sollte untersucht werden, in wie weit sich klassische Gebietszerlegungsverfahren zur numerischen Lösung partieller Differentialgleichungen, hier speziell elliptischer Gleichungen, zur Lösung des Optimalitätssystems von elliptischen Optimalsteuerungsproblemen eignen. Ziel sollte es insbesondere sein, deren Potential für eine Implementierung auf Parallelrechnern zu testen, da heutzutage bereits in fast jedem Heim-PC parallele Rechnerkerne zu finden sind. Als Finite-Element-Löser sollte das am Lehrstuhl zur Verfügung stehende kommerzielle Programmpaket COMSOL-Multiphysics verwendet werden.

Inhaltsangabe. Nach einer kurzen Zusammenfassung der Ergebnisse der für die Arbeit benötigten Optimalitätssysteme beschreibt Herr Heller zunächst die alternierende Schwarz-Methode von H.A. Schwarz aus dem Jahre 1870. Diese Methode wurde seinerzeit entwickelt, um das Dirichlet-Prinzip auf allgemeinere Gebiete zu übertragen; sie wurde ursprünglich nur als Beweistechnik ersonnen, eignet sich jedoch auch als sequentielles numerisches Verfahren und erlaubt darüber hinaus, durch eine einfache Modifikation eine parallele Variante herzuleiten. Ihre Konvergenzeigenschaften werden aus der Literatur zitiert. Bei einer geringen Anzahl von Teilgebieten stimmen die Iterierten bei alternierender und paralleler Schwarz-Methode in vielen Schritten überein, so dass aus theoretischer Sicht eine Parallelisierung mit vielen Teilgebieten reizvoll scheint.

Danach werden verschiedene diskrete Varianten der Schwarzschen Methode beschrieben: die multiplikative, die additive und die restringiert additive Schwarz-Method. Sie alle basieren auf algebraischen Umformungen der nach Diskretisierung resultierenden linearen Gleichungssysteme unter Verwendung von geeigneten Restriktionsmatrizen zur Partitionierung der Lösungsvektoren. Analogien zu den kontinuierlichen Schwarz-Methoden werden aufgezeigt. Da die additive Schwarz-Methode zwar parallelisiert werden kann, im Allgemeinen jedoch nicht konvergiert, wird letztendlich auch noch die restringiert additive Schwarz-Methode vorgestellt, deren Konvergenzeigenschaften in der Literatur nachgewiesen wurden.

Bereits in seiner Analyse der Ergebnisse aus der Literatur zeigt Herr Heller auf, dass die klassischen Schwarz-Methoden mit zu vielen Einschränkungen und zu geringer Effizienz zu kämpfen haben, um sich für die Praxis zu empfehlen. Dahingegen liefern die optimierten Schwarz-Methoden aus neuerer Zeit durchaus sinnvolle Algorithmen für den praktischen Einsatz. Die besten Verfahren konvergieren sogar nach J-Schritten, wenn J die Zahl der Teilgebiete der Zerlegung bezeichnet; sie werden damit zu direkten Lösern. Ihre Einbeziehung in die Diplomarbeit hätte allerdings den zeitlichen Rahmen gesprengt.

Bis hierher besteht nun aber durchaus noch die Hoffnung, dass die parallele kontinuierliche Schwarz-Methode einen Gesamtiterationsschritt (d.h. eine Lösung auf allen Teilgebieten) aufgrund der Parallelisierung schneller berechnet als die alternierende kontinuierliche Schwarz-Methode. Erst im Verlauf der numerischen Experimente zeigt sich, dass wegen ineffizienten Implementierungsmöglichkeiten die Gesamtschritte in der parallelen Methode deutlich länger rechnen und zudem noch schlechtere Konvergenzeigenschaften zeigen. Zusätzlich erkennt man, dass der bei Verwendung eines Black-Box-Finite-Element-Lösern entstehende Overhead durch mehrfache Berechnung weitgehend gleicher Probleme (z.B. wegen der erneuten Triangulierung der immer gleichen Teilgebiete) nicht zu vermeiden ist.

Das logistische Testbeispiel offenbart wegen seiner Nicht-Linearität eine Besonderheit, die bei der Verwendung von COMSOL (auch ohne Verwendung einer Schwarz-Methode) zur Lösung des Optimalitätssystems zu einem falschen Ergebnis führt, da der Steuerungsterm für die standardmäßig gewählte Nulllösung als Startwert wegfällt. Hier muss man also eine geeignete Startlösung vorgeben und ein gewisses Maß an Vorwissen einbringen.

Die klassische alternierende Schwarzmethode zeigt die erwartete langsame Konvergenz. Die parallele Implementierung offenbart darüber hinaus noch weitere Schwachstellen: Neben der mühseligen Implementierung für mehrere Teilgebiete ist der enorme Anstieg der benötigten Menge an Daten und Dateien und die sogar noch schlechtere Konvergenz bei mehr als zwei Teilgebieten von großem Nachteil. Auch die Tatsache, dass auf jedem Prozessor ein eigener COMSOL-Prozess gestartet werden muss, dass zudem Instabilitäten beim Aufruf von COMSOL zu verschwendeten Iterationen führen, dass bei hohen Iterationen der Algorithmus oft zusammenbricht und keine Ergebnisse liefert, all diese Punkte charakterisieren die kontinuierliche parallele Schwarz-Methode als wenig sinnvoll und sogar der direkten Lösung des Optimalitätssystems unterlegen.

Bei einem erneuten Versuch, die Optimalitätssysteme von elliptischen Optimalsteuerungsproblemen mit Hilfe von Gebietszerlegungen zu lösen, wird man an den optimierten Schwarzmethoden nicht vorbeikommen. Ob diese dann aber ihrerseits nicht Mehrgitterverfahren unterlegen sind, ist fraglich. Einige Ergebnisse in der Literatur legen diesen Schluss sogar nahe.

Schließlich sei noch bemerkt, dass eine für Parallelverarbeitung geeignetere Version von COMSOL demnächst auf den Markt kommen soll.

Studium: Technomathematik, U Bayreuth
Abschluss: 11/2010
Erste Anstellung: 3/2011
Position: Wissenschaftlicher Mitarbeiter
Firma: Fachgebiet Festkörpermechanik (TU Darmstadt)
Branche: Öffentlicher Dienst
E-Mail: heller"at"mechanik.tu-darmstadt.de
Homepage: http://www.solmech.tu-darmstadt.de
Sonstiges: Aus einer Email vom 12.2.2013: Ich bin glücklich hier am Fachgebiet Festkörpermechanik der TU Darmstadt. Die Forschungsschwerpunkte des Fachgebiets liegen insbesondere bei Finite-Element-Methoden und ihren Anwendungen im Rahmen der Elastizitätstheorie der Festkörpermechanik. Thematisch bin ich damit in der Mathematik meiner Spezialisierung Richtung Numerik treu geblieben, und die Mechanik war mir schon im Studium das liebste der Ingenieurfächer.

Insbesondere geht es bei uns, obwohl wir zum Ingenieurwesen gehören, weniger um bloße Anwendung bestehender Verfahren, sondern um die Entwicklung neuer Methoden (bei mir und aktuell: Mehrskalenmodellierung), was als Mathematiker natürlich sehr interessant ist. Dass ich mich als leidenschaftlicher Programmierer in unserem Fortran-Code (FEAP) austoben kann, im Gegensatz zur Verwendung primär geschlossener Systeme wie Abaqus, Ansys, etc., ist auch toll. Damit kommen alle drei Disziplinen der Technomathematik zum Einsatz: Mathematik, Ingenieurwissenschaften und Informatik.

Ein direkter Löser für parabolische Optimalsteuerungsprobleme mit Hilfe eines objektorientierten Finite-Element-Lösers (DIFFPACK)
und verschiedener Löser für nichtlineare Programme

von
Wolfgang Kleier

Wolfgang_Kleier Vorbemerkung. Die Aufgabenstellung entstand in Kooperation mit der Firma inuTech GmbH, Nürnberg, die einen kommerziellen FEM-Löser für partielle Differentialgleichungen vertreibt, basierend auf einer C++ Klassenbibliothek zur Entwicklung numerischer Software.

Aufgabenstellung. Herr Kleier sollte in seiner Diplomarbeit ein Computerprogramm entwickeln, mit dem sich Optimalsteuerungsprobleme für parabolische partielle Differentialgleichungen lösen lassen. Insbesondere sollte das objektorientierte Software-Packet Diffpack der inuTech GmbH mit den weltweit besten Lösern für nichtlineare Programme, die im akademischen Bereich frei zugänglich sind, zu einem direkten Löser für solche Aufgabenstellungen kombiniert werden.

Inhaltsangabe. Nach einer Einleitung mit einer beispielhaften Problemformulierung und einer knappen Übersicht über die verschiedenen Lösungsstrategien für Optimalsteuerungsprobleme bei partiellen Differentialgleichungen stellt Herr Kleier in Kapitel 2 die funktionalanalytischen Grundlagen zur numerischen Lösung von partiellen Differentialgleichungen zusammen: Sobolev-Räume und schwache Formulierungen der Aufgabenstellungen sowie Aussagen über Existenz und Eindeutigkeit von Lösungen von parabolischen partiellen Differentialgleichungen. Kapitel 3 und 4 sind den numerischen Methoden gewidmet, die zur Lösung von parabolischen Optimalsteuerungsaufgaben nach der Methode First discretize, then optimize zusammengeführt werden müssen: Finite-Element-Löser und Verfahren zur Lösung von nichtlinearen Programmen. Zu letzteren gibt Herr Kleier eine knappe, aber umfangreiche Übersicht über die gängigsten Methoden und Techniken, die zur numerischen Lösung der zu erwartenden großen nichtlinearen Programme in Frage kommen können: Liniensuch- und Trust-Region-Verfahren, Kostenfunktionen und Filtermethoden, SQP- und Innere-Punkte-Verfahren sowie Mma- und SCP-Verfahren. Die verwendeten Optimierungsalgorithmen gehören zweifelsohne zum besten, was derzeit auf dem Markt frei zugänglich ist: Worhp von Büskens und Gerdts, Nlpip von Sachsenberg, Ipfilter von Silva, M. Ulbrich, S. Ulbrich und Vicente, Ipopt von Wächter und Biegler sowie Scpip von Zillober. In Kapitel 5 wird dann dargelegt, wie die für die Optimierung benötigten Gradienten mit Methoden der Sensitivitätsanalyse möglichst effizient berechnet werden können: Bei linearen Differentialgleichungen wird die von Herrn Kleier gewählte Methode hinsichtlich ihrer Komplexität mit der im Allg. effizienteren adjungierten-basierten Methode verglichen, zu deren Einsatz man allerdings enorme mathematische Vorkenntnisse benötigt, die man bei einen industriellen Einsatz, auf den in der Diplomarbeit abgezielt werden sollte, im Allg. weder erwarten, noch aus Kostengründen vertreten kann. In Kapitel 6 wird dann schließlich beschrieben, wie die Hessematrix durch Quasi-Newton-Updates approximiert wird. Zwei Methoden werden verglichen: DFP- und BFGS-Verfahren. Die Impementierung des Software-Packets, insbesondere der Aufbau des Lösers Diffpack der Firma inuTech ist dann Gegenstand von Kapitel 7. Ein Vergleich der Löser für die nichtlinearen Programme anhand verschiedener Testbeispiele beschließt dann die Arbeit: Die Verfahren Nlpip und Worhp benötigen meist wesentlich geringere Rechenzeiten als Scpip und Ipopt. Die Unterschiede zwischen den beiden Testsiegern sind gering; beide Verfahren beruhen auf ähnlichen Ideen. Scpip erzielt zwar genaue Resultate, braucht aber sehr lange. Hier scheint das Stopp-Kriterium noch verbesserungswürdig zu sein. Das Verfahren Ipfilter konnte aus Zeitgründen nicht mehr in den Vergleich aufgenommen werden, da es zwingend die Bereitstellung von Quasi-Newton-Updates für die Hessematrix erfordert, deren effiziente Implementierung ziemlich kompliziert ist.

Studium: Technomathematik, U Bayreuth
Abschluss: 10/2010
Erste Anstellung: sofort nach Studienabschlus
Position: Softwareentwickler
Firma: inuTech GmbH, Nürnberg
Branche: Software, Numerische Dienstleistungen,
Entwickler von DIFFPACK zur numerischen Modellierung und Lösung von partiellen Differentialgleichungen
E-Mail: wolfgang-kleier"at"web.de

2011


Optimale Steuerung von kleinen, schnellen, wendigen Hochleistungsflugzeugen
von
Anja Kleinhenz

Anja_Kleinhenz Vorbemerkung. Die Aufgabenstellung entstand in Zusammenarbeit mit dem Lehrstuhl für Flugsystemdynamik, von Prof. Dr.-Ing. Florian Holzapfel, Technische Universität München.

Aufgabenstellung. Im Red Bull Air Race fliegen Piloten mit kleinen, leichten und schnellen Flugzeugen einen vorgegebenen Kurs nach. Dieser ist durch farbige Pylonen markiert. Die Farben wiederum definieren die Richtung und die Lage, in welcher ein Pilot das entsprechend markierte Tor zu passieren hat. Verletzt ein Pilot diese Vorgaben erhält er Strafpunkte. Wie soll er nun das Flugverhalten zwischen den Pylonen wählen, um den vorgegebenen Parcours möglichst schnell zu bewältigen?

Das Problem der optimalen Steuerung kleiner, wendiger Flugzeuge wurde zuerst am Lehrstuhl für Flugsystemdynamik der Technischen Universität München untersucht. Dort hat man mittels Simulink ein Modell implementiert und schrittweise erweitert. Es wurden auch optimale Bahnen mithilfe eines am Lehrstuhl von Dr.-Ing. Florian Fisch implementierten direkten Mehrzielverfahrens berechnet. Diese Vorgehensweise nennt man heute "First discretize, then optimize".

Die Frage stellte sich nun nach einer alternativen Methode: Kann man diese Ergebnisse mit heutigen Hochleistungslösern für restringierte nichtlineare Optimierungsprobleme unter Verwendung von Methoden der Automatischen Differentiation noch verbessern? Speziell sollte in dieser Diplomarbeit das Verfahren IpOpt in Verwendung mit der Modellierungssprache AMPL eingesetzt werden. Letzteres ermöglicht die effiziente Berechnung des Gradienten des Zielfunktionals und der Restrinktionen nach den Optimierungsvariablen.

Dieser Fragestellung sollte in der Diplomarbeit von Frau Kleinhenz untersucht werden.

Zusammenfassung. Den Rechnungen lag ein kompliziertes Punkt-Masse-Modell zur Verfügung, bei dem verschiedene Modellkomponenten in verschiedenen Koordinatensystemen beschrieben werden müssen. Zum Einsatz kamen dabei: 1.) Das Erdfeste Koordinatensystem mit Ursprung im Erdmittelpunkt und positiver x-Achse in Richtung Schnittpunkt von Äquator und Null-Meridian zur Positionsbeschreibung des Flugzeugs. 2.) Das Körperfeste Koordinatensystem mit Ursprung in einem Flugzeugreferenzpunkt, z.B. dem Massenschwerpunkt, und positiver x-Achse in Richtung Flugzeugnase sowie positive y-Achse in Richtung des rechten Flügels. 3.) Das aerodynamische Koordinatensystem, dessen Ursprung ebenfalls in diesem Referenzpunkt liegt, dessen x-Achse aber in Richtung der aerodynamischen Geschwindigkeit zeigt. Die y-Achse weist ebenfalls nach rechts. In diesem Koordinatensystem können die aerodynamischen Kräfte besonders gut dargestellt werden. 4.) Das North-East-Down (NED)-Koordinatensystem. Dieses Koordinatensystem hat seinen Ursprung, wie die vorhergehenden auch, im Referenzpunkt des Flugzeugs. Die Ausrichtung der x-Achse verläuft parallel zur lokalen Geoid-Oberfläche und zeigt zum geographischen Nordpol. Auch die y-Achse ist parallel zur Geoid-Oberfläche mit Richtung gegen Osten. Die z-Achse zeigt senkrecht nach unten auf die Geoid-Oberfläche. Es wird verwendet, um die geografische Lage des Flugzeugs zu bestimmen. 5.) Und schließlich das Bahnachsensystem. Es besitzt seinen Ursprung ebenfalls im Referenzpunkt des Flugzeugs. Die Ausrichtung der x-Achse ist kollinear und richtungsgleich mit der kinematischen Geschwindigkeit. Die z-Achse zeigt in positiver Richtung senkrecht zur kinematischen Geschwindigkeit nach unten. Senkrecht auf der xz-Ebene steht die y-Achse, die nach rechts zeigend ein Rechtssystem mit den beiden anderen Achsen bildet.

Man muss nun beachten, dass Größen, die geschickterweise in passenden Koordinatensystemen beschrieben werden, nicht direkt miteinander verrechnet werden dürfen. Hierzu werden Drehungen um bestimmte Achsen mit passenden Winkeln verwendet. Dadurch wird das zugrundliegende Modell hochgradig nichtlinear und ziemlich kompliziert.

Ein Großteil der Arbeit ist der genauen Darstellung dieses Modells gewidmet.

Auch diese hier untersuchte Methode zur Bahnoptimierung lieferte Ergebnisse - im Allgemeinen handelte es sich hier um Bahnen, die den bereits bekannten Bahnen aus München ähnlich war. An Teilen der Trajektorie wurden weitergehende Untersuchungen durchgeführt. Zum einen gab es verschiedene Herangehensweisen an die Optimierungsmethode, zum anderen konnte die Diskretisierung bzgl. Verfahren und (konstanter) Schrittweitenwahl verändert werden. Adaptive Schrittweiten wie bei der direkten Mehrzielmethode sind hier wegen der Verwendung der Automatischen Differentiation nicht möglich, zumindest nicht ohne Spezialkenntnisse im Automatischen Differenzieren. Die berechneten Ergebnisse wurden verglichen. Auffallend war, dass nicht jede Optimierung ein plausibles Ergebnis lieferte, wenn überhaupt eines berechnet werden konnte.

Als Resultat muss man festhaten, dass die Verwendung von AMPL und IpOpt bei diesem hochgradig nichtlinearen Optimalsteuerungsproblem nicht die erwünschten Resultate lieferte, wie sie mit einer konventionellen direkten Methode unter Verwendung adaptiver Hochleistungsintegrationsverfahren erzielt werden können. Dabei stellte sich heraus, das eine Optimierung des Gesamtkurses nicht möglich war, sondern nur suboptimale Kursstücke von Tor zu Tor mit dieser Kombination AMPL/IpOpt berechenbar waren. Wesentlicher Hinderungsgrund dafür war, dass die Behandlung der freien Zeit von Tor zu Tor mit entsprechenden Übergangsbedingungen mithilfe der Standardtransformation auf eine normierte Zeit zu einer Vervielfachung der parallel zu lösenden Differentialgleichungen geführt hätte, überdies hätte diese Transformation weitere sehr sensitive Nichtlinearitäten nach sich gezogen. Mit der direkten Mehrzielmethode lassen sich diese Aufgabenstellungen in natürlicher Weise als Mehrstufenprobleme lösen. Dies ist zwar auch prinzipiell mit der Kombination AMP/IpOpt denkbar, verlängert dann aber das Integrationsintervall und damit die Zahl der Optimierungsvariable. Schließlich ist die Implementierung solch komplexer Aufgabenstellungen der Optimalen Steuerungen mit einem Optimierungslöser, der für NLP-Probleme gedacht ist, extrem aufwändig und schwerfällig.

Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 04/2011
Erste Anstellung: sofort nach Studienabschlus
Position: Analyst
Firma: Accenture, München
Branche: Beratung
E-Mail: anja.kleinhenz"at"googlemail.com

Optimale Steuerung eines Satelliten zur Weltraumschrottbeseitigung
von
Johannes Michael

Johannes_Michael Vorbemerkung. Die Problemstellung wurde von Prof. Dr. Klaus Schilling, Lehrstuhl Informatics VII: Robotics and Telematics, Universität Würzburg, in waager Form an den Lehrstuhl für Ingenieurmathematik der U Bayreuth herangetragen.

Aufgabenstellung (wegen der interessanten Aufgabenstellung etwas ausführlicher). "Der Weltraum - unendliche Weiten." So beginnt die erfolgreiche TV-Serie Star Trek. Wer würde bei dieser Vorstellung auf die Idee kommen, dass es auch im All bereits zu Müllproblemen kommt. Es gibt sogar ein Programm der NASA, das für die Überwachung des Weltraumschrotts verantwortlich ist und die Flugbahnen der Trümmerteile berechnet. Das Orbital Debris Program spricht von ungefähr 19.000 bekannten Objekten mit einer Größe von mehr als zehn Zentimetern, die die Erde umkreisen, von geschätzten 500.000 mit Durchmessern zwischen einem und zehn Zentimetern, und die Zahl der noch kleineren Teilchen soll die zehn Millionen Grenze überschreiten. Dabei handelt es sich beispielsweise um ausgediente Satelliten, abgeworfene Raketenstufen, von Astronauten verlorene Werkzeuge, Schrauben und Trümmer aus Explosionen. Mit einer Durchschnittsgeschwindigkeit von ca. 10 km/s besitzen selbst kleinste Teilchen eine enorme Energie und können bei einem Zusammenstoß mit funktionsfähigen Satelliten oder der Internationalen Raumstation großen Schaden verursachen.

Erst im Juli dieses Jahres berichtete Welt-Online von einem möglicherweise notwendigen Ausweichmanöver der ISS.

Um Raumschiffe oder Satelliten vor einem Einschlag zu schützen, wären dicke Ummantellungen aus Aluminium, Kevlar und Keramikgewebe notwendig. Jedoch ergaben Tests, dass es mit vertretbaren technischen Mitteln wirtschaftlich nicht möglich ist, einen solchen Schutz vor Teilen von über einem Zentimeter Größe zu gewährleisten.

Doch nicht nur die Kollision im Orbit stellt eine Gefahr dar. Die unkontrollierten Trümmer können auch auf die Erde herabstürzen. Zwar verglüht dabei in der Regel der Großteil des Flugkörpers, jedoch können Gegenstände aus Beryllium, Titan oder Stahl der Hitze teilweise widerstehen und auf der Erdoberfläche einschlagen. Im September 2011 stürzte der busgroße Forschungssatellit UARS über dem Nordpazifik ab. Das größte Teil, das die Erde erreichte, soll dabei knapp 140 Kilo schwer gewesen sein. Am Morgen des 25. Oktobers 2011 stürzte der deutsche Satellit "Rosat", ein ehemaliger Röntgensatellit, unkontrolliert auf die Erde. Dabei war im Vorfeld unklar, ob und wo Trümmerteile auf der Erdoberfläche auftreffen werden. Auch wenn die Wahrscheinlichkeit eines Einschlags in bewohntem Gebiet nur gering ist, stellt dies ein Sicherheitsrisiko dar.

Die geplante Deutsche Orbitale Servicing Mission (DEOS) hat das Ziel, mögliche Lösungen der bestehenden Probleme zu erforschen. Den Ansatz der Technologiedemonstrationsmission bilden zwei Satelliten, von denen einer das taumelnde Ziel, also den ausgedienten Satelliten, und der andere den aktiven Service-Satelliten simuliert. In einer Orbithöhe von 600 km sollen verschiedene Experimente die Phasen einer Servicemission nachstellen.

Die beiden primären Ziele der DEOS-Mission wurden in definiert als:

Das zerstörungsfreie Einfangen eines taumelnden unkooperativen Satelliten durch einen Service-Satelliten mit integriertem Manipulator.

Die Entsorgung des gekoppelten Satellitenverbundes durch gezielten Einschuss in einen vorher bestimmten Wiedereintrittskorridor, wobei der Satellitenverbund verglühen soll.

Zusammenfassung. Die waage Aufgabenstellung erforderte den Einstieg in die Erarbeitung eines detaillierten Modells. Wie üblich bei der Modellierung in der Luft- und Raumfahrt muss man verschiedene Modellkomponenten in verschiedenen Koordinatensystemen modellieren. Zum Einsatz kommen das Earth-Centered-Inertial-, das Local-Vertical-Local-Horizontal- und das Body-Fixed-Koordinatensystem. In diesen Koordinatensystemen werden die Bewegungsgleichungen eines sich bewegenden Objektes beschrieben, zunächst der Einfachheit halber in einem lokalen Koordinatensystem, letztendlich müssen aber Geschwindigkeit und Beschleunigung in einem Inertialsystem angegeben werden.

Die grundlegenden Gleichungen der Relativposition der beiden Satelliten zueinander basieren auf dem eingeschränkten Keplerschen Zweikörperproblem. Diese führen nach nach einigen Vereinfachungen auf die Clohessy-Wiltshire-Gleichungen, die in den 1960er Jahren entwickelt wurden, um Rendezvous-Manöver im All zu analysieren. Mit diesen Gleichungen kann die Position des Satelliten beschrieben werden. Zur Beschreibung der Orientierung werden die Eulerschen Elemente aus Eulers Arbeit aus dem Jahre 1775 herangezogen, die den Einstieg in die Verwendung von Quaternionen zur Darstellung von Rotationen liefern. Quaternionen wurden Sir William Hamilton im Jahre 1843 als Erweiterung der komplexen Zahlen entwickelt. Über die Eulerschen Kreiselgleichungen gelangt man schließlich zu einem vollständigen Modell zur Beschreibung der Positionierung und Orientierung der beiden sich bewegenden Satelliten.

Ferner muss die Kollision des Service-Satelliten mit seinem Ziel verhindern.

Durch Vorgabe von Optimierungszielen ergibt sich letztendlich ein komplexes Optimalsteuerungsproblem für ein System von gewöhliche Differentialgleichungen der Dimension 20 (!) mit sechs Steuervariablen. Letztere gehen je nach Zielfunktional linear oder quadratisch ein. Die Kollisionsvermeidungsnebenbedingung stellt eine Zustandsbeschränkung dar.

Dieses Optimalsteuerungsproblem wird in der Modellierungssprache AMPL implementiert und mit Hilfe des Inneren-Punkte-Verfahrens "IpOpt" gelöst. Es werden mehrere Beispielrechnungen bis hin zum Einfangen eines taumelnden Zielsatelliten präsentiert. Zur besseren Veranschaulichung der Ergebnisse wird zum Schluss ein dreidimensionales Modell und damit eine Animation der Berechnungen in Blender-3D erstellt. Die Animationen kann man nachfolgend dowmloaden und sich anschauen.

Studium: Technomathematik, U Bayreuth
Abschluss: 11/2011
Erste Anstellung: sofort nach Studienabschlus
Position: Wissenschaftlicher Mitarbeiter
Firma: Institut für Mathematik und Rechneranwendung, Fakultät für Luft- und Raumfahrttechnik, Universität der Bundeswehr, München
Branche: Öffentlicher Dienst
E-Mail: johannes.d.michael``at''googlemail.com
Homepage: von Johannes Michael
Sonstiges: Herr Michael strebt eine Promotion an. Themengebiet: Optimale Steuerung. Betreuer: Prof. Gerdts.

2012


Optimierung der Antiangiogenese-Therapie in der Behandlung von Krebserkrankungen mit Methoden der Optimalen Steuerung
von
Eleonora Feist

Eleonora Feist Aufgabenstellung. Frau Feist hat in ihrer Masterarbeit ein mathematisches Problem der Optimalen Steuerung analysiert, mit dem die optimale Dosierung eines Anti-Angiogenese-Medikamentes in der Therapie bei Krebserkrankungen bestimmt werden kann. Unter Angiogenese versteht man die Eigenschaft bestimmter Tumore, ein eigenes Blutversorgungssystem aufzubauen. Mit Angiogenese-Hemmern kann man also das Wachstum eines Tumors reduzieren, ihn sozusagen aushungern.

Zu dieser Aufgabenstellung und verwandten Themengebieten gibt es eine Reihe von Arbeiten von Ledzewicz, Maurer und Schättler, die die Basis für diese Masterarbeit bildeten.

Zusammenfassung. Die Grundlage der Angiogenese-Forschung wurde Anfang der 1970er Jahre durch den Mediziner Judah Folkman gelegt: ... solid tumors are far more dependent upon new capillary sprouts than we had previously believed. In the absence of neovascularization, most solid tumors stop growing when they are 2 to 3 mm in size. Man stellte fest, dass das Wachstum von Blugefäßen rund um gewisse Tumore durch vom Tumor ausgesonderte Wachstumsfaktoren angeregt wird. An diesem Punkt setzen dann auch Anti-Angiogenese-Medikamente an.

Hahnfeldt u.a. haben mathematische Modelle entwickelt, bei dem das Tumorvolumen durch Wachstumsgesetze beschrieben wird, das dem des logistischen Wachstums ähnlich ist, dem sogenannten Gompertzschen Wachstumsgesetz. Die dabei auftretende (vaskuläre) Trägerkapazität wird ebenfalls als zeitabhängige Größe modelliert, die u.a. durch Anti-Angiogenese-Medikamente gesteuert werden kann. Im Modell treten noch weitere Funktionen auf, die durch die Analyse einer parabolischen Differentialgleichung spezifiziert werden können. Diese beschreibt den Transportprozess für die die Angiogenese stimmulierenden Botenstoffe. Unter der Annahme der Stationarität dieses Transportprozesses und der Kugelsymmetrie des Tumors lässt sich die partielle Gleichung auf eine gewöhnliche Differentialgleichung und zwar auf eine modifizierte Besselsche Differentialgleichung der Ordnung 1/2 zurückführen, die man analytisch lösen kann. Diese Lösung legt dann die Form der noch offenen Modellfunktionen nahe. Dieses auf Hahnfeldt u.a. zurückgehende Modell wird im Rahmen der Masterarbeit weiter verfolgt. (Es gibt dadurch inspiriert noch andere empirische Modellfunktionen, die aber nicht weiter verfolgt werden.)

Letztendlich erhält man ein gewöhnliches Differentialgleichungssystem für das Tumorvolumen und die Trägerkapazität.

Mithilfe einer qualitativen Analyse stellt man fest, dass das System bei einer bestimmten Parameterrelation einen einzigen asymptotisch stabilen Gleichgewichtspunkt auf der Winkelhalbierenden des Phasenraums und keine Grenzzyklen besitzt. Ist diese Parameterrelation nicht erfüllt, nähern sich die Trajektorien dem Ursprung des Phasenraumes asymptotisch, jedoch ist der Ursprung kein zulässiger Gleichgewichtspunkt. Fernert erkennt man, dass man durch Angiogenese-Hemmer stets den Gleichgewichtspunkt erreichen kann.

Es liegt daher nahe, mithilfe eines Optimalsteuerungsproblems zu versuchen, das Tumorvolumen durch eine Anti-Angiogenese-Therapie in endlicher Zeit zu minimieren, wobei die akkumulierte Medikamentendosis wegen der Nebenbedingungen und aus Kostengründen beschränkt werden muss. Man erhält ein Optimalsteuerungsproblem, in das die Steuerung linear eingeht. Damit können bang-bang und singuläre Steuerungen auftreten. Eine genaue Analyse zeigt, dass singuläre Steuerungen nur auf einer schleifenförmigen Kurve im Phasenraum auftreten können; sie sind überdies Feedback-Steuerungen, hängen also nur vom Zustand ab. Damit können mögliche Schaltstrukturen vollständig in Abhängigkeit des Startwertes des Zustands bestimmt werden. Trotz der relativen Komplexität des Modells gelingt hier also die Synthese der optimalen Trajektorien. Darunter versteht man die Angabe der optimalen Steuerung in Abhängigkeit vom augenblicklichen Zustand.

Numerische Rechnungen mithilfe eines Innere-Punkte-Lösers (IPOPT), angesteuert über die Modellierungssprache AMPL, verifizieren die analytischen Ergebnisse für diverse optimale Schaltstrukturen. Da hinreichende Bedingungen außerhalb der Reichweite (einer Masterarbeit) liegen, müsste man genauer stets von Kandidaten für eine Optimallösung sprechen. Ein interessanter Fall, dass die singuläre Schleifenkurve vor Ende der Medikamentenhöchstdosis mit einem Teilstück mit maximal zulässiger Dosis verlassen werden kann, wird numerisch durch hoch aufgelöste Rechnungen verifiziert und bestätigt die analytischen Rechnungen von Ledzewicz u.a.

Zusätzlich werden nun noch suboptimale Lösungen berechnet, bei denen nur (stückweise) konstante Medikamentendosen zugelassen werden, die im Rahmen einer Therapie einfacher zu verabreichen sind. Zum Beispiel kann man eine einzige konstante Dosis über einem einzigen offenen Zeitintervall optimal bestimmen, bis die akkumulierte Medikamentenhöchstdosis verbraucht ist. Hierbei muss man im Allgemeinen noch eine Phase ohne Medikamentengabe nachschalten, während der das Tumorvolumen aufgrund der asymptotischen Stabilität des noch nicht erreichten Gleichgewichtspunktes fällt, bis die Winkelhalbierende des Phasenraumes erreicht wird. Oder man verteilt nach Ledzewicz u.a. die gesamte Medikamentengabe als konstante Dosis auf das optimale Zeitintervall aus der Optimallösung des optimalen Steuerungsproblems. Auch hier muss man eine Phase ohne Medikamentenabgabe nachschalten, um den Gleichgewichtspunkt zu erreichen. Bei all diesen suboptimalen Lösungen unterliegen die Zeitpunkte, in denen das Medikament verabreicht oder nicht mehr verabreicht wird, neben der Höhe der Dosis der Optimierung. Bei diesen Ansätzen ist also die Zeitdauer der Medikamentengabe offen.

Alternativ kann man aber auch optimale Tagesdosen bis zum Erreichen des Gleichgewichtspunktes berechnen. Schließlich kann man noch die Höhe der Medikamentendosen über einer festen (geringen) Anzahl von Zeitintervallen variabler Länge optimieren.

Klar ist, dass durch die Einschränkung der Freiheitsgrade bei all diesen Optimierungsansätzen stets nur suboptimale Lösungen gegenüber dem Ausgangsproblem erhalten werden können. Die Ergebnisse zeigen jedoch, dass man einfacher zu realisierende Therapien erhält und nur unwesentlich gegenüber dem Optimum zurückbleibt; die Abweichungen sind sicherlich weit unterhalb der Modellgüte.

Bemerkung: In der Literatur gibt es bereits Modelle für eine Kombinationstherapie aus Anti-Angiogenese und Chemotherapie, auch Radiotherapie wurde bereits einbezogen. Zu ersterem gibt es auch analytische und numerische Resultate, zu letzterem liegen erste Ansätze vor. Auch pharmakokinetische Ansätze wurden bereits berücksichtigt. Es handelt sich also hierbei um ein aktuelles Problem aus einem interessanten Forschungsgebiet, wo Medizin auf Mathematik trifft.

Studium: Mathematik mit Nebenfach Physik nach Lehramt für Gymansien, Master, U Bayreuth
Abschluss: 07/2012
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Projektentwicklerin
Firma: inuTech GmbH, Nürnberg
Branche: Software, Numerische Dienstleistungen,
Entwickler von DIFFPACK zur numerischen Modellierung und Lösung von partiellen Differentialgleichungen
E-Mail: eleonorafeist``at''gmx.de

Numerische Berechnung optimaler Steuerungsprobleme bei technischen Anwendungen
von
Elisabeth Frewer

Elisabeth Frewer Zusammenfassung. Frau Frewer hat sich in ihrer Diplomarbeit mit Problemen der Optimalen Steuerung bei gewöhnlichen Differentialgleichungen auseinandergesetzt, wo die Steuervariable linear in die Aufgabenstellung eingeht. Nur bei solchen Problemstellungen treten die komplizierten bang-bang Steuerungen und gegebenenfalls singuläre Extremalenbögen auf. Zur Einarbeitung hat sich Frau Frewer mit dem Van-der-Pol-Oszillator beschäftigt, einem schon mehrfach in der Literatur untersuchten Problem. Als zweite anspruchsvolle Aufgabe sollte die Berechnung optimaler Landeabbruchmanöver für Verkehrsflugzeuge beim plötzlichen Eintreten von Scherwinde untersucht werden, die von früheren Diplomanden des Betreuers (Montrone, 1989; Berkmann, 1993, beides TU München) mithilfe der Mehrzielmethode gelöst werden konnte. Wegen der schwierigen Handhabung der Mehrzielmethode dauerte der Prozess des Lösens seinerzeit mehrere Monate, in denen die aus den notwendigen Bedingungen der Optimalsteuerungstheorie herrührenden extrem komplizierten Mehrpunktrandwertprobleme häufig per Hand wegen der oft auftretenden Änderungen der Schaltstruktur angepasst werden mussten, um über aufwändige Homotopien letztendlich eine Lösung zu erhalten. Dieses Problem zählt hinsichtlich seiner Schaltstruktur (eine Zustandsbeschränkung erster, eine dritter Ordnung sowie diverse bang-bang und singuläre Extremelanbögen) sicherlich zu den diffizilsten Optimalsteuerungsproblemen bei gewöhnlichen Differentialgleichungen.

Ziel der Arbeit von Frau Frewer war es, solche Probleme mit modernen direkten Methoden, hier einer Kombination der Modellierungssoftware AMPL und dem Innere-Punkte-Löser IPOPT, zu lösen und dann a posteriori die notwendigen Bedingungen, insbesondere die des Minimumprinzips näherungsweise zu verifizieren und mit den Ergebnissen aus der Literatur zu vergleichen. Diese Methode hat sich in der Vergangenheit bei den meisten Aufgabenstellungen als gegenüber der Mehrzielmethode überlegen herausgestellt. Die Hoffnung war nun, den Lösungsprozess zeitlich auch bei solch komplizierten Problemstellungen zu verkürzen, bei deutlich reduzierten theoretischen und numerischen Anforderungen an den Anwender.

Während beim Van-der-Pol-Oszillator auf diese Weise optimale Lösungen berechnet werden konnten und auch eine Verbesserung der Lösung über eine Nachiteration als Schaltpunktoptimierungsproblem gelang, konnten mit der Kombination AMPL/IPOPT keine Näherungen für das Scherwindproblem berechnet werden. Über die Gründe kann man nur spekulieren, das Modell ist aber auch extrem diffizil, enthält mehrere nichtglatte Modellfunktionen und beschreibt ein Flugmanöver nahe am Absturz, dessen Schwierigkeiten für den Piloten sich auch im numerischen Verhalten widerspiegeln können.

Studium: Mathematik mit Nebenfach Physik, Diplom, U Bochum und U Bayreuth
Abschluss: 12/2012
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: lisa-frewer``at''gmx.de

Optimale Steuerung einer Schmelzkarbonatbrennstoffzelle mit direkten Verfahren
von
Johanna Kerler

Johanna Kerler Aufgabenstellung. Frau Kerler sollte in ihrer Masterarbeit Forschungen auf dem Gebiet der Optimalen Steuerung eines sehr komplizierten Modells für ein Schmelzkarbonat-Brennstoffzellensystem weiterführen. Die Arbeiten daran wurden im Rahmen eines BMBF-Projektes im Mai 2002 begonnen und wurden auch nach dem Projektende im Dezember 2005 aus akademischem Interesse weitergeführt, da das zugrundeliegende Modell eine ganz besondere Herausforderung für die Optimierung mit partiellen Differentialgleichungen als Nebenbedingungen darstellt. Verschiedene Modellvarianten waren bereits mehrfach Gegenstand von Dissertationen und Diplomarbeiten. Frau Kerler hatte bereits in ihrer Bachelorarbeit mit dem Titel Simulation und Modellreduktion eines dynamischen Modells einer Schmelzkarbonat-Brennstoffzelle an diesem Thema gearbeitet.

In ihrer Masterarbeit sollte nun noch ein Beitrag zur Optimierung mit direkten Verfahren hinzukommen. Die Aufgabe knüpft an eine kürzlich erschienene Arbeit von A. Rund und K. Chudej an, in der ein vereinfachtesörtlich eindimensionales Modell für eine Gegenstromkonfiguration der Gasströme im Anoden- bzw. Kathodenkanal optimiert wurde. In der Zelle entsteht eine kontrollierte Knallgasreaktion und Freisetzung von Energie, die dann zu einer umweltfreundlichen Stromproduktion genutzt werden kann. Brennstoff kann zum Beispiel Methan sein, aus dem aufgrund der hohen Temperaturen in der Zelle Wasserstoff gewonnen werden kann. Ziel der Optimierung sind schnelle Lastwechsel und die Begrenzung von Temperaturschwankungen, die die Zelle zerstören können.

In der Arbeit von Rund und Chudej wurde nach der Methode First discretize, then optimize nach Semi-Diskretisierung im Ort (Linienmethode) ein zeitadaptives implizites Mehrschrittverfahren variabler Ordnung verwendet. Die Optimierung erfolgte mit dem MATLAB NLP-Löser fmincon, der in sich mehrere Löser vereint, u.a. ein SQP- und ein Innere-Punkte-Verfahren. Nachteilig ist die Verwendung von numerischer Differentiation zur Berechnung des Gradienten nach den Optimierungsvariablen, hier sind es allerdings "nur" die zeitabhängigen Randsteuerungen. Das Verfahren von Rund und Chudej löst also im Diskreten das reduzierte Zielfunktional.

Im Gegensatz dazu sollte Frau Kerler eine Voll-Diskretisierung durchführen und das diskretisierte, sehr große endlich-dimensionale Optimierungsproblem mit der bewährten Kombination aus der Modellierungssprache AMPL und dem Innere-Punkt-Löser IPOPT von Wächter und Biegler lösen. Dieser Zugang behandelt also Zustände und Steuerungen gleichberechtigt. Hierbei liefert AMPL die für die Optimierung benötigten Ableitungen erster und sogar zweiter Ordnung per Automatischer Differentiation, also exakt (!), und sollte, so die Erwartung, eine vergleichbare Approximationsgüte wie ein adjungiertenbasiertes Verfahren liefern, ohne jedoch die dafür erforderlichen tiefen Kenntnisse der zugehörigen Theorie einbringen zu müssen.

Zusammenfassung. Im Gegensatz zu der Methode von Rund und Chudej muss man wegen der Automatischen Differentiation auf Adaptivität verzichten. Da alle Variablen in Ortsrichtung sehr glatt sind, kann man auf Adaptivität bzgl. der Ortsvariablen in der Tat verzichten. Wegen der sehr unterschiedlichen Zeitskalen verschiedener Zustandsvariablen ist allerdings Adaptivität in Zeitrichtung unverzichtbar. Bei Lastwechseln weiß man aber, wo man die Zeitschrittweite feiner wählen muss. Frau Kerler führt dazu ein logaritmisch skaliertes Gitter ein, ähnlich wie in der Dissertation von K. Sternberg.

Die hyperbolischen Gleichungen müssen im Ort mit Up-Wind-Verfahren diskretisiert werden, um auch im Diskreten die Erhaltungsgrößen einzuhalten. Wegen der beteiligten Wärmeleitungsgleichung ist dasörtlich semi-diskretisierte differential-algebraische Gleichungssystem steif, sodass die Zeitintegration die Anwendung eines impliziten Verfahrens, hier des impliziten Eulerverfahrens, erfordert. Im Gegensatz zu dem Zugang von Rund und Chudej sind jetzt Trajektorien in festen Ortspunkten (im Sinne der Linienmethode) keine absolut stetigen Funktionen mehr. Damit wird die Wahl konsistenter Anfangswerte im gesamten Ort-Zeit-Zylinder zu einer schwierigen Aufgabe. Frau Kerler löst dieses Problem unter Verwendung des Zustandslösers von Rund und der Berechnung stationärer Lösungen.

Verschiedene Zielfunktionale können jetzt versucht werden zu optimieren, insbesondere können dabei auch erstmalig Zustandsbeschränkungen einbezogen werden. Es stellt sich heraus, dass gewisse Aufgabenstellungen erfolgreich behandelt werden können, andere nicht. Problematisch ist die Minimierung des $L^2$-Abstandes der Temperatur im Elektrolyten der Brennstoffzelle von einer Zielvorgabe, um diese auf möglichst konstantem Wert zu halten. Inverse Probleme mit der Wärmeleitungsgleichung sind aber wegen des glättenden Einfluss dieser Zustandsvariable extrem schlecht konditioniert. Stattdessen wurde die Zellspannung nach einem Lastwechsel an den neuen stationären Wert herangeführt. Für diese Aufgabenstellung konnte dann eine Zustandsbeschränkung an die Temperatur im Elektrolyten in das Optimalsteuerungsproblem eingebracht werden. Die für die Praxis wichtigere Beschränkung des Gradienten dieser Temperatur gelang leider nicht. Über den Grund kann man nur spekulieren, wahrscheinlich reicht die Genauigkeit nicht mehr, um aus der Finiten-Differenzen-Approximation noch eine für die Optimierung ausreichende Genauigkeit des Gradienten zu gewinnen. Stattdessen konnte aber die absolute punktweise Differenz zwischen den Temperaturen im Anoden- und Kathodengasstrom beschränkt werden, die ja unmittelbare Auswirkungen auf den Temperaturgradienten im Elektrolyten haben sollte.

Bei einem praktischen Problem dieser gigantischen Grössenordnung (23 zeit- und ortsabhängige und 18 "nur" zeitabhängige Variablen) kann man naturgemäß keine "schöne" mathematische Theorie (Existenz, Eindeutigkeit - und das bei stark nichtlinearen Quelltermen) mehr machen. Allerdings hat Rund in seiner Dissertation gezeigt, dass auch die Methode First optimze, then discretize zumindest bei demörtlich eindimensionalen Modell gangbar ist. Diese Methode erfordert allerdings tiefe Kenntnisse der Theorie der Optimalen Steuerung mit partiellen Differentialgleichungen - hier tritt genau gesagt ein System aus mehreren hyperbolischen, einer elliptischen, etlichen gewöhnlichen Differentialgleichungen und algebraischen Gleichungen auf, in die zum Teil noch Integralterme eingehen. Direkte oder First-discretize-then-optimze-Verfahren bieten dabei schon eine wichtige Erleichterung für den Praktiker. Die Rechenzeiten belaufen sich dafür aber auf beachtliche (mehr als) 30 Stunden für die numerische Lösung der endlich-dimensionalen, restringierten Optimierungsverfahren mit über 30000 Variablen. In der offenen Literatur wurde über Optimalsteuerungsprobleme dieser Größenordnung bisher nicht berichtet. Entscheidend bei direkten Verfahren ist aber der im Allgemeinen geringere Einsatz von "Humankapital", obwohl man an einem guten Verständnis für die technischen Abläufe bei diesem Brennstoffzellentyp nicht vorbeikommt.

Studium: Mathematik mit Nebenfach Informatik, Master, U Bayreuth
Abschluss: 07/2012
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftliche Mitarbeiterin
Firma: Lehrstuhl für Angewandte Analysis mit Schwerpunkt Numerik, Universität Augsburg
Branche: Öffentlicher Dienst
E-Mail: kerlerj``at''gmx.de
Homepage: von Johanna Kerler
Sonstiges: Frau Kerler strebt eine Promotion in der Arbeitsgruppe von Frau Prof. Dr. Tatjana Stykel, Universität Augsburg, an.

Optimale Steuerung bei infiniten Zeithorizonten mit Anwendungen in der Ökonomie.
von
Falk Meyerholz

Falk Meyerholz Aufgabenstellung. Optimalsteuerungsprobleme für gewöhnliche Differentialgleichungen mit unendlichem Zeithorizont sind mit Blick auf den Wunsch, "nachhaltige" optimale Lösungen zu berechnen, insbesondere für Anwendungen in der Ökonomie interessant. Seit einigen Jahren sind diese Aufgabenstellungen bei der Forschergruppe um Professor Sabine Pickenhain von der BTU Cottbus auf großes Interesse gestoßen, als man dort feststellte, dass diese Problemstellungen viele verborgene Fallstricke aufweisen, die bisher in der Literatur nur vereinzelt angedeutet worden waren oder die man schlicht nicht gesehen hat und dadurch oft "falsche" Lösungen als "optimal" ausgewiesen hat bzw. man muss sich erst noch über einen sinnvollen Optimalitätsbegriff einigen. Die typische Vorgehensweise, die Lösungen auf infinitem Zeithorizont durch eine Approximation auf einem großen endlichen Zeithorizont zu approximieren, kann zwar bei "beobachteter Konvergenz" der Lösungskandidaten mit wachsender Endzeit richtige Resultate liefern, aber auch falsche Ergebnisse liefern.

Herr Meyerholz sollte sich diesen Themenkomplex einmal ansehen und die Literatur nach den verschiedenen Lösungsansätzen durchforsten, diese gegenüberstellen und exemplarisch anhand von Beispielen mitökonomischem Hintergrund numerisch testen.

Zusammenfassung. H. Halkin hatte bereits 1974 festgestellt, dass die Transversalitätsbedingung, eine Bedingung im berühmten Maximumprinzip von Pontrjagin u.a., welches die entscheidende notwendige Bedingung der Optimalsteuerungstheorie bei gewöhnlichen Differentialgleichungen ist, im Allg. nicht gelten muss. Zudem wird in der Regel bei Optimalsteuerungsproblemen über infinitem Zeithorizont nicht festgelegt, welchen Integraltyp man meint. V. Lykina (2010, BTU Cottbus) hat in ihrer Dissertation Beispiele angegeben, wo (uneigentliches) Riemann- und Lebesque-Integral zu verschiedenen Optimallösungen führt oder wo das Optimalsteuerungsproblem mit einem Integraltyp eine Lösung besitzt, mit dem anderen Integraltyp aber nicht. Bekanntlich gilt über endlichem Horizont die Gleichheit von Riemann- und Lebesque-Integral, wenn der Integrand Riemann-integrierbar ist. Dies muss aber für einen unendlichen Horizont nicht gelten.

Weitere Fallstricke sind unendliche Zielfunktionalswerte, die entweder nach einer Modifikation des Problems oder gar anderen Optimalitätsbegriffen verlangen. Fazit: Die Überprüfung von Lösungskandidaten auf Optimalität ist alles andere als eine triviale Aufgabe.

Da in den meisten Optimalsteuerungsproblemen dieser Art aus der Ökonomie in den Integralfunktionalen die für diese Problemklasse typischen Diskontierungsfaktoren auftreten, wurde auf Vorschlag von S. Pickenhain und Lykina eine neue, größere Funktionenklasse vorgeschlagen: gewichtete Sobolew-Räume für die Zustände und gewichte Lebesque-Räume für die Steuerungen. Dazu konnte Pickenhain auch ein Maximumprinzip beweisen. Leider ist auch dieser Ansatz kein Allheilmittel, auch wenn er mit mathematischen Mitteln inhärente Defizite in den Modellen ausgleicht. In vielen Modellen der Ökonomie treten nämlich lineare Differentialgleichungen auf, die exponentielles Wachstum beschreiben, das jedoch de facto nirgens existiert, zumindest nicht langfristig.

Das heißt, man stellt fest, dass die zugrundeliegenden Modelle unvollständig sind und nicht alle Informationen beinhalten, die in der Modellierung hätten berücksichtigt werden müssen. So kann man Wachstum durch Zustandsbeschränkungen begrenzen. Man ändert durch eine solche "Majorantenmethode" natürlich die ursprüngliche Aufgabenstellung ab.

Bei autonomen Problemen spielen auch Gleichgewichtslösungen eine Rolle, auf die man versucht hinzusteuern, um dann möglichst lange auf ihnen zu bleiben: Turnpike-Methode (Turnpike = Autobahn). Tritt die Zeit explizit nur im Diskontierungsfaktor auf, kann man die Variablen des Optimalsteuerungsproblems transformieren, um den nicht-autonomen Diskontierungsfaktor zu eliminieren. Die Hamiltonfunktion geht über in die sogenannte Momentanwert-Hamiltonfunktion. Aber auch diese Methode funktioniert nicht in allen Fällen.

Des Weiteren kann man bei bestimmten Problemklassen das infinite Intervall auf ein endliches transformieren (Pickenhain, Wenzke, BTU Cottbus). Einige weitere Lösungsansätze verwenden einen anderen Integralbegriff, das Henstock-Kurzweil-Integral, oder die Dualitätstheorie (beides: Lykina), die es erlaubt, sogar hinreichende Bedingungen zu überprüfen. Die beiden letzten Ansätze sind nicht mehr in der Diplomarbeit behandelt worden.

Die in der Diplomarbeit behandelten Aufgabenstellungen betreffen neben einem Fischfangproblem (Carlson, Haurie, Leizarowitz, 1991), bei dem Nachhaltigkeit eine Rolle spielt, insbesondere verschiedene Fassungen des linearen Ramsey-Modells (1928), das beschreibt, wie eine Volkswirtschaft nachhaltig sparen soll, um den Wohlstand zu sichern und eines Ressource-Allocationsproblems, diese beide jeweils auch in der nach der Majorantenmethode modifizierten Form).

Aus einer laufenden Dissertation von Jana Kouris, RWTH Aachen, stammt dann noch ein Problem, bei dem ein zweiseitiger Markt (Internetauktionsportal) modelliert wird. Dieses Problem geht auf Minggchun und Edison (2007) zurück. Hier gelingt es Lösungskandidaten sowohl durch Steuerung auf den Gleichgewichtspunkt, als auch durch Fortsetzung zu bestimmen.

Fazit: Der Stein der Weisen wurde (noch?) nicht gefunden. Als erstes sollte man sich beiökonomischen Aufgabenstellungen aber ansehen, ob alle Informationen im Modell enthalten sind, inbesondere ob die Verwendung linearer Diffrentialgleichungen wirklich geeignet ist, da diese exponentielles Wachstum nach sich ziehen. Ebenso ist zu hinterfragen, ob ein unendlicher Zeithorizont wirklich adäquat ist oder ob man in der Realität nicht doch ``auf Sicht'' optimiert, selbst wenn man Nachhaltigkeit verfolgt und nicht auf kurzfristigen Gewinn aus ist. Wenn man sich des Modells sicher ist, sollte man verschiedene Ansätze testen, auch auf die Gefahr hin, verschiedene Lösungskandidaten zu bekommen. Diese sind dann nach den verschiedenen Optimalitätsbegriffen in der einschlägigen Literatur zu bewerten.

Studium: Wirtschaftsmathematik, Diplom, U Bayreuth
Abschluss: 07/2012
Erste Anstellung: unmittelbar nach einem Intermezzo in der universitären Lehre an der Universität Bayreuth
Position: Wissenschaftlicher Mitarbeiter
Firma: Fraunhofer-Institut für Integrierte Schaltungen, Erlangen
Branche: Forschungsinstitut
E-Mail: falkmeyerholz``at''web.de
Sonstiges: Herr Meyerholz arbeitet als wissenschaftlicher Mitarbeiter in der Fraunhofer-Arbeitsgruppe für Supply Chain Services auf dem Gebiet der Logistik.

Bang-bang und singuläre Steuerungen bei Optimalsteuerungsproblemen mit der Wellengleichung
von
Jan-Eric Wurst

Jan-Eric_Wurst Aufgabenstellung. Ausgangspunkt der Arbeit war ein Report von Kunisch und Daniel Wachsmuth zur zeitoptimalen Steuerung derörtlich eindimensionalen Wellengleichung aus dem Jahre 2011. In dieser Arbeit wird ein Optimalsteuerungsproblem beschrieben, bei dem ausgehend von gegebenen Anfangsbedingungen die klassische Wellengleichung auf vorgegebene Endbedingungen hin in minimaler Zeit gesteuert werden soll. Die Steuerung unterliegt dabei einer Ungleichungsbeschränkung, die punktweise in der Zeit ist: Für fast alle Zeitpunkte im Zeitintervall $[0,t_f]$ soll die $L^2$-Norm der verteilten Steuerung $u(t,x)$ über dem Raumgebiet $\Omega$ beschränkt sein: $\Vert u(t,\cdot)\Vert_{L^2(\Omega)} \le \gamma$.

Es zeigte sich, dass in diesem Preprint noch ein Fehler steckte, der die notwendige Transversalitätsbedingung zur Bestimmung der minimalen Endzeit $t_f$ betraf. Dieser sollte korrigiert werden und die Lösungen sollten im Gegensatz zur ursprünglichen Arbeit von Kunisch und Wachsmuth mit einem direkten Verfahren (first discretize, then optimize) numerisch gelöst werden. A posteriori sollten dann die notwendigen Bedingungen anhand der diskreten Lösungen verifiziert werden. Dies kann nur gelingen, wenn der verwendete Nichtlineare Optimierungslöser auch diskrete Schätzungen für die adjungierten Variablen liefert. Die in mehreren Diplomarbeiten bewährte Kombination aus dem Modellierungstool AMPL, das automatische Differentiation für die genaue und effiziente Berechnung des Gradienten des Zielfunktionals nach den Optimierungsvariablen erlaubt, und aus dem Innere-Punkte-Löser IPOPT erfüllt diese Voraussetzungen und ist stets dann verwendbar, wenn sich die Größe des resultierenden nichtlinearen Programms in moderaten Grenzen hält.

Zusammenfassung. Zunächst einmal werden die notwendigen Optimalitätsbedingungen erster Ordnung für dieses Optimalsteuerungsproblem mit der (hyperbolischen) Wellengleichung hergeleitet. Dazu wird zunächst die Existenz einer schwachen Lösung des Anfangs-Randwertproblems für die Wellengleichung und deren Wohlgestelltheit bewiesen. Für hinreichend glatte Anfangsdaten erhält man - nicht unerwartet - höhere Regularität. Das Optimalsteuerungsproblem mit der Wellengleichung als Nebenbedingung ist dann lösbar, wenn das System steuerbar ist. Als nächstes wird über ein bzgl. der Endbedingungen penaltisiertes und bzgl. der freien Endzeit regularisiertes Problem die Existenz von Lagrangemultiplikatoren sichergestellt. Auch dieses Problem besitzt eine Lösung, für das Konvergenz gegen das ursprüngliche Problem nachgewiesen wird, wenn man den Regularisierungs- bzw. Penaltisierungsparameter gegen Null treibt.

Die funktionentheoretischen Hilfsmittel für diese sehr tiefliegenden Untersuchungen unterscheiden sich von jenen, die bei elliptischen und parabolischen Differentialgleichungen zum Einsatz kommmen. Herr Wurst konnte hier jedoch weitgehend auf die Orginalarbeit zurückgreifen, hat dies allerdings in seiner Diplomarbeit weitaus detaillierter ausführen können, als dies unter den beschränkten Seitenzahlen einer wissenschaftlichen Publikation möglich ist.

Besonderes Augenmerk galt dabei der Projektionsformel der oben genannten ``unüblichen'' Steuerungsbeschränkung sowie der Richtigstellung der Transversalitätsbedingung. Es zeigt sich, dass die Steuerung von höherer Regularität ist. Bei der Transversalitätsbedingung wird ein Parallelschluss zur Steuerungstheorie mit gewöhnlichen Differentialgleichungen gewagt, u.a. wird numerisch nachgewiesen, dass eine geeignet definierte Hamiltonfunktion im Optimum identisch Null ist, wie es typisch für autonome Optimalsteuerungsprobleme bei gewöhnlichen Differentialgleichungen ist.

Die Verifizierung der wesentlichen notwendigen Bedingungen anhand dreier Testbeispiele beschließt dann den Teil der Arbeit, der sich auf den Report von Kunisch und Wachsmuth stützt. Die optimalen Steuerungen haben dabei bang-bang Charakter, jedoch nicht im bekannten üblichen Sinn wie bei Box-Beschränkungen, wo die optimale Steuerung zwischen den zulässigen Extremwerten hin- und herspringen kann. Aber auch hier lässt sich eine (nur von der Zeit abhängige) Schaltfunktion angeben, deren Nullstellen eine sprunghafte Änderung der Gestalt der optimalen Steuerung determinieren. Die Rolle der Schaltfunktion übernimmt hier, wie bei den meisten Optimalsteuerungsproblemen mit partiellen Differentialgleichungen üblich, ein Lagrangeparameter.

In Erweiterung der ursprünglichen Problemstellung gelingt es Herrn Wurst obendrein noch singuläre Steuerungen, genauer bang-singuläre Steuerungen numerisch nachzuweisen, bei denen die Schaltfunktion identisch verschwindet, die optimale Steuerung dann also aus dem Inneren des zulässigen Steuerbarkeitsbereiches ist und als Feedbacksteuerung dargestellt werden kann. Bei diesen Problemen muss die Endzeit allerdings vorgegeben werden. Die singuläre Steuerung steuert die (instationäre) Wellengleichung auf einen stationären Gleichgewichtspunkt.

Sowohl zeitminimale Optimalsteuerungsprobleme als auch Probleme mit singulären Steuerungen sind, obwohl bei Optimalsteuerungsproblemen mit gewöhnlichen Differentialgleichungen an der Tagesordnung, bei Optimalsteuerungsproblemen mit partiellen Differentialgleichungen noch kaum untersucht worden.

Studium: Technomathematik, Diplom, U Bayreuth
Abschluss: 03/2012
Erste Anstellung: sofort nach Studienabschlus
Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: Lehrstuhl für Mathematik VII, Universität Würzburg
Branche: Öffentlicher Dienst
E-Mail: jan-eric_wurst``at''gmx.de
Homepage: von Jan-Eric Wurst
Sonstiges: Herr Wurst strebt eine Promotion, betreut von Prof. Daniel Wachsmuth, Universität Würzburg, Lehrstuhl für Mathematik VII (Numerische Mathematik und Optimierung), an.

2013


$L^\infty$-beschleunigungs- und ruckminimale Interpolation im $\mathbb{R}^n$
von
Tobias Bauerfeind

Tobias Bauerfeind Aufgabenstellung und Ziele. Gegenstand der Diplomarbeit von Herrn Bauerfeind ist die Berechnung von Interpolationskurven durch vorgegebene Punkte im $\mathbb{R}^n$. Dies ist ein klassisches Problem der Numerischen Mathematik. Was ist daran also so spannend, als dass man es als Diplomarbeit vergeben soll? Nun, diese Aufgabenstellung tritt in der Robotik mit zusätzlichen Forderungen auf, die dieses Problem reizvoll und wichtig für Anwendungen macht.

In der Robotik werden im Allg. zuvor virtuell berechnete Punkt-zu-Punkt-Bahnen, die z.B. auch aus einer Optimierung herrühren können, in diskrete Punkte zerlegt, die ihrerseits wiederum von der roboterinternen Software in geeigneter Weise verbunden werden, um sie dann in der Realität abzufahren. Hierbei kann z.B. ein weiterer Optimierungsprozess zur Anwendung kommen. Um die Bahnen energieeffizient abzufahren, sollte man die Maximalbeschleunigung minimieren. Alternativ kann man aber auch, um möglichst materialschonend zu fahren, den maximalen Ruck minimieren. Mathematisch führen beide Aufgabenstellungen auf Optimalsteuerungsprobleme für gewöhnliche Differentialgleichungen. Die Untersuchung der Minimierung der maximalen Beschleunigung wurde höchstaktuell in einer Arbeit von Kaya und Noakes im renommierten SIAM Journal on Control and Optimization (2013) publiziert. Diese Arbeit bildet die Grundlage der Diplomarbeit von Herrn Bauerfeind. Sie sollte im Detail verstanden und ausgearbeitet werden. Insbesondere sollte untersucht werden, ob die Ideen von Kaya und Noakes gegebenenfalls auch auf die Minimierung des Maximalrucks übertragen werden können.

Zusammenfassung. Nach Einleitung, Zielsetzung und Vorgehensweise werden in Kapitel 3 die Ergebnisse aus der Arbeit von Kaya und Noakes zusammengefasst und bereits im Hinblick auf ihre Verallgemeinerung auf die Minimierung des Maximalrucks dargestellt. Die Stationen sind: Umformulierung des Ausgangsproblems als zustandsbeschränktes Optimalsteurungsproblem für gewöhnliche Differentialgleichungen und Aufstellung der notwendigen Bedingungen mithilfe der formalen Lagrangetechnik. Man beachte, dass in Kaya, Noakes im Unterschied zur Vorgehensweise zur Diplomarbeit von Herrn Bauerfeind ein Minimumprinzip verwendet wurde. Beides resultiert im gleichen System von notwendigen Bedingungen. Kandidaten für optimale Lösungen können bang-bang oder singulär sein. Auch wenn Herrn Bauerfeinds Vorgehensweise "nur" formal gesehen werden darf, liefert die Vorgehensweise von Kayas und Noakes deren Rechtfertigung, die deswegen hier nicht nochmals wiederholt werden muss.

Eine Analyse der notwendigen Bedingungen ergibt Folgendes: Für beliebig viele Interpolationsknoten kann im nichtsingulären Fall das Optimalsteuerungsproblem auf ein endlich dimensionales Optimierungsproblem zurückgeführt werden, welches mit Standardsoftware numerisch gelöst werden kann. Dieses liefert Koeffizienten, mit denen die Optimallösung analytisch dargestellt werden kann. Hierzu ist es notwendig, dass die optimale Steuerung explizit angegeben werden kann. Dies ist durch die Existenz von Stammfunktionen gewisser Integrale gesichert. Im $\mathbb{R}^1$ sind die Interpolationskurven stückweise quadratisch bzgl. ihres Parametrisierungsparameters und ihre Beschleunigung weist einen konstanten Betrag auf. Im $\mathbb{R}^n$ mit $n \ge 2$ ist es, obwohl die Norm der Beschleunigung konstant ist, nicht nur möglich, dass die Interpolationskurve nicht stückweise quadratisch bzgl. ihres Parametrisierungsparameters ist, sondern sogar nicht einmal polynomial.

Bei vier Interpolationsknoten kann man a priori entscheiden, ob der singuläre Fall vorliegt oder nicht. Im singulären Fall setzt sich die interpolierende Kurve dann aus zwei quadratischen Polynomen zusammen, deren Koeffizienten analytisch berechnet werden können. Eine Verallgemeinerung auf mehr als vier Interpolationsknoten macht wegen des exponentiell wachsenden Aufwands bei den durchzuführenden Fallunterscheidungen keinen Sinn.

Anhand einiger ausgesuchter Beispiele werden alle möglichen Fälle durchgespielt. Offen bleibt dabei, ob gefundene Kandidaten tatsächlich optimal sind, insbesondere kann man bei den numerisch berechneten Optimallösungen über das zugehörige endlich dimensionale Optimierungsproblem nicht sicher sein, ob nicht doch singuläre Lösungen evtl. bessere Lösungen liefern können.

In Kapitel 4 wird jetzt die Verallgemeinerung auf die Berechnung von Interpolationskurven mit minimalem Maximalruck behandelt. Die zugehörigen Optimalitätsbedingungen werden wieder mittels formaler Lagrangetechnik hergeleitet. Auch wenn sich einige Ergebnisse aus Kapitel 3 übertragen lassen, verhindert die Nichtexistenz gewisser Stammfunktionen, dass die Optimalsteuerung wieder explizit angeben kann und sich daher das Optimalsteuerungsproblem auf ein endlich dimensionales Optimierungsproblem für gewisse Variablen in den analytischen Lösungsformeln vereinfachen lassen kann. Auch die separate Untersuchung von Problemen mit singulärem Extremalenbogen im Fall von vier Interpolationsknoten ist nicht durchführbar. Somit bleibt als "bequeme" Alternative nur, das zur Aufgabenstellung zugehörige Optimalsteuerung durch Diskretisierung auf ein nichtlineares, restringiertes Optimierungsproblem zu transformieren und dann numerisch zu lösen.

Anhang eines numerischen Beispiels mit vier Knoten und dessen Resultaten zu den beiden Optimalsteuerungsansätzen wird die zuvor erzielte mathematische Analyse veranschaulicht.

Kapitel 6 gibt dann neben einer Zusammenfassung noch einen Ausblick, insbesondere auf die Problematik einer geeigneten Parametrisierung der Interpolationskurven, die in den in der Arbeit untersuchten Beispielen stets äquidistant gewählt wurde. Diese beeinflusst selbstverständlich die Optimierung. Ebenso werden Zusatzinformationen nötig, will man geschlossene Kurven berechnen.

Studium: Diplom, Mathematik mit Nebenfach Informatik, U Bayreuth
Abschluss: 11/2013
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Softwareingenieur
Firma: COR & FJA Deutschland GmbH, München
Branche: Software, Beratung
E-Mail: Tobias.Bauerfeind"at"gmx.net

Optimale Regelung einer Raumsonde beim Andockmanöver an Weltraumschrott
von
Martin Bodensteiner

Martin Bodensteiner Aufgabenstellung. Mehr als 60 Jahre sind bereits vergangen, seit Mitte des letzten Jahrhunderts die ersten Satelliten in das All geschickt wurden. Aufsummiert kann man im Jahre 2006 bereits circa 800 aktive Satelliten im All zählen; diese Ansammlung zeigt aber nur 4% aller Objekte auf, die tatsächlich die Erde umkreisen. Das Orbital Debris-Program der NASA, ein eigens eingerichtetes Zentrum für die Forschung im Bereich des Weltraummülls, berichtet, dass zum jetzigen Zeitpunkt ungefähr 21.000 bekannte Objekte mit einer Größe von mehr als zehn Zentimetern, die Erde umkreisen. Laut einer Studie der University of Southampton aus dem Jahre 2009 wird sich die Menge des Weltraumschrotts im folgenden Jahrzehnt um 50 % und bis 2050 um das Vierfache erhöhen.

Da es nicht möglich ist, den Weltraumschrott vollständig zu katalogisieren, stellen mögliche unvorhersehbare Kollisionen eine Gefahr für die aktiven Satelliten dar. Am 10. Februar 2009 kam es zum ersten bekannt gewordenen Zusammenstoß eines aktiven Satelliten mit einem ausgedienten Objekt. Der russische Satellit Kosmos 2251, seit 1993 im All und dann ab 1999 außer Betrieb, kollidierte mit dem Kommunikationssatelliten Iridium 33 der US-Firma Iridium Satellite. Bei dem Zusammenstoß wurden beide Satelliten zerstört.

Somit stellt sich die Frage, wie sich Unfälle dieser Art in der Zukunft vermeiden lassen. Eine Maßnahme, die zum Erfolg führen könnte, besteht darin, einen Service-Satelliten in eine stabile Umlaufbahn zu befördern, mit dem Ziel Weltraummüll zu erkennen und zu entsorgen. Nach erfolgreicher Identifizierung eines zu entsorgenden Objekts durch die Sensorik des Satelliten wird ein Anflugmanöver eingeleitet und an das Objekt angedockt. Ein solches Manöver stellt ein sehr kompliziertes Zusammenspiel aus Methoden der Mathematik und Informatik dar.

Im Rahmen dieser Arbeit wird ein vereinfachtes Szenario betrachtet. Im Kernpunkt bedeutet dies, dass ein steuerbarer Service-Satellit an einen nicht kooperierenden Ziel-Satelliten andocken soll. Nicht kooperierend bezeichnet hierbei, dass sich der Ziel-Satellit in Bewegung befindet, selbiger aber nicht aktiv gesteuert werden kann. Seine Geometrie und Dynamik sind allerdings bekannt. Dieses Modell ist eine Anlehnung an die Deutsche Orbitale-Servicing-Mission (DEOS) des Deutschen Zentrums für Luft- und Raumfahrt (DLR). Erst kürzlich hat das DLR einen entsprechenden Auftrag an die Firma Astrium GmbH vergeben. DEOS bezeichnet eine Technologie-Demonstrations- Mission, bei welcher der Service-Satellit sowie der Ziel-Satellit gekoppelt in einen niedrigen Erdorbit gebracht werden. Anschließend werden die Satelliten separiert. Nun soll der Service- Satellit den nunmehr nicht kooperierenden Target-Satelliten einfangen, und man lässt den Satellitenverbund kontrolliert beim Wiedereintritt in die Erdatmosphähre verglühen.

Ziele. Ziel dieser Arbeit ist es, eine Regelung für ein Andockmanöver eines Service-Satelliten an einen nicht kooperienden Ziel-Satelliten zu entwerfen. Der Problemansatz dabei ist insbesondere, dass Störungen und Modellungenauigkeiten in einer vorab berechneten optimalen Bahn durch Feedbackregelung auszugleichen sind. Die hergeleitete Regelung soll in verschiedenen Szenarien getestet werden und auf wichtige regelungstheoretische Begriffe untersucht werden. Des weiteren soll der Einfluss der Regelungsparameter auf den Erfolg der Regelung dargestellt werden. Darüber hinaus soll durch Ermitteln des Einzugbereichs des Reglers eine Methodik entwickelt werden, mit der man entscheiden kann, ob bei einer gegeben Konstellation der beiden Satelliten ein Andockversuch überhaupt durchgeführt werden kann. Das für die Regelung notwendige Modell, das die Bewegung der beiden Satelliten im Raum beschreibt, wurde bereits in einer vorhergehenden Diplomarbeit hergeleitet (Johannes Michael, 2011). Anhand dieses Modells lässt sich eine optimale Steuerung des Service-Satelliten für ein Anflugmanöver berechnen.

Zusammenfassung. Nach einem Grundlagenkapitel zu Beginn der Arbeit wird das verwendete Modell im dritten Kapitel eingehend beschrieben. Das Grundlagenkapitel beinhaltet die Definition eines kontinuierlichen Systems als ein mathematisches Modell der Realität, sowie wichtige regelungstheoretische Begriffe, mit dem Ziel der Analyse eines solchen Systems. Ebenfalls werden Grundlagen der Wahrscheinlichkeitslehre sowie der Statistik eingeführt, die bei der Entwicklung des stochastischen Teils der Regelung relevant sind. Nun wurden für die Berechnung der optimalen Steuerung mit dem ursprünglichen Modell gewisse ideale, nicht der Realität entsprechenden Voraussetzungen gemacht. So nimmt man zum einen an, dass das mathematische Modell die Wirklichkeit fehlerfrei darstellt, und zum anderen, dass die aktuelle Position, Geschwindigkeit und Orientierung der Satelliten jederzeit ohne Einfluss von Messrauschen messbar sind. Da diese Punkte in der Realität nicht gegeben sind, ergibt sich bereits bei Start des Anflugmanövers eine Abweichung von der Referenztrajektorie.

Um dies zu verhindern, wird in Kapitel 4 eine Modifizierung des Modells mit stochastischen Größen vorgenommen. Somit werden der Modellierungsfehler sowie das Messrauschen mit in das Modell aufgenommen. Unter Berücksichtigung der stochastischen Eigenschaften dieser Störgrößen wird eine aus zwei Komponenten bestehende Regelung entlang der Referenztrajektorie entwickelt. In der ersten Komponente wird eine lineare Zustandsrückführung berechnet, während in der zweiten Komponente der aktuelle Systemzustand aus den verrauschten Messwerten geschätzt wird. Zur Schätzung wird ein Kalmanfilter verwendet, wobei in dieser Arbeit zwei Filter-Varianten vorgestellt werden. Es erfolgt noch eine Betrachtung der Stabilität der implementierten Regelung und eine Erreichbarkeitsanalyse. Unter Erreichbarkeitsanalyse versteht man hierbei bei gegebener Position des Service-Satelliten die Berechnung eines Raum-Kegels, so dass ein Anflugmanöver möglich ist wenn sich der Ziel-Satellit innerhalb dieses Kegels befindet.

Anschließend werden die Ergebnisse bei Anwendung der hergeleiteten Regelung präsentiert. Zunächst werden verschiedene Beispielszenarien vorgestellt. Bei der Ergebnisanalyse wird zunächst der stabilisierende Effekt des Reglers untersucht. Daraufhin erfolgt eine Untersuchung des modifizierten Systems auf Steuerbarkeit sowie Beobachtbarkeit hin und ein Vergleich der beiden Filtervarianten. Auch die Ergebnisse der Erreichbarkeitsanalyse werden vorgestellt. Nach einer Sensitivitätsanalyse der Regelparameter wird auf eine Einschränkung der Regelung eingegangen. Abschließend wird ein Fazit gegeben sowie ein Ausblick auf mögliche Weiterführungen der Arbeit.

Die Diplomarbeit entstand in Zusammenarbeit mit Prof. Matthias Gerdts, Lehrstuhl für Ingenieurmathematik der Universität der Bundeswehr, München.

Studium: Diplom, Techhnomathematik, U Bayreuth
Abschluss: 03/2013
Erste Anstellung: unmittelbar nach Studienabschluss
Position:
Firma:
Branche:
E-Mail: m_bodensteiner"at"web.de
Sonstiges: Herr Bodensteiner sucht derzeit nach einer Doktorandenstelle, nachdem ein DFG-Projekt, für das er als Doktorand vorgesehen war, nicht genehmigt wurde.

Bang-bang und singuläre Steuerungen bei Optimalsteuerungsproblemen
mit elliptischen partiellen Differentialgleichungen

von
Karin Pfab

Karin Pfab Inhalt. Bang-bang, insbesondere aber singuläre Steuerungen sind bei Optimalsteuerungsproblemen mit partiellen Differentialgleichungen im Gegensatz zu solchen mit gewöhnlichen Differentialgleichungen noch wenig untersucht worden. An der Universität Münster wurde 2006 eine Dissertation von Karsten Theißen veröffentlicht, in der erstmalig singuläre Steuerungen bei Optimalsteuerungsproblemen mit partiellen Differentialgleichungen numerisch untersucht worden sind. Ziel der Masterarbeit von Frau Pfab war es, einige der dort untersuchten Aufgabenstellungen mit einem ähnlichen Verfahren wie das von Theißen verwendete vom Typ First discretize then optimize nachzurechnen (eine Kombination aus der Modellierungssprache AMPL, die Automatische Differentiation garantiert, und dem Inneren-Punkte-Löser IPOPT) und insbesondere die Lösungen eingängig und leicht verständlich zu visualisieren.

Als Voraussetzung brachte Frau Pfab Kenntnisse aus der einschlägigen Vorlesung des Betreuers, Optimale Steuerung mit partiellen Differentialgleichungen, mit.

Studium: Mathematik mit Nebenfach Informatik, Master und Lehramt für Gymnasien, U Bayreuth
Abschluss: 04/2013
Erste Anstellung: unmittelbar nach Abschluss der letzten Prüfungen
Position:
Firma:
Branche:
E-Mail: Karin.Pfab``at''stmail.uni-bayreuth.de

Simulation und Optimierung von Aufgabenstellungen mit den Eulerschen Gleichungen der Fluiddynamik
von
Martin Treimer

Martin Treimer Aufgabenstellung. Die Masterarbeit beschäftigt sich mit den kompressiblen Eulerschen Gleichungen der Fluiddynamik. Mit diesen wird die Durchströmung eines Rohrs beschrieben. Ziel ist es, die Geometrie des Rohres nach gewissen Zielfunktionalen zu optimieren. Dabei soll ein Löser entwickelt werden, der basierend auf der adjungierten Methode auch für komplexere Geometrien benutzt werden kann. Ein mögliches Einsatzgebiet ist die Optimierung von Turbinen.

Zusammenfassung. Zu Beginn der Arbeit wird eine kurze Einführung in die adjungierten Gleichungen und in OpenFOAM, einem freiem Programm zur Stömungssimulation, gegeben. Die adjungierten Gleichungen werden in der Regel zur optimalen Steuerung von partiellen Differentialgleichungen und zur Geometrieoptimierung benutzt. OpenFOAM ist ein Strömungslöser, welcher freien Zugang zum Sourcecode zulässt. Dies hat den Vorteil, dass alle vorhandenen Solver vom Benutzer verändert und erweitert werden können.

Bevor die Adjungierte der Eulerschen Gleichung hergeleitet wird, werden einige Zwischenschritte vollzogen. Es wird die adjungierte Gleichung der Wärmeleitungsgleichung berechnet und in OpenFOAM implementiert. Da diese Gleichung selbstadjungiert ist, dass heißt, dass die Ausgangs- und die adjungierte Gleichung von derselben Form sind, kann hier das spätere Vorgehen an einem einfachen Beispiel vorgestellt werden. Im nächsten Schritt wird eine einfache hyberbolische Gleichung, die eindimensionale Advektionsgleichung, betrachtet. Ein Löser dieser Gleichung wird in OpenFOAM implementiert.

Der Hauptteil der Masterarbeit beschäftigt sich mit der Herleitung der adjungierten Eulergleichung im Zwei- und Dreidimensionalen für verschiedene Zielfunktionale zur Geometrie- oder Effizenzoptimierung. Schwierigkeiten stellen vor allem die Herleitung der adjungierten Randbedingungen dar. Diese sind, abhängig von den eingeführten adjungierten Parametern, gegeben durch unterbestimmte Gleichungssysteme. Bei der Implementierung müssen diese mit den numerischen Randbedingungen verknüpft werden. Die Herleitung der adjungierten Gleichung und deren Randbedingung erfolgt mit dem formalen Lagrangeprinzip.

Vor der Implementierung werden einige theoretische Aspekte der Eulergleichung und deren Adjungierten beleuchtet. Die Eulergleichung stellt eine hyperbolische partielle Differentialgleichung in Erhaltungsform dar. Damit sind für den Strömungslöser einige Punkte vorgegeben. Ziel ist es, für die adjungierte Gleichung diese Punkte zu übernehmen, was aufgrund der Form der Gleichung einige Schwierigkeiten beinhaltet. Besonders problematisch ist die Implementierung eines Solvers für hyperbolische Gleichungen in OpenFOAM. Für die Lösung der Gleichungen muss eine spezielle Diskretisierung angewandt werden.

Die Masterarbeit entstand in Zusammenarbeit mit Siemens Corporate Technology in München.

Studium: Techhnomathematik, Master, U Bayreuth
Abschluss: 01/2013
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Doktorand
Firma: BMW Group, München
Branche: Automobilindustrie, speziell Forschung und Entwicklung
E-Mail: martin.treimer"at"gmx.de
Sonstiges: Martin Treimer strebt eine Dissertation an.

2014


Optimierungsaufgaben mit gewöhnlichen Differentialgleichungen: Anwendungen in der Chemotherapie zur Krebsbekäampfung
von
Khadija Boulkacem

Khadija Boulkacem Aufgabenstellung und Ziel. Gegenstand der Masterarbeit von Frau Boulkacem war die Untersuchung von drei mathematischen Modellen aus der Literatur, die allesamt zu beschreiben versuchen, wie man die Minimierung des Tumorwachstums durch Chemotherapie unter möglichst starker Reduktion der Nebenwirkungen erreichen kann. Die Modelle sind sogenannte Kompartimentmodelle. Die mathematischen Aufgabenstellungen führen auf Optimalsteuerungsprobleme mit Nebenbedingungen in Form gewöhnlicher Differentialgleichungen. Ziel der Arbeit war der Vergleich verschiedener Diskretisierungsmethoden in direkten Optimierungsansätzen mithilfe der Modellierungssprache AMPL und des Innere-Punkte-Lösers IpOpt. Letztendlich zeigte sich, dass eine Diskretisierung mit dem Eulerschen Verfahren ausreichend ist und Verfahren höherer Ordnung keine entscheidenden Vorteile bieten.

Studium: Diplom, Technomathematik, U Bayreuth
Abschluss: 10/2014
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: s1khboul"at"stmail.uni-bayreuth.de

Analyse nichtlinearer dynamischer Systeme aus Wirtschaft und Gesellschaft
von
Janna Hiemenz-Müller

Janna Hiemenz-Mueller Aufgabenstellung und Ziel. Aufgabe war es, mit einer direkten Methode eine optimale Strategie zur Bekämpfung einer Kokainepidemie numerisch zu berechnen, und damit Ergebnisse einer indirekten Lösung in verschiedenen Originalartikeln zu überprüfen. Zusätzlich sollten Sensitivitätsuntersuchungen bzgl. der inhärenten Systemparameter durchgeführt werden, um festzustellen, welche Auswirkungen Schätzfehler in diesen zu messenden Parametern haben.

Frau Hiemenz-Müller beschäftigt sich in ihrer Diplomarbeit mit der Modellierung des US-amerikanischen Kokain-Konsums in den Jahren 1967-1992; für diesen Zeitraum liegen Daten vor. Anhand eines Kompartimentmodells werden die Drogenabhängigen in zwei Klassen eingeteilt, den sogenannten light users (Gelegenheitskonsumenten) und den heavy users (Vielkonsumenten). Das benutzte Kompartimentmodell ist nichtlinear aufgrund der Modellierung des Einstiegs in den Drogenkonsum und der abschreckenden Wirkung von (dahinvegetierenden) Vielkonsumenten.

Zunächst wird die Gleichgewichtslösung für $t \to \infty$ ohne äußere Einwirkung untersucht. Dabei werden von Frau Hiemenz-Müller die im Buch von Grass, Caulkins, Feichtinger, Tragler und Behrens: Optimal Control of Nonlinear Processes - With Applications in Drugs, Corruption, and Terror, Springer, 2008, angegebenen Rechnungen detailiert nachgeprüft. Das Modell verzeichnet einen Gleichgewichtspunkt im ersten Quadranten, der ein asymptotisch stabiler Strudelpunkt ist.

Anschließend wird das Kompartimentmodell um zwei Steuerungen erweitert. Eine Steuerung modelliert Präventionsmaßnahmen, eine andere Therapiemaßnahmen. Beide unterliegen einer gemeinsamen Budgetbeschränkung. Minimiert wird der Barwert des Gesamtkostenstroms.

Im Gegensatz zu dem oben genannten Buch bzw. den zugrundeliegenden Originalartikeln wird von Frau Hiemenz-Müller eine direkte Diskretisierungsmethode mit Hilfe von AMPL (Modellierungssprache, automatische Differentiation) und IPOPT (Innere-Punkt-Löser) benutzt. Dazu vergleicht sie ihre numerischen Ergebnisse für fünf verschiedene Diskretisierungsvarianten der Differentialgleichungsnebenbedingungen für verschiedene Schrittweiten und für (verschieden lange) stückweise konstante Steuerungen sowie verschiedene (endliche) Zeithorizonte.

Abschließend wird eine aufwändige Sensitivitätsanalyse der optimalen Lösungen durchgeführt und mithilfe einer Vielzahl von Abbildungen für die 12 verschiedenen Modellparameter analysiert. Damit lassen sich erstmals auch die Auswirkungen der aus realen Daten geschätzten Parameter auf die vorhergesagten Lösungen bewerten.

Studium: Diplom, Mathematik, U Bayreuth
Abschluss: 02/2014
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: janna.helena"at"web.de

Automatische Codegeneriering zur Lösung von linear-elliptischer Optimalsteuerungsprobleme zweiter Ordnung
von
Andreas Jakob

Andreas Jakob Aufgabenstellung und Ziel. Die Masterarbeit von Herrn Jakob wurde bei der Firma inuTech GmbH in Nürnberg angefertigt, die bereits des Öfteren Kooperationspartner bei Diplom- bzw. Masterarbeiten am Lehrstuhl Ingenieurmathematik war, wenn es um die praktische Umsetzung von Theorie und Numerik von Optimalsteuerungsproblemen mit partiellen Differentialgleichungen ging. Ziel der Masterarbeit von Herrn Jakob war die Entwicklung eines automatischen Codegenerators, mit dem eine spezielle Klasse von möglichst allgemeinen Aufgabenstellungen, hier für allgemeine lineare elliptische Optimalsteuerungsprobleme zweiter Ordnung numerisch gelöst werden kann. Damit sollen Benutzer mit relativ geringem Hintergrundwissen in die Lage versetzt werden, diesen Typ von Optimalsteuerungsproblemen standardmäßig zu lösen. Dies ist eine innovative Aufgabenstellung, die eine gewisse Reife der zugrundeliegenden Theorie und Numerik voraussetzt. Dies ist bei der oben genannten Klasse von partiellen Differentialgleichungen aber gegeben.

Zusammenfassung. Da bei dieser Arbeit die Numerik und Implementierung im Vordergrund stehen, wird im Kapitel 2 die gut verstandene Theorie linear-quadratischer elliptischer Optimalsteuerungsprobleme mit allgemeinem Differentialoperator zweiter Ordnung und beliebigen Randbedingungen sowie verteilten und Randsteuerungen "nur" als Road Map von der Analyse der Existenz und Eindeutigkeit einer schwachen Lösung des allgemeinen elliptischen Randwertproblems über die Existenz und Eindeutigkeit einer Optimallösung bis hin zur zentralen notwendigen und hier auch hinreichenden Optimalitätsbedingung skizziert, die den Ausgangspunkt für die numerische Berechnung der Optimallösung bildet.

Kapitel 3 ist dann der Beschreibung der Finiten-Elemente-Methode gewidmet. Das Optimalitätssystem besteht ja aus zwei über die Steuerungsgesetze gekoppelte elliptische partiellen Differentialgleichungen. Auch hier werden nur die Hauptideen der Finite-Element-Methode skizziert. Für ein erstes solch umfassendes Software-Werkzeug von der Problemformulierung in schwacher Form bis hin zur Visualisierung der Optimallösung hat sich Herr Jakob auf feste Triangulierungen zweidimensionaler Rechtecksgebiete beschränkt. Fehlerschätzer und adaptive Gitter werden nicht behandelt - sie hätten den Rahmen einer Masterarbeit gesprengt - und sind einer Fortentwicklung vorgehalten; dafür werden Literaturverweise angegeben.

Der nächste Schritt, die Optimierungsiteration, wird in Kapitel 4 dargestellt. Es bieten sich für einen ersten Zugang die beiden einfachsten Verfahren an, das bedingte Gradientenverfahren und das Gradienten-Projektionsverfahren; die leistungsfähige primal-duale Aktive-Mengen-Strategie wird der Vollständigkeit wegen noch zusätzlich skizziert, auch wenn dieses Verfahren hier (noch) keine Anwendung findet. Implementiert wird letztendlich das bedingte Gradientenverfahren.

Das Herzstück der Arbeit sind dann die praktische Umsetzung mitilfe der kommerziellen C++-Programmbibliothek Diffpack, einem der Bestseller der Firma inuTech, der darauf aufbauende Codegenerator und die graphische Benutzeroberfläche, beschrieben in den Kapiteln 5-7. Anhand eines Standardbeispiels aus der Literatur, von dem eine analytische Lösung bekannt ist, wird der Codegenerator validiert.

Herr Jakob hat sich mit dieser Arbeit große Verdienste erworben. Erstmalige konnte Herr Jakob für eine bestimmte Klasse von Optimalsteuerungsproblemen mit partiellen Differentialgleichungen ein kommerzielles Software-Werkzeug erstellen, dass es auch Anwendern mit geringem Hintergrundwissen erlaubt, auf diesem schwierigen Gebiet solche Aufgabenstellungen numerisch zu lösen. Daher darf man nicht ins die Waagschale werfen, dass Herr Jakob sich "nur" auf die wichtige Klasse allgemeiner elliptischer Randwertprobleme mit Dirichlet-, Neumann- und/oder Robin-Randbedingungen beschränkt, denn jede partielle Differentialgleichung ist in ihr eigenes Forschungsgebiet eingebettet und erfordert speziell zugeschnittene Löser. Die Beschränkung auf quadratische Zielfunktionale ist keine wesentliche Einschränkung, da sich die Problemstellungen leicht auf allgemeinere Zielfunktionale erweitern lassen sollten. Allerdings sind dann die Optimalitätsbedingungen "nur" noch notwendig.

Mit Diffpack liegt dem von Herrn Jakob entwickelten Software-Werkzeug ein leistungsfähiger moderner Finite-Element-Löser zugrunde, der ohne Zweifel das Potential besitzt, Herrn Jakobs Codegenerator auf allgemeinere Gebiete als die hier zugelassenen zweidimensionalen Rechteckgebiete zu verallgemeinern. Die Implementierung des bedingten Gradientenverfahrens ist aus Gründen der Vereinfachung für diese Machbarkeitsstudie gewählt worden. Bei einer Weiterentwicklung würde man sich als Benutzer sicherlich eine Auswahl der in der Arbeit beschriebenen Optimierungsmethoden wünschen.

Die entwickelte ansprechende Benutzeroberfläche erlaubt eine Eingabe der Daten sehr nahe an der mathematischen Formulierung, sodass ein Benutzer schnell Parameterstudien und auch Tests z.B. bzgl. Iterationszahl, Fehlerschranke und Gittergenauigkeit durchführen kann.

Die Machbarkeitsstudie von Herrn Jakob bietet also noch reichlich Potential für eine kommerzielle Weiterentwicklung in der Firma inuTech.

Studium: Master, Technomathematik, U Bayreuth
Abschluss: 01/2014
Erste Anstellung: sofort nach Studienabschluss
Position: Softwaretester
Firma: BFFT Gesellschaft für Fahrzeugtechnik, Gaimersheim
Branche: Fahrzeugtechnikentwickler
E-Mail: andreas.jakob1988"at"gmx.de
Sonstiges: In seiner Email vom 10.03.2014 schrieb Herr Jakob: Hallo Herr Pesch, nach etwas mehr als einem Monat im Berufsleben kann ich Ihnen nun sagen, wo ich eingesetzt werde und was genau ich mache. Ich arbeite bei der BFFT Gesellschaft für Fahrzeugtechnik in Gaimersheim und bin im Auftrag der Audi Electronics Venture GmbH im Team BMS (Battery Management System) als Softwaretester tätig. Momentan arbeite ich an der Hochvolt-Batterie für den Q7 Hybrid, für den ich Modultests entwickle, implementiere und durchführe. Ich glaube, dieser Beruf gefällt mir sehr gut und entspricht genau meinen Interessen und Fähigkeiten. Mein mathematischer Hintergrund ist zwar nicht Voraussetzung dafür, aber ich habe hier schon oft gemerkt wie nützlich er sein kann

Stabiles Ablegen unbekannter Objekte
von
Irene Reis

Irene Reis Aufgabenstellung und Ziel. Gegenstand der Diplomarbeit von Frau Reis ist die Untersuchung, ob gewisse Objekte auf gewissen Unterlagen stabil abgelegt werden können, z.B.: Wie muss ich eine Leiter an eine Wand stellen, damit sie möglichst stabil steht? Dieses Problem tritt u.a. in der Robotik beim Ablegen von Objekten auf. Dabei werden durch Sensoren online dreidimensionale Gitter von Objekt und Unterlage erstellt. Auf Basis dieser Daten müssen dann online die Kontaktpunkte zwischen Objekt und Unterlage bestimmt und hinsichtlich ihrer Ablageeigenschaften bewertet werden: stabil, instabil, Abstand von der Instabilitätsgrenze und mögliche Versagensrichtung bei Annäherung an diese. Ziel ist es, diese Aufgabe praxisgerecht zu lösen, d.h. die zu entwickelnde Software muss eine Lösung in gegenüber der Verfahrzeit des Serviceroboters zu vernachlässigender Zeit berechnen. Das Thema entstand am Lehrstuhl Angewandte Informatik 3, Robotik und Eingebettete Systeme, und wurde dort auch zum überwiegenden Teil betreut.

Zusammenfassung. Frau Reis entwickelt zunächst mithilfe der Technischen Mechanik ein mathematisches Modell zur Beschreibung der Aufgabenstellung. Es stellt sich heraus, dass dies auf endlichdimensionale Optimierungsprobleme unter Nebenbedingungen in Form von Gleichungen und Ungleichungen führt. Dabei bietet sich eine Vielzahl von Modellen mit unterschiedlichen Eigenschaften an. Diese werden mit verschiedenen Optimierungslösern einer bekannten Softwarebibliothek NLopt gelöst. Diverse Testergebnisse geben Hinweise für die praktische Umsetzung.

Studium: Diplom, Technomathematik, U Bayreuth
Abschluss: steht noch aus
Erste Anstellung:
Position:
Firma:
Branche:
E-Mail: irene-email"at"web.de

Optimierung einer Behandlungstherapie bei Krebserkrankungen durch optimale Steuerung von Zytostatika
von
Manuel Sandler

Manuel Sandler Aufgabenstellung und Ziel. Den Kampf gegen Krebs, an dem nach dem Magazin Spiegel (2012) jeder Vierte in Deutschland stirbt, bestreiten dabei nicht nur Biologen und Ärzte, auch Mathematiker sind weltweit darin involviert. Viele Menschen sind sich der engen Verknüpfung zwischen Medizin und Mathematik oft gar nicht bewusst. Dennoch findet Mathematik in den verschiedensten medizinischen Gebieten ihre Einsatzmöglichkeiten, wie bei der Aufbereitung von Messdaten in bildgebenden Verfahren, z.B. der Computertomographie oder bei der computergestützten Operationsplanung. Auch bei der Entwicklung neuer Medikamente, insbesondere bei der Erforschung und Analyse neuer Behandlungsstrategien spielt die Mathematik eine entscheidende Rolle. Rund um das Thema Krebs tragen Experten mit ihren Modellen und mathematischen Methoden dazu bei, diese komplexe Erkrankung besser zu verstehen und neue Perspektiven in der Behandlung zu entdecken.

Die vorliegende Masterarbeit bietet dem Leser einen Einblick in die mathematische Betrachtung dieser Krankheit und deren Bekämpfung mittels der am häufigsten verwendeten Behandlungsmethode, der Chemotherapie. Nachdem zu Beginn die dazugehörigen biologischen Hintergründe erläutert werden, folgt die Herleitung eines Compartment-Modells, das die Krebsentstehung in mathematischen Gleichungen ausdrückt. Die Untersuchung dieser Gleichungen führt zu einem Problem aus dem Gebiet der Optimalen Steuerung gewöhnlicher Differentialgleichungen.

Zusammenfassung. Herr Sandler beschreibt zunächst in für den medizinischen Laien verständlicher Weise die Entstehung von Krebs durch unkontrollierte Zellteilung und deren Haupttherapie, die Anwendung von Zytostatika, die sich schnell teilende Zellen bekämpfen und für deren Abbau durch körpereigene Kontrollmechanismen sorgen. Obwohl diese Therapie heute die verbreiteste Therapieform gegen Krebs ist, ist sie nicht unumstritten. Es gibt durchaus Fachleute, die den Erfolg der Verabreichung von Zytostatika kritisch sehen und deren Anwendung mehr durch das Gewinnstreben von Pharmaunternehmen als durch Behandlungserfolge angetrieben sehen.

Dem mathematischen Modell zur Beschreibung des Zyklus der Zellteilung liegen in der mathematischen Biologie häufig verwendete Kompartment-Modelle zugrunde, welche hier auf Arbeiten von Ledzewicz, Schättler und Swierniak (2003--2004) zurückgehen. Zusätzlich wird der Einfluss eines die Zahl der Krebszellen minimierenden Medikamentes modelliert. Mathematisch erhält man Probleme der Optimalen Steuerung mit Nebenbedingungen in Form gewöhnlicher Differentialgleichungen. Dieses Grundmodell wird dann um die sogenannten pharmakokinetischen und pharmakodynamischen Gleichungen erweitert. die zum einen den Verlauf der Arzeneimittelkonzentration im Organismus, zum anderen den Einfluss des Arzeneistoffes auf den Organismus beschreiben. Weitere Modellierungsbausteine beschreiben die Resistenzbildung gegen den Arzeneistoff und den Einfluss verschiedener Steuerungen aufgrund der Verwendung von Kombinationspräparaten. Den Abschluss der Modellierung bildet ein Ausblick auf alternative Modelle.

Nach einer Zusammenfassung des Maximumprinzips der Optimalsteuerungstheorie unter dem besonderen Blickwinkel von Problemen, bei denen die Steuerungen linear in das Modell eingehen, also sowohl bang-bang als auch singuläre Steuerungen auftreten können, werden die beiden wichtigen weiteren notwendigen Bedingungen, die verallgemeinerte Legendre-Clebsch-Bedingung von Kelley, Kopp und Moyer sowie die analoge Bedingung für vektorwertige Steuerungen von Goh vorgestellt. Ausgehend von einer Analyse der Hamilton-Jacobi-Bellman-Gleichung werden dann - außergewöhnlich für eine Masterarbeit - hinreichende Bedingungen für Optimalität für reine bang-bang-Lösungen hergeleitet, die auf Noble und Schättler (2002) zurückgehen. Vorläuferarbeiten zu dem Gebiet der hinreichenden Bedingungen bei bang-bang und singulären Steuerungen sind alle erst in jüngerer Zeit gefunden worden (Osmolovski, Dmitruk, Mauer, Vossen, Aronna u.a.), ohne bisher einen zufriedenstellenden Abschluss für allgemeinere Fälle wie bang-singulär-bang gefunden zu haben.

Diese komplizierte Theorie wird dann auf die beiden Zwei- und Drei-Kompartmentmodelle angewendet, bei denen nachgewiesen werden kann, dass singuläre Steuerungen nicht optimal sein können. Also müssen optimale Steuerungen rein bang-bang sein und für diese Probleme stehen nicht nur notwendige, sondern auch eine hinreichende Bedingung zur Verfügung.

Praktisches Fazit: Eine Medikamentengabe unterhalb der zulässigen Maximaldosis ist nicht optimal. Dies entspricht auch der praktischen Verabreichung von Zytostatika. Dennoch darf man nicht verschweigen, dass es noch einen weiten Weg zu erforschen gibt, bis solch relativ einfache mathematischen Modelle realitätsnäher erweitert und deren inhärente Parameter auf den Patienten bezogen bestimmt werden können.

Numerische Lösungen werden abschließend mit einer bewährten direkten Methode, der Kombination des Innere-Punkte-Verfahrens IPOPT und der Modellierungssprache AMPL, berechnet und diskutiert.

Studium: Master, Technomathematik, U Bayreuth
Abschluss: 01/2014
Erste Anstellung: sofort nach Studienabschluss
Position: Entwicklungsingenieur
Firma: ITK Engineering AG, München/Martinsried
Branche: Entwicklungspartner u.a. in der Autombilindustrie, der Luft-/Raumfahrt und der Medizintechnik
E-Mail: sandlermanuel"at"googlemail.com

Optimale Steuerung einer parabolischen Differentialgleichung mit integraler Zustandsbeschränkung
von
Andreas Schmidt

Andreas Schmidt

Zusammenfassung. In dieser Masterarbeit wird eine parabolische Differentialgleichung mit punktweise integraler Zustandsbeschränkung behandelt. Nach dem Beweis der Existenz und Eindeutigkeit einer Lösung, werden notwendige Bedingungen bestimmt. Hierbei führt die Lagrangesche Multiplikatorenregel auf ein erstes Optimalitätssystem mit einem adjungierten Zustand aus dem Raum der $L^2(Q)$-Funktionen. In Anlehnung an einen Report von Bonnans und Jaisson [F. Bonnans, P. Jaisson: Optimal control of a parabolic equation with time-dependent state constraints. Rapport de Recherche RR, 6784, 2008] wird ein alternatives Optimalitätssystem formuliert.

Der Schlüssel für die Herleitung dieses Systems liegt in der Anwendung eines Darstellungssatzes für lineare und stetige Funktionale auf dem Raum der stetigen Funktionen. Hierbei kann man das Maß aus dem Dualraum von $C([0, T])$ mit einer Funktion beschränkter Variation identifizieren, und über eine spezielle Integrationsregel für Riemann-Stieltjes Integrale das Integral $\int_0^T f(t) d\mu(t) als gewöhnliches Lebesgueintegral darstellen. Ausgehend von dem so erhaltenen alternativen Optimalitätssystem, kann man die Stetigkeit der Steuerung und des Lagrangemultiplikators zur Zustandsbeschränkung beweisen. Diese Technik wird in dem Report von Bonnans und Jaisson zum ersten Mal für Optimalsteuerungsprobleme mit partiellen Differentialgleichungen und Zustandsbeschränkungen angewendet, hat jedoch Parallelen zur Habilitation von Maurer [H. Maurer: Optimale Steuerprozesse mit Zustandsbeschränkungen. Habilitation, Universität Würzburg, 1976; siehe auch: H. Maurer: On the minimum principle for optimal control problems with state constraints. Schriftenreihe des Rechenzentrums der Universität Münster, 41, 1979].

Das Verfahren ist also, obwohl bei gewöhnlichen Optimalsteuerungsproblem wohlbekannt, in der Community der Optimierer mit partiellen Optimalsteuerungsproblemen weithin unbekannt. Deshalb liegt sicherlich noch viel Potential in diesem Zugang für weitere Analysen. Insbesondere ist eine Verallgemeinerung der Technik auf andere Klassen von Optimierungsproblemen mit partiellen Differentialgleichungen oder die Betrachtung mehrerer Zustandsbeschränkungen hochinteressant.

Der Ursprung dieses Verfahrens geht sogar bis in das Jahr 1963 zurück: [A.E. Bryson, W.F. Denham und S.E. Dreyfus: Optimal programming problems with inequality constraints I: Necessary conditions for extremal solutions. AIAA Journal, 1(11):2544-2550, 1963]. Durch dieses nur formal gültige Verfahren kann das Optimalitätssystem leicht hergeleitet werden. Seine mathematische Rechtfertigung findet man in der oben genannten Habilitation von Maurer. Vergleiche auch die Dissertation von Frey [M. Frey: Shape calculus applied to state-constrained elliptic optimal control problems. Universität Bayreuth, 2012], wo dieses Verfahren auch auf elliptische Optimalsteuerungsprobleme mit einer verteilten Steuerung und einer Zustandsbeschränkung inkl. (fast) aller notwendiger Beweise übertragen konnte. Auch dort gelang u.a. der Beweis neuer notwendiger Bedingungen mit höherer Regularität.

In der Masterarbeit von Andreas Schmidt wird unter der Annahme, dass die Zustandsbeschränkung auf einem Intervall aktiv ist, das Problem in Teilintervalle zerlegt. Die Zustandsbeschränkung auf der aktiven Menge wird dann in ein äquivalentes Randwertproblem umgeschrieben und an die Lagrangefunktion angekoppelt. Durch Ableiten dieser Funktion kann man dann das alternative Optimalitätssystem nach Bonnans und Jaisson ebenfalls bestimmen.

Bei der Optimalsteuerung gewöhnlicher Differentialgleichungen ist dieses Verfahren von Bryson et. al. gut untersucht und gilt bei den Anwendern als Standardverfahren. Eine allgemeine Analyse für partielle Differentialgleichungen ist aber schwierig, da die zeitliche und die räumliche Regularität stets miteinander gekoppelt sind.

Abschließend wird dann noch ein Algorithmus zur Schaltpunktsuche entwickelt und analysiert, wie er bei gewöhnlichen Optimalsteuerungsproblemen mittlerweile häufig angewendet wird. Erste Anwendungen bei partiellen Optimalsteuerungsproblemen findet man in der Arbeit von von Pesch, Bechmann und Wurst [H.J. Pesch, S. Bechmann und J.-E. Wurst: Bang-Bang and Singular Controls in Optimal Control Problems with Partial Differential Equations. In: Proc. of the 51st IEEE Conference on Decision and Control. Maui, Hawaii, USA, 2012.] Für den Schaltpunktsuch-Algorithmus muss allerdings eine weitergehende Untersuchung der Konvergenz und Stabilität des Verfahrens noch offen bleiben. Die numerischen Untersuchungen lassen jedoch vermuten, dass die Konvergenz quadratisch verläuft. Bereits nach zwei Iterationen ändert sich der Fehler nicht mehr wesentlich. Eine bessere Zielfunktion oder eine andere Interpolation für die Berechnung der Unstetigkeit bietet hier viel Raum für weitere Experimente und Analysen. Weiterhin wurden nur sehr einfache Diskretisierungen für die Herleitung des Optimalitätssystems für die Schaltpunktsuche gewählt. Komplexere Verfahren könnten hier bessere Ergebnisse liefern, erhöhen jedoch den Rechenaufwand für das Ableiten der Lagrangefunktion enorm. Symbolische Rechenpakete wie MAPLE ermöglichen hier eine automatische Berechnung, wodurch die Herleitung wesentlich vereinfacht wird.

Numerische Resultate für die lineare Wärmeleitungsgleichung mit einer im Ort integralen, in der Zeit punktweisen Zustandsbeschränkung runden die Arbeit ab und weisen die Mächtigkeit der Methode experimentell nach. Dieses abstrakte Problem findet sein anwendungstechnisches Pendant in einem Problem des Laser Cusings, bei dem mittels Aufschmelzung von Metallstäuben Schicht für Schicht filigrane metallische Objekte von individuellen Zahnimplantaten bis hin zu Automotoren für Kleinserien produziert werden können. Dabei steht diese Art von Zustandsbeschränkung für eine ausreichende Erhitzung des Materials über den Schmelzpunkt. Typisch für solche Aufgabenstellungen sind verteilte Steuerungen mit festem Ortsprofil, die (punktweise) nur von der Zeit abhängen, wie z.B. der Einflussbereich eines zu steuernden Lasers, dessen Amplitude, seine Intensität, und dessen Einflussbreich jedoch zeitlich veränderlich sind.

Die in dieser Masterarbeit aufgezeichnete Brücke zwischen gewöhnlichen und partiellen Optimalsteuerungsproblemen gerade bei Zustandsbeschränkungen sollte noch viel Potential für zukünftige Forschungen bieten; siehe auch die oben zitierte Dissertation von Frey.

Studium: Master, Technomathematik, U Bayreuth
Abschluss: 03/2014
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: Junior Research Group: Hierarchical Solution Strategies for Nonlinear Problems, Universität Stuttgart
Branche: Öffentlicher Dienst
E-Mail: andreas.schmidt"at"mathematik.uni-stuttgart.de
Homepage: von Andreas Schmidt
Sonstiges: Herr Schmidt strebt eine Dissertation innerhalb des European Model Reduction Networks an. Er hatte drei Angebote für eine Doktorandenstelle zur Auswahl!

Optimale Steuerung mit Navier-Stokes-Gleichungen
von
Tobias Seitz

Tobias Seitz

Aufgabenstellung und Ziel. In dieser Masterarbeit sollte das Thema der Optimalen Steuerung der Navier-Stokes-Gleichungen behandelt werden. Der Schwierigkeitsgrad dieses speziellen Optimalsteuerungsproblems für partielle Differentialgleichungen geht über diejenigen Problemstellungen hinaus, die gewöhnlicherweise in einer Vorlesung über Optimale Steuerung mit partiellen Differentialgleichungen behandelt werden. Damit ist diese Aufgabenstellung eine Herausforderung. Als "akademisches" Beispiel sollte der sogenannte forward facing steps in Theorie und Numerik behandelt werden, bei dem ein Fluid über eine Treppenstufe hinabfließt. Aus der Setzstufe der Treppenstufe sollte dann Fluid ausgeblasen bzw. angesaugt werden, um nach der Stufe eine möglichst laminare Strömung zu erhalten. Dieses akademische Beispiel ist ein sehr vereinfachter Prototyp für das Ansaugen bzw. Ausblasen von Luft aus Flugzeugtragflächen, um eine möglichst laminare und damit wirbel- und reibungsfreie Umströmmung der Tragflächen zu erhalten. Keinesfalls Zukunftsmusik, sondern im Fokus aktueller Entwicklungen. Ziel ist dabei natürlich Kerosin zu sparen.

Zusammenfassung. Die (nichtlinearen parabolischen) Navier-Stokes-Gleichungen sind ein Modell für Strömungsvorgänge von Fluiden (Gasen oder Flüssigkeiten); sie bestehen aus der (vektoriellen) Impulsgleichung und der (skalaren) Kontinuitätsgleichung, ergänzt um Anfangs- und Randbedingungen, je nach Aufgabenstellung. Dieses System wird zunächst hergeleitet. Sodann werden verschiedene Spezialfälle (zäher und viskoser Grenzfall, die linearisierten Gleichungen von Stokes, ebene und stationäre Strömungen) angeführt. Als tragendes Beispiel der Arbeit wird der forward facing step beschrieben.

Danach werden die bekannten theoretischen Resultate zur Existenz und Eindeutigkeit aus der Literatur zusammengestellt. Die Existenz klassischer Lösungen ist bis heute nicht in vollem Umfang geklärt. Unter entsprechenden Voraussetzungen liegen für den zweidimensionalen Fall Existenzresultate für klassische Lösungen vor.

Für den Zweck der Optimalen Steuerung werden jedoch schwache Lösungen benötigt. Diese sind auch klassische Lösungen, sofern sie denn überhaupt existieren. Die schwachen Lösungen werden als abstrakte Funktionen der Zeit mit Bildern in einen divergenzfreien Ortsvektorraum verstanden, die Navier-Stokes-Gleichung also als Gleichung in diesem Funktionenraum geschrieben. Damit verschwindet die Kontinuitätsgleichung aus dieser Gleichung; sie ist in den Raum inkorporiert. Bildet man nun den Abschluss der $C^\infty$-Funktionen in diesem Raum, erhält man sogenannte divergenzfreie $L^p$- und Sobolewräume. Auch der Druck kann jetzt aus der Gleichung im Funktionenraum eliminiert werden.

Danach werden die wichtigsten Resultate zur Existenz und Eindeutigkeit von schwachen Lösungen aus der Literatur dargestellt. Da man in drei Raumdimensionen bisher noch keine Eindeutigkeit nachweisen konnte (eines der noch offenen sechs Millenniumsprobleme des Clay Institute in Cambridge, Massachusetts), beschränkte sich Herr Seitz auf den zweidimensionalen Fall, allerdings mit Blick auf Steuerungsprobleme auf die inhomogene Gleichung mit homogenen und inhomogenen Randbedingungen und auch deren linearisierte Versionen. Für diese lassen sich die Regularität der Lösungen und die Steuerungszustandsoperatoren und deren Differenzierbarkeit noch mit vertretbarem Aufwand angeben.

Damit sind alle nötigen Vorarbeiten getan, um im folgenden Kapitel die Herangehensweise zum Nachweis der Existenz von Lösungen der Navier-Stokes-Optimalsteuerungsprobleme und zur Herleitung ihrer notwendigen Bedingungen auf die schwierigen Gleichungen von Navier-Stokes zu übertragen. Es werden beide Fälle, verteilte und Randsteuerungen, theoretisch behandelt. Mit der Analyse des forward facing steps wird dieses Kapitel beendet.

Danach folgt dann eine Beschreibung des für die Navier-Stokes-Gleichungen geeigneten Differenzenverfahrens auf sogenannten staggered grids. Man beachte, dass "naive" Disketisierungen im Allg. zu unphysikalischen Oszillationen führen. Zusätzlich wird auch ein kurzer Ausblick auf geeignete Finite-Elemente-Verfahren gegeben. Da eine eigene Implementierung den Rahmen einer Masterarbeit sprengen würde und auch Angesichts der vorhandenen exzellenten Software unsinnig wäre, wurde hier das kommerzielle Softwaretool COMSOL Multiphysics verwendet. Mit diesem Werkzeug werden dann die Navier-Stokes-Gleichungen und deren linearisierte Variante, die Stokes-Gleichungen, numerisch gelöst.

Herr Seitz entscheidet sich zur numerischen Lösung der verteilten Steuerungsprobleme mit homogenen bzw. inhomogenen Randbedingungen für eine gradienten-basierte Methode, im Gegensatz zum one shot approach, bei dem das komplette gekoppelte Optimalitätssystem numerisch angegangen wird. Untersucht werden Abstiegsverfahren, wobei der Gradient des reduzierten Funktionals über die adjungierte Gleichung berechnet wird, sowie projezierte Gradientenverfahren und ein nichtlineares CG-Verfahren. Das erste und das letzte der drei Verfahren werden dann zur Lösung der stationären Stokes-Gleichung mit verteilter Steuerung mithilfe von COMSOL Multiphysics verwendet. Die Steuerungsbeschränkungen werden dabei penaltisiert. Numerische Ergebnisse für den forward facing step runden die Arbeit ab. Auch noch das ursprünglich geplante (physikalisch sinnvollere) Randsteuerungsproblem zu lösen hätte den Rahmen dieser Masterarbeit mit ihrem umfangreichen theoretischen Teil gesprengt.

In einem Ausblick wird noch auf Literaturergebnisse für die physikalisch sinnvollere Randsteuerung sowie instationäre Probleme verwiesen. Auch Verfahren zweiter Ordnung wurden bereits eingesetzt (Hinze, Kunisch; 2001, 2004). Die Literatur zur Optimalen Steuerung der Navier-Stokes-Gleichungen oder ihrer Verwandten ist mittlerweile sehr umfangreich.

Studium: Master, Technomathematik, U Bayreuth
Abschluss: 03/2014
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: AG Numerik und Wissenschaftliches Rechnen, Fachgebiet Wissenschaftliches Rechnen, Prof. Herbert Egger, Technische Universität Darmstadt
Branche: Öffentlicher Dienst
E-Mail: t-seitz"at"gmx.de
Homepage: von Tobias Seitz
Sonstiges: Herr Seitz strebt eine Dissertation im Rahmen der International Research Training Group 1529 Mathematical Fluid Dynamics an.

Restringierte Optimalsteuerungsprobleme bei Epidemiemodellen
von
Markus Thäter

Markus Thäter Aufgabenstellung und Ziel. Ausgehend von einer beim Start der Masterarbeit noch nicht veröffentlichten Arbeit von Biswas, Paiva und de Pinho, die als Preprint vorlag und mittlerweile (im August 2014) in Mathematical Biosciences and Engineering erschienen ist, wurde ein klassisches SEIR-Epidemiemodell mit den Kompartimenten S: Susceptibles, E: Exposed, I: Infectious und R: Recovered als Optimalsteuerungsproblem präsentiert, bei dem die Auswirkungen einer optimalen Impfrate unter diversen Nebenbedingungen theoretisch und numerisch untersucht wurde. Zu minimierende Zielgröße sind die Kosten bestehend aus krankheitsbedingten Kosten durch die Zahl der zu behandelnden Krankheitsfälle und denen für die Impfungen. Die numerischen Lösungen sollten über die Ergebnisse der oben genannten Arbeit hinaus mit den analytischen Optimalitätsgesetzen erster Ordnung näherungsweise verifiziert werden.

Ziel der Arbeit war ferner, insbesondere das in dem Preprint verwendete exponentielle Wachstum durch das (realistischere) logistische Wachstum zu ersetzen und das $L^2$-Zielfunktional durch eines vom $L^1$-Typ zu ersetzen, welches im Allgemeinen die Realität ebenfalls besser trifft, auch wenn die Theorie deutlich schwieriger wird. Die diversen Modellvarianten sollten dann numerisch nach der Methode First discretize, then optimize mit der Kombination AMPL/IPOPT gelöst und anschließend näherungsweise mit dem Minimumprinzip der Optimalsteuerungstheorie verifiziert werden, in dem die numerischen Approximationen für Zustandsvariable und adjungierte Variablen in die analytischen Steuergesetze eingesetzt und mit den Approximationen für die Steuervariablen verglichen werden.

Inhalt: In der Masterarbeit von Herrn Thäter werden Modelle vorgestellt, die die Ausbreitung von Krankheiten beschreiben, die von Mensch zu Mensch durch Tröpfchen- oder Schmiereninfektion übertragen werden und gegen die geimpft werden kann. Auf diese Modelle wird die Theorie der Optimalen Steuerung numerisch angewandt und mit analytischen Hilfsmitteln verifiziert. Ausgehend von der stark vereinfachenden Annahme des exponentiellen Bevölkerungswachstums (und einem zum Zeitpunkt der Ausgabe der Masterarbeit noch nicht veröffentlichten Artikel von Biswas, Paiva und de Pinho) werden die Modelle um logistisches Wachstum erweitert, das von dem belgischen Mathematiker Verhulst (1845) als zutreffendere Beschreibung des Bevölkerungswachstums veröffentlicht wurde. Auf beide Wachstumsmodelle, zusammen mit einem Kompartimentmodell, wird die Theorie der optimalen Steuerung mit verschiedenartigen Beschränkungen an die Zustands- und Steuervariablen angewandt. Die Steuervariable tritt in allen Modellen linear in den Nebenbedingungen auf, im Zielfunktional wird aber zum einen eine quadratische und zum anderen eine lineare Steuerung betrachtet. Die optimalen Steuergesetze werden analytisch aus der Hamiltonfunktion mithilfe der Karush-Kuhn-Tucker-Bedingungen aus der nichtlinearen Optimierung und dem Lagrange-Formalismus hergeleitet. Im Falle der linear im Zielfunktional auftretenden Steuerung werden notwendige Bedingungen an die Optimalität des Steuergesetzes überprüft, bei quadratisch im Zielfunktional auftretenden Steuerungen dazu noch eine weitere notwendige Bedingung zweiter Ordnung. Neben der Herleitung der Steuergesetze werden die numerischen und analytischen Ergebnisse diskutiert und ein Bezug zur angewendeten Impfroutine hergestellt. Am Ende gibt es noch einen kurzen Ausblick auf die Optimierung bezüglich eines zeitabhängigen Zielfunktionals, in dem die entstehenden Kosten über den Betrachtungszeitraum abgezinst werden.

Neben den in der Arbeit von Biswas, Paiva und de Pinho untersuchten Modellvarianten zu exponentiellem Wachstum werden in der Masterarbeit von Herrn Thäter insbesondere die folgenden weiteren neuen Modellvarianten untersucht. Dabei ist die Gesamtzahl der verfügbaren Vakzine entweder unbeschränkt oder beschränkt, je nachdem welche zusätzlichen Beschränkungen noch einbezogen werden und dies in Kombination sinnvoll ist. Im Einzelnen sind die Modellvarianten charakterisiert durch:

1) Exponentielles Wachstum und bzgl. Steuerung quadratisches Zielfunktional (geeignet bei schlechter medizinischer Infrastruktur) mit (zum Teil bereits bei Biswas et. al. behandelt):
a) Erweiterung auf eine gemischte Steuerungs-Zustandsbeschränkung, welche die Zahl der verabreichten Impfungen pro Zeiteinheit (z. B. wegen Produktionsbeschränkungen oder zu geringer Zahl an Ärzten) beschränkt.
b) Erweiterung auf eine Zustandsbeschränkung erster Ordnung, welche eine Beschränkung der krankheitsempfänglichen Individuen der Population beschreibt und gleichbedeutend mit einer Beschränkung der Zahl der kranken und ansteckenden Individuen ist.
c) Kombination beider Beschränkungen.

2) Logistisches Wachstum und bzgl. Steuerung quadratisches Zielfunktional:
a) Erweiterung auf eine gemischte Steuerungs-Zustandsbeschränkung, welche die Zahl der verabreichten Impfungen pro Zeiteinheit (z. B. wegen Produktionsbeschränkungen oder zu geringer Zahl an Ärzten) beschränkt.

3) Logistisches Wachstum und bzgl. einer modifizierten Steuerung lineares Zielfunktional (geeignet bei guter medizinischer Infrastruktur):
a) Erweiterung auf eine Box-Constraint und eine gemischte Steuerungs-Zustandsbeschränkung an eine modifizierte Ersatz-Steuerung; diese ist vom Bang-Bang-Typ.
b) Erweiterung auf eine zusätzliche Zustandsbeschränkung erster Ordnung, welche eine Beschränkung der krankheitsempfänglichen Individuen der Population beschreibt und gleichbedeutend mit einer Beschränkung der Zahl der kranken und ansteckenden Individuen ist. Es treten bang-bang und singuläre Extremalenbögen auf. Hier fällt der Extremalenbogen, auf der die Zustandsbeschränkung erster Ordnung aktiv wird mit dem Bogen zusammen, auf dem die Steuerung singulär ist. Diese ist dann sogar von mindestens zweiter Ordnung - eine selten beobachtete Situation in der Theorie Optimaler Steuerungen.

4) Exponentielles Wachstum und bzgl. Steuerung quadratisches Zielfunktional, aber mit Abzinsungsterm, um zukünftige Kosten geringer zu gewichten.

Studium: Master, Mathematik (NF Informatik), U Bayreuth
Abschluss: 11/2014
Erste Anstellung: Lehrstuhl für Material- und Prozesssimulation, Prof. Dr. Heike Emmerich
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth
Branche: Öffentlicher Dienst
E-Mail: markus.thaeter"at"gmx.de

Optimale Steuerung in der Krebstherapie
von
Lisa Wagner

Lisa Wagner

Aufgabenstellung und Ziel. Mit dieser Masterarbeit sollten zwei Masterarbeiten auf dem Gebiet der Mathematischen Modellierung und Optimalen Steuerung mit Anwendungen auf Krebstherapien fortgesetzt werden, die am Lehrstuhl für Ingenieurmathematik behandelt worden sind: Eleonora Feist (2012), Manuel Sandler (2014). Basierend auf einem aktuellen Artikel von Ledzewicz, d'Onofrio und Schättler aus dem Jahre 2013 sollte ein Modell untersucht werden, bei dem zwei Therapieformen kombiniert werden, Strahlentherapie und Antiangiogenese. Mit der letztgenannten Therapie wird durch geeignete Medikamente die Bildung des tumoreigenen Blutsystems unterbunden; siehe auch die Masterarbeit Feist. Eine Kombination dieser Therapie mit Chemotherapien wurde bereits früher untersucht (Schättler, Ledzewicz, Maurer, 2009), wie auch eine Kombination aus Chemo- und Immuntherapie (Schättler, Ledzewicz, Mosalman, 2013). Alle hier genannten Arbeiten sind im Literaturverzeichnis der Arbeit von Frau Wagner aufgeführt.

In der erstgenannten Arbeit aus dem Jahre 2013 findet man eine genaue mathematische Analyse des Optimalsteuerungsproblems für die Kombinationstherapie Bestrahlung/Antiangiogenese. Ziel der Optimierung ist die Minimierung des Tumorvolumens über einen ebenfalls zu mitzuoptimierenden, also nicht vorgegebenen Therapiezeitraum. Die Arbeit enthält jedoch keine numerischen Resultate. Diese gilt es in dieser Masterarbeit nachzuliefern bzw. zu versuchen, inwieweit man hier einen neuen Beitrag liefern kann. Alle diese Problemstellungen sind neben dem wichtigen Anwendungsgebiet auch mathematisch interessant, da die auftretenden Steuerungen stets linear in Zielfunktion und Nebenbedingungen eingehen, mithin bang-bang und/oder singuläre Steuerungen auftreten können.

Bei dem hier untersuchten Kombinationstherapiemodell gehen sogar beide Steuerungen linear in Zielfunktion und Nebenbedingungen ein. Bei Optimalsteuerungsproblemen mit vektorwertigen Steuerungen dieser Art ist theoretisch relativ wenig bekannt, im Gegensatz zu skalaren Steuerungen, wo auch bzgl. hinreichender Bedingungen in den letzten Jahren bedeutende Fortschritte erzielt werden konnten; siehe u.a. das neue Buch von Osmolovskii, Maurer: SIAM 2012.

Inhaltsangabe. Zunächst gibt die Arbeit von Frau Wagner eine sehr lesenswerte populär-wissenschaftliche Einleitung des medizinischen Hintergrundes über die Funktionsweise von Zellen, die Krebsentstehung und Krebstherapien. Zukunftsmusik ist ohne Zweifel die Entwicklung einer personenbezogenen Therapie gegen die vielleicht hunderte von Krankheiten, die heute unter der Sammelbezeichnung Krebs zusammengefasst werden. Und hier setzt die Mathematik mit Modellierung, Analyse, Optimierung und numerischer Lösung an, sich in die interdisziplinäre Zusammenarbeit von Ärzten, Biologen, Chemikern und Physikern einzubringen. Als Mathematiker muss man den Anwendungshintergrund (bis zu einem gewissen Grade) verstehen, um die mathematischen Modelle (nachvollziehen bzw.) (mit-)entwickeln zu können.

Das zu untersuchende zweiteilige Modell, welches hier aus der Literatur entnommen werden konnte, besteht zum einen aus dem schon in der Masterarbeit von Eleonora Feist (2012) verwendeten Antiangiogenesemodell nach Hahnfeldt, Panigrahy, Folkman u.a. (1999), welches auf der Gompertzschen Wachstums für das Tumorvolumen und einer zeitabhängigen Trägerkapazität beruht, zum anderen auf dem sogenannten LQ-Modell nach Ergun, Camphausen und Wein (2003), bei dem die Wahrscheinlichkeiten, mit denen die durch die Strahlung verursachten Einzel- bzw. Doppelstrangbrüche der DNA auftreten, mittels eines bzgl. der Strahlungsdosisrate linearen und eines retardiert-integralen quadratischen Terms modelliert werden. Steuerungen sind die Dosis für den Angiogenese-Hemmer und die Strahlungsdosisrate. Beide gehen linear in Zielfunktional und Differentialgleichungen ein, ein System der Dimension 6. Die Menge der chemischen Wirkstoffe gegen die Angiogenese wie auch die Auswirkungen der Strahlung müssen dabei über den ``freien'' Therapiezeitraum beschränkt werden. Dies führt auf zwei isoperimetrischen Ungleichungsnebenbedingungen an die Steuerungen, die man aber auf zwei leichter zu behandelnde Ungleichungsendbedingungen an zwei ``künstlich'' eingeführte Zustände transformieren kann.

Die Theorie der Optimalen Steuerung, insbesondere das Maximumprinzip werden nun auf dieses spezielle Optimalsteuerungsproblem angewandt. Wie gesagt, das Auftreten von zwei linear eingehenden Steuerungen bedeutet eine nicht zu unterschätzende Herausforderung für die mathematische Analyse. In der Arbeit wird der Einfachheit halber zunächst das Minimumprinzip für den skalaren Fall analysiert. Aber auch dafür liegt die Hauptschwierigkeit bei Optimalsteuerungsproblemen darin, dass es keine allgemein gültige Methode gibt, Reihenfolge und Typ der Extremalenbögen, ob bang-bang oder singulär, vorab zu bestimmen.

Allerdings gelingt manchmal der Beweis, ob eine singuläre Steuerung überhaupt vorliegen kann (durch Widerspruch zum Maximumprinzip, speziell zur Aussage, dass nicht alle Multiplikatoren gleichzeitig verschwinden dürfen). Nimmt man im Zweifelsfall die Existenz eines singulären Extremalenbogens an, gelingt es im Allgemeinen, eine Beziehung herzuleiten, der die singuläre Steuerung, sofern sie denn existiert, genügen muss. Im skalaren Fall ist dies immer eine Feedback-Formel: die singuläre Steuerung hängt ausschließlich von den Zuständen ab.

Dies gilt für den hier vorliegenden Fall einer vektoriellen Steuerung so nicht. Der Antiangiogenese-Hemmer hängt zusätzlich noch von der Strahlendosisrate ab, ist aber unabhängig vom Typ der zweiten Steuerung. Genauer: Eine Linearkombination der beiden Steuerungenhängt ausschließlich von den Zuständen ab, wobei der Koeffizient vor der zweiten Steuerung, der Strahlendosisrate, von einer der künstlich eingeführten Zustandsvablen abhängt.

Frau Wagner führt diese sehr komplizierten Rechnungen aus; sie stehen im Anhang. Diese finden sich nicht in der Orginalliteratur. Für diese Rechnungen wird das sogenannte Lie-Klammern-Kalkül verwendet, um überhaupt eine Chance zu haben, die Ausdrücke fehlerfrei zu berechnen.

Es zeigt sich, dass der Ausdruck für eine mögliche singuläre Steuerung für den Antiangiogenese-Hemmer identisch mit dem Ausdruck ist, den man erhielte, wenn man eine Monotherapie anwendete, also die zweite Steuerung identisch Null setzte.

Schließlich ist nicht auszuschließen, dass auch die Strahlendosisrate singulär werden kann. Wenn also beide Steuerungen gleichzeitig singulär werden, werden diese durch ein (2 mal 2) lineares Gleichungssystem bestimmt, deren Koeffizienten Lie-Klammern 2. Ordnung enthalten. Wegen der Komplexität der Formeln für die Koeffizienten werden diese numerisch bestimmt.

Schließlich wird noch die Goh-Bedingung, eine weitere notwendige Bedingung für vektorwertige Steuervariablen im Falle singulärer Teilstücke für mehr als eine Steuervariable, überprüft: Sie ist immer erfüllt, was besagt, dass eine total singuläre Steuerung über dem gesamten Therapiezeitraum nicht ausgeschlossen ist.

Das abschließende Kapitel zu den numerischen Resultaten mit der bewährten Kombination aus der Modellierungssprache AMPL und dem Innere-Punkt-Löser IPOPT beschließt die Arbeit. Berechnet werden jeweils die Monotherapie-Lösungen und die Kombinationstherapie. Bereits in der Monotherapielösung für die reine Strahlentherapie, aber auch in der Kombinationstherapie treten bislang unerklärliche Chattering-Effekte auf, obwohl die singulären Steuerungen von erster Ordnung sind. (Chattering Effekte können bei skalaren singulären Steuerungen zweiter Ordnung auftreten; siehe das bekannte Beispiel von Fuller.) Auch die näherungsweise Verifikation der notwendigen Bedingungen mithilfe der Approximationen der Zustands- und adjungierten Variablen, die durch diese First-discretize-then-optimize-Methode erzielt worden sind, gelang nur unbefriedigend.

Das Problem hat sich also als hartnäckiger erwiesen als erwartet. Kein Wunder, dass numerische Resultate bisher noch nicht publiziert wurden.

Studium: Master, Wirtschaftsmathematik, U Bayreuth
Abschluss: 04/2014
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftliche Mitarbeiterin, Doktorandin
Firma: Junior Research Group: Hierarchical Solution Strategies for Nonlinear Problems, Technische Universität Darmstadt
Branche: Öffentlicher Dienst
E-Mail: lisawagner88@"at"gmx.de
Homepage: von Lisa Wagner
Sonstiges: Frau Wagner strebt eine Dissertation an.

Optimale Steuerung von Modellen zur Beschreibung der Ausbreitung von AIDS
von
Janina Weiß

Janina Weiß Aufgabenstellung. Aufgabe war es, mehrere biomathematische Originalarbeiten zum Thema AIDS in Nigeria zu untersuchen, in denen insbesondere die besondere Rolle von Lastwagenfahrern und Prostituierten detailiert modelliert ist. Darüber hinaus hat Frau Weiß selbstständig die Literatur zu weiteren Modellen zur Beschreibung der Krankheit AIDS, insbesondere hinsichtlich von Problemen der Optimalen Steuerung durchsucht und ist dabei auf einen (noch nicht publizierten) Preprint gestoßen, dessen anspruchsvolles Modell aus zwei Steuerungen und sechs Kompartimenten sie mit Hilfe der Modellierungssprache AMPL und dem Innere-Punkte-Löser IpOpt numerisch gelöst hat.

Inhaltsangabe. Die Arbeit gliedert sich in eine aussagekräftige kurze Einleitung und ein vierseitiges einführendes Kapitel zu AIDS. Kapitel 3-6 beschäftigt sich in einem ersten Modell mit der speziellen Situation in Nigeria und der dortigen besonderen Rolle von jungen männlichen Truckern und Prostituierten. Ausgangspunkt ist die Beobachtung, dass die aus Standardmodellen abgeleiteten Vorhersagen über die Ausbreitung von AIDS in der Gesamtbevölkerung Nigerias nicht mit den Kennzahlen zu HIV übereinstimmen, denn die tatsächlichen Krankheitszahlen liegen deutlich höher, d.h. schlicht, dass die Standardmodelle zur Beurteilung (und ihre abgeleiteten Empfehlungen zur Verbesserung der Situation) für Nigeria unzureichend sind. Auf der Suche nach den (möglichen) wesentlichen Akteuren ist man in Nigeria auf zwei besondere Risiko-Personengruppen gestoen: Junge männliche Truckerfahrer, die weite Distanzen im Land überbrücken, und weibliche Prostituierte.

Zunächst wird in Kapitel 3 ein SI-Kompartimentmodell mit den von der Gesamtbevölkerung isolierten Risiko-Personengruppen aufgestellt und nur heterosexuelle Interaktionen zwischen diesen Klassen betrachtet. Frau Weiß berechnet die Reproduktionsrate und analysiert sodann deren Stabilität sowie besonders wichtig deren Sensitivität. Eine solche Sensitivitätsanalyse ist im wirtschaftswissenschaftlichen Kontext als Elastizität (der Reproduktionsrate) bekannt. Anschließend wird diese Subpopulationen in Kapitel 4 mit der allgemeinen, sexuell aktiven Bevölkerung gekoppelt. Zum einen, da Verluste aus den Kerngruppen durch Neurekrutierungen aus der allgemeinen Bevölkerung ersetzt werden und sowohl Trucker als auch Prostituierte nach ihrer Arbeitsniederlegung zur allgemeinen Bevälkerung zählen, zum anderen, weil die Mitglieder beider Kerngruppen auch Sexualpartner haben, die eben nicht aus diesen Kerngruppe stammen. Unter Ausnutzen der Tatsache, dass in der normalen Bevölkerung HIV wesentlich geringer verbreitet ist, gelingt es hier, ein aussagekräftiges Modell trotz z.T. nur lückenhafter und grober Kennzahlen zu erstellen. Dieses kann beschreiben, wie das Vorkommen in der generellen Population durch die Kontrolle der Infektion in der Kerngruppe reduziert werden kann. Beispielhaft wird die Auswirkung der Benutzung von Kondomen der Risikogruppen auf die Ausbreitung der Krankheit in der Gesamtbevölkerung (näherungsweise) untersucht. Kapitel 6 fasst die entsprechenden numerischen Ergebnisse und deren Diskussion zusammen.

Im zweiten Teil der Arbeit, in den Kapitel 7-9, wird ein Modell mit gänzlich anderer Zielrichtung untersucht, welches die Optimierung der Therapie der Krankheit AIDS zum Ziel hat. Dabei werden wichtige Zellarten des menschlichen Immunsystems als Kompartimente betrachtet. Ziel einer optimal geführten Kombinationstherapie zweier Medikamente ist hierbei, die Anzahl der gesunden Zellen im Körper zu maximieren. Die betrachteten Medikamente sind der RT-Inhibitor und der Hemmstoff PI, welche dafür sorgen, dass die Verbreitung der Infektion im Körper reduziert wird und die Zellen angeregt werden, statt des ansteckenden einen nicht-ansteckenden Virus hervorzubringen, der ebenfalls im Modell mit eigener Dynamik berücksichtigt wird. Gleichzeitig sollen die Kosten für Medikamente minimiert werden. Mathematisch führt dieses Modell auf ein optimales Steuerungsproblem mit zwei Steuerungen. Es wird zunächst numerisch ohne Medikamentengabe simuliert. Dann werden die notwendigen Bedingungen des Minimumprinzips hergeleitet. Im abschließenden 9. Kapitel werden die numerischen Lösungen, erhalten über die Modellierungssprache AMPL mithilfe des Hochleistungs-NLP-Lösers IpOpt präsentiert. Dazu werden detailiert die Diskretisierung und die Erstellung der AMPL Datei besprochen. Aussagekräftige Visualisierungen und deren zughörige Interpretationen runden die Masterarbeit von Frau Weiß ab. Ergebnis der numerischen Lösung des optimalen Steuerungsproblems ist eine zeitabhängige Dosierungsempfehlung.

Es sei erwähnt, dass im zugrundeliegenden Preprint keinerlei Aussage zu finden ist, wie die dort gezeigten Bilder entstanden sind; mindestens ein Parameter im Preprint ist wohl falsch angegeben, da sich die im Preprint befindlichen Abbildungen nur durch Ändern von Modellparametern ergeben.

Studium: Master, Technomathematik, U Bayreuth
Abschluss: 10/2014
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: nini1989"at"t-online.de

Numerische Simulation gewellter Federn unter Anwendung der Finite-Elemente-Methode
von
Julia Birgit Günther

Julia Birgit Günther Aufgabenstellung. Die Masterarbeit befasst sich mit einer sehr speziellen Anwendung der numerischen Simulation. Mit Hilfe der Methode der Finiten Elemente werden sog. gewellte Federn simuliert. Es handelt sich dabei um eine besondere Form technischer Federn. Die Federn sollen vor allem in Hinblick auf ihre charakteristischen Kennlinien und das Verhalten unter Belastung untersucht werden. Ziel ist es ein Programm zu erstellen, das dies ermöglicht und in bereits bestehende Software integriert werden kann.

Inhaltsangabe. Im Verlauf der Arbeit werden daher zunächst Begriffe der Federntechnik erklärt. Anschließend wird auf die mathematischen und technischen Grundlagen der Finite-Elemente-Methode eingegangen. Die beiden unterschiedlichen Herangehensweisen an die die Finite-Elemente-Methode, einmal aus ingenieurwissenschaftlicher Sicht, einmal aus mathematischer Sicht, werden einander gegenübergestellt. Es wird aufgezeigt, dass die beiden Zugäge trotz ihrer auf den ersten Blick unterschiedlichen Herangehensweisen in Einklang gebracht werden können. Eine solche Gegenüberstellung findet man in der Literatur unseres Wissens nicht. Außerdem werden technische Details erörtert, die vor allem für die spätere Anwendung von Bedeutung sind und das Verständnis der Implementierung erleichtern. Dem folgt die Vorstellung des verwendeten Finite-Elemente-Kerns. Mit dessen Hilfe wird letztendlich ein entsprechendes Programm erstellt. Durch ausführliche Testreihen werden geeignete Parametereinstellungen für das Programm ermittelt. Anschließend wird es mit Hilfe eines kommerziellen Finite-Elemente-Programms sowie realer, vermessener Federn und Kennlinien validiert. Abgerundet wird die Arbeit mit einem zusammenfassenden Fazit und einem Ausblick auf weitere offene Themengebiete.

Diese Masterarbeit ist für den Studiengang Technomathematik geradezu prototypisch. Sie umfasst, was diesen Studiengang am Ende kulminierend in der Masterarbeit ausmachen soll: Ein technisch anspruchsvolles Problem, hier sogar aus einer industriellen Aufgabenstellung, dessen mathematische Modellierung, der numerischen Lösung des mathematischen Problems mithilfe von hier zur Verfügung stehenden Software-Werkzeugen, die jedoch zusammengeführt werden mussten, der Implementierung der zulösenden Anwenderprobleme, was ohne gute informatische Kenntnisse nicht zu machen ist, und schließlich der Rückübersetzung der numerischen Ergebnisse in die Sprache des Ingenieurs, in die man sich als Technomathematiker/-in einarbeiten können muss.

Studium: Master, Technomathematik, U Bayreuth
Abschluss: 02/2015
Erste Anstellung: sofort nach Studienabschluss
Position: Softwareentwicklerin
Firma: Scherdel siment GmbH, Marktredwitz
Branche: Numerische Simulation.
"Wahlspruch der Firma: "Dem Versuch glaubt jeder, außer dem, der ihn gemacht hat.
Der Berechnung glaubt keiner, außer dem, der sie gemacht hat."
Wir arbeiten daran, dass sich das ndert!
E-Mail: julia.b.guenther"at"web.de

Logo Zurück zur Home-Page



Letzte Aktualisierung: 18.08.2015, Hans Josef Pesch.