Wo Mathematiker(innen) arbeiten. - Wie ihr Berufseinstieg erfolgte. -
Was ihre Tätigkeiten sind.
Wie sich ihr weiterer Werdegang entwickelte.
Liebe ehemaligen Absolventinnen und Absolventen:
Wenn Sie diese Seite 'mal wieder besuchen sollten, halten Sie mich bitte auf dem Laufenden.
Ich möchte gerne wissen, wie Ihr Lebensweg weitergegangen ist.
Alles, was Sie mit Ihrem jetzigen Abstand vom Studium über Ihre Studienwahl denken,
alles was Sie für informativ für die heutigen Studierenden halten,
möchte ich gerne auch weiterhin über meine Pensionierung hinaus auf dieser Seite präsentieren.
Auch Links zu Ihren aktuellen Firmen oder zu Ihren Forschungsprojekten würde ich gerne eingetragen.
Sie erreichen mich auch weiterhin unter meiner Bayreuther E-Mail.
Ich wünsche Ihnen privat und beruflich alles Gute und grüße Sie in alter Erinnerung ganz herzlich,
Hans Josef Pesch
Ein aktuelles Projekt der ESA (European Space Agency) ist die
Vorbereitung eines Experiments, mit dem Gravitationswellen im Weltraum
entdeckt und untersucht werden sollen: LISA (Laser Interferometer
Space Antenna).
LISA besteht aus sechs identischen Raumfahrzeugen, die paarweise im Abstand von fünf Millionen Kilometern ein gleichseitiges Dreieck bilden, dessen Mittelpunkt eine Astronomische Einheit von der Sonne entfernt ist und sich 20 Grad hinter der Erde auf der Erdbahn befindet. Die Formation wird auf einer erdähnlichen Umlaufbahn um die Sonne kreisen. In jedem Raumfahrzeug befindet sich eine in Schwerelosigkeit frei fliegende Prüfmasse. Mit Hilfe von Lasern und Spiegelsystemen kann jede noch so kleine Abstandsänderung der Prüfmassen zueinander gemessen werden.
Nach dem Aussetzen durch die Trägerrakete wird ein solarelektrisches Antriebsmodul für den Transfer jedes Raumfahrzeugs zu seinem Zeilorbit benutzt, wobei die elektrische Energie von der Sonne verwendet wird, um Atome für die gewünschte Schubrichtung zu ionisieren und zu beschleunigen. Dieser solarelektrische Antrieb ist wesentlich schwächer als herkömmliche Raketentriebwerke, allerdings auch erheblich leichter. Deshalb benötigt dieses Raumfahrzeug für den Start nur eine kleinere und billigere Startrakete.
Ausgangspunkt für Herrn Grafs Arbeiten war ein ESA-Report von Vasile und Jehn, in dem für die schwierige Bahnebenendrehung des ionengetriebenen Raumfahrzeugs ein Vergleich der Ergebnisse eines direkten Optimierungsverfahrens und zweier indirekter Optimierungsverfahren (Einfachschießen, Mehrzielmethode) durchgeführt wurden. Man muß hierzu anmerken, daß Flugbahnoptimierungsaufgaben für ionengetriebene Satelliten auf Grund der schwachen Schübe des Triebwerks in der Vergangenheit nur erfolgreich mit ausgefeilten indirekten Verfahren lösbar waren. In diesem ESA Report werden verschiedene, und wie Hr. Graf feststellte, zum Teil nicht mathematisch äquivalente Formulierungen der Aufgabenstellung bzgl. ihrer Ergebnisse verglichen, wobei die abgeleiteten Schlußfolgerungen zum Teil nicht schlüssig sind.
Die Aufgabe von Herrn Graf war zunächst die genaue Analyse der verwendeten verschiedenen Koordinatensysteme, Problemformulierungen und der anschließende sorgfältige Vergleich der Ergebnisse des direkten Optimierungsverfahrens NUDOCCCS und des indirekten Optimierungsverfahrens MUMUS für zwei verschiedene, aber mathematisch äquivalente Problemformulierungen des Flugbahnoptimierungsproblems (sowohl ohne als auch mit einer technisch relevanten Beschränkung). Kurz gesprochen interessierte also: Können heutzutage ausgereifte direkte Optimierungsverfahren zuverlässige Ergebnisse für Flugbahnoptimierungsaufgaben mit ionengetriebenen Raumfahrzeugen liefern? Wie genau sind die berechneten Zustands- und Steuerfunktionen? Wie genau ist der Zielfunktionalswert?
Die Ergebnisse der Arbeit wurden auf einer internationalen Tagung präsentiert; siehe auch hier.
Studium: Wirtschaftsmathematik, U Bayreuth, 10/1995
Abschluss: 5/2001
Erste Anstellung: sofort nach Abschluss
1. Position: wissenschaftlicher Mitarbeiter
Firma: Universität (Bayreuth, Lehrstuhl für Angewandte Mathematik)
Branche: Öffentlicher Dienst
Promotion: Herr Graf promovierte 2005 an der Universität Bayreuth mit der Dissertation
Satellitentransfer von einem Geotransferorbit in einen geostationären Orbit
bei Profs. Lempio und Pesch.
2. Position: wissenschaftlicher Mitarbeiter
Firma: Institut für Arbeitsmarkt- und Berufsforschung, Nürnberg
Branche: Forschungsinstitut
E-Mail: tobias.graf"at"web.de
Bereits seit 40 Jahren kommen Roboter in der Industrie zum Einsatz. Sie ermöglichen ein schnelles und preiswertes Produzieren, ohne
qualitative Einschränkungen in Kauf nehmen zu müssen. Die Anzahl der Roboter, die sich derzeit im weltweiten Einsatz befinden,
wird auf ca. eine Million geschützt. Hiervon werden allein die Hälfte der Roboter für Punktschweißaufgaben eingesetzt, einer Aufgabenstellung,
wie sie im wesentlichen auch in der Arbeit von Herrn Knauer behandelt wird.
Die Effektivität von Robotern hängt nicht mehr ausschließlich davon ab, welche Optimalitätsforderungen (z.B. Zeit-, Energie-, Verschleiß- oder Verbrauchsminimalität) bei der Bahnplanung berücksichtigt werden, sondern in welchem Maße selbige berücksichtigt werden. Allein die Entscheidung, welches Gütekriterium eine opimale Bahn festlegen soll, ist eine schwierige Aufgabe. Die Vektor- bzw. Pareto-Optimierung, d.h. die gleichzeitige Berücksichtigung verschiedener Gütekriterien, erlaubt hier einen Ausweg. Mittels einer parametrischen Sensitivitätsanalyse kann das Zusammenspiel verschiedener Zielfunktionen erstmals tiefergehend untersucht werden.
Herrn Knauer hat die Bewegungsgleichungen des Industrieroboters IRB 6400 als Fortran Quellcode unter Verwendung des Computeralgebra Programms Maple erstellt. Dann damit unter Verwendung des Programms NUDOCCCS von Büskens optimale Bahnen für verschiedene Gütekriterien berechnet und diese schließlich mit Hilfe einer Sensitivitätsanalyse analysiert.
Darüber hinaus enthält die Arbeit von Herrn Knauer noch Beiträge zur Echtzeitsteuerung parametergestörter Bewegungsgleichungen bei den untersuchten Problemen aus der Robotik. Für diese hat Herr Knauer neben seiner Diplomarbeit noch ein beeindruckendes Visualisierungswerkzeug entwickelt.
Siehe auch hier (Link)
Studium: Mathematik mit Nebenfach Informatik, U Bayreuth
Abschluss: 7/2001
Erste Anstellung: sofort nach Studienabschluss
Position: zunächst: Wissenschaftlicher Mitarbeiter,
danach: Mathematiker in der Industrie,
dann wieder: Wissenschaftlicher Mitarbeiter
Firma: zunächst: Lehrstuhl für Ingenieurmathematik, U Bayreuth,
danach: Krusche Lagertechnik AG, Wartenberg,
dann wieder: Lehrstuhl für Ingenieurmathematik, U Bayreuth,
derzeit: Zentrum für Technomathematik, Universität Bremen
Branche: zunächst: Universität, danach: Maschinenbau, dann wieder: Universität
E-Mail: knauer"at"math.uni-bremen.de
Homepage: http://www.math.uni-bremen.de/zetem/MatthiasKnauer (Link)
Promotion: Herr Knauer promovierte in der Arbeitsgruppe Optimierung und Optimale Steuerung der Universität Bremen im April 2009 zum Thema
Bilevel-Optimalsteuerung mittels hybrider Lösungsmethoden am Beispiel eines deckengeführten Regalbediengeräts in einem Hochregallager.
Gutachter: Profs. Büskens, Pesch.
Sonstiges: Herr Knauer ist weiterhin an der Universität Bremen tätig und beschäftigt sich derzeit mit Transkriptionsverfahren
für Optimalsteuerungsprobleme und zahlreichen industrienahen Anwendungen in der Logistik, im Raumfahrtbereich und im Automobilsektor.
Viele Verkehrsflugzeugunglücke der letzten Jahrzehnte sind auf sogenannte Fallwinde zurückzuführen, bei denen vertikale Luftströmungen mit lokal sehr begrenzter Ausdehnung und hohen Geschwindigkeiten auftreten. Die Aufgabenstellung der Berechnung optimaler Flugbahnen beim Auftreten von Fallwinden wurde erstmals 1986 von Miele, Wang und Melvin für den 2-dimensionalen Flug formuliert und von Grigat 1997 auf den 3-dimensionalen Fall erweitert. Hierbei wurde das Optimierungsziel der Maximierung der Minimalhöhe durch eine approximierende Ersatzfunktion erreicht. Montrone berechnete 1989 für den 2-dimensionalen Fall die optimale Lösung für die originale Zielfunktionsformulierung. Während die benannten Autoren im wesentlichen die auf den notwendigen Optimalitätsbedingungen von Pontrjagin basierenden indirekten Verfahren zur Lösungsberechnung nutzten, war es die Aufgabe von Herrn Axel Luthardt, die bekannten Lösungen anhand des direkten Verfahrens NUDOCCCS von Büskens zu verifizieren und die originale Zielfunktionsformulierung, wie von Montrone im 2-dimensionalen Fall behandelt, auf den 3-dimensionalen Fall zu übertragen.
Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 31.8.2001
Erste Anstellung: 1.10.2001
Position: Operationsanalytiker
Branche: Maschinenbau
Firma: EADS Militärflugzeuge Deutschland
E-Mail: axel.luthardt"at"m.eads.net oder axel.luthardt"at"web.de
Promotion: Herr Luthardt promovierte aus dem Beruf heraus im Jahre 2012 an der Universität Bayreuth bei Prof. Schittkowski
mit der Dissertation Ein Verfahren der sequentiellen konvexen Optimierung mit kombinierter Trust-Region- und Moving-Asymptotes-Stabilisierung
zur Lösung nichtlinearer restringierter Optimierungsprobleme. Zweitgutachter: Prof. Pesch.
Viele praxisrelevante Aufgabenstellungen aus den Ingenieur- und Naturwissenschaften sowie in der Ökonomie lassen sich im Rahmen der Theorie optimaler Steuerprozesse behandeln und numerisch lösen. Neuere Aufgabenstellungen führen auf erweiterte Problemstellungen, bei denen neben den stetigen Variablen auch diskrete Entscheidungsvariablen die Optimallösung beeinflussen: Man denke etwa an die Gangschaltung bei einem Auto als diskrete Entscheidungsvariable, während z.B. die Beschleunigung kontinuierlich zu wählen ist. Die Aufgabenstellung der gemischt--ganzzahligen Optimalsteuerung (MIOCP=mixed integer optimal control problems) ist eine sehr junge Disziplin; die numerische Bestimmung einer optimalen Lösung ist so gut wie unbehandelt. Herr Maier hat in seiner Diplomarbeit eine neue, am Lehrstuhl Ingenieurmathematik entwickelte Idee für einen numerischen Algorithmus zur Berechnung optimaler Lösungen solcher Aufgabenstellungen unter Verwendung des direkten Verfahrens NUDOCCCS (zur Lösung kontinuierlicher Optimalsteuerungsprobleme) umgesetzt und in einem Computerprogramm realisiert. Mit einer speziellen Kodierung der ganzzahligen Variablen durch einen Simplex, gekoppelt mit einer Strategie zum effizienten Absuchen der ganzzahligen Variablen, wurde das Problem der Ganzzahligkeit behandelt.
Die Arbeit von Herrn Maier unterteilt sich im wesentlichen in drei Bereiche: Im ersten Bereich der mathematischen Grundlagen werden in kompakter Form bekannte theoretische Resultate zu Optimalsteuerungsproblemen, nichtlinearen Optimierungsproblemen und ganzzahligen Optimierungsproblemen zusammengefasst. Im zweiten Bereich beschreibt Herr Maier numerische Lösungsverfahren für Optimalsteuerungsprobleme und zur Lösung ganzzahliger Optimierungsprobleme. Hier wir auch die Idee zur Verknüpfung der Ganzzahligkeit mit dem Optimalsteuerungsproblem diskutiert und auf die numerische Realsierung und Implementierung eingegangen. Im dritten Bereich werden numerische Ergebnisse erörtert.
Studium: U Bayreuth
Abschluss: ??.??.2002
Erste Anstellung: ??.??.200?
Position:
Branche:
Firma:
E-Mail:
Eine der am häfigsten an Mathematiker gestellten Aufgaben ist die Parameteridentifizierung in Gleichungssystemen. Ausgangslage ist ein mathematisches Modell in Form von Gleichungen (algebraische Gleichungen, gewöhnliche oder partielle Differentialgleichungen, differential-algebraische Gleichungen etc.) Ein konkreter Sachverhalt wird dabei in der Regel durch Vorgabe von Parametern beschrieben. Diese Parameter sind häfig nur unter erheblichem Aufwand an Kosten oder auch gar nicht mssbar bzw. bestimmbar. Die Mathematik liefert nun einen Ausweg über die Lösung eines inversen Problems. Dabei werden ausgehend von Startschätzungen für diese Parameter die Lösungen der Gleichungen bzw. von diesen abhängige Größen berechnet und mit Messwerten für diese Größen verglichen. Die Startschätzungen werden dann iterativ so verbessert, dass die berechneten Lösungen oder die davon abhängigen Größen mit den Messwerten möglichst gut übereinstimmen.
Frau Niklas hat in ihrer Diplomarbeit das Verfahren von Matthias Gerdts zur Berechnung optimaler Lösungen von Steuerungsproblemen, deren Dynamik durch differential-algebraische Gleichungen beschrieben werden, so erweitert, dass nun in der Optimierungsgruppe der Universität Bayreuth auch ein Verfahren zur Parameteridentifikation in parabolischen partiellen Differentialgleichungen bis zur Ortsdimension zwei zur Verfügung steht.
Frau Niklas hat ihre Diplomarbeit in vier Kapitel geliedert, gemäß den drei beteiligten Fachgebieten der Mathematik, die bei dieser Problemstellung eine Rolle spielen, sowie ein Kapitel, das den Anwendungen gewidmet ist: Die Theorie partieller Differentialgleichungen, die Numerik partieller Differentialgleichungen, die Optimierung, speziell die Parameteridentifikation in Differentialgleichungen, und Anwendungen aus Biologie und Chemie. Die Arbeit enthält zudem einen ausführlichen Anhang zur Benutzung des entwickelten Programmpaketes.
Studium: 1. Staatsexamen für das Lehramt am Gymnasium mit der
Fächerkombination: Mathematik/Physik,
danach: Mathematik mit Nebenfach Physik (beides U Bayreuth)
Abschluss: 26.8.2002
Erste Anstellung: zunächst zweimonatiges Praktikum unmittelbar nach Studienabschluss, dann Festanstellung
Position: Kostenanalytikerin
Branche: Automobilbau
Firma: BMW AG, München
Tätigkeit: Planung und Kostenanalyse von Gewährleistungen
E-Mails: T.Horn"at"arcor.de oder TR.Horn"at"gmx.de (beide privat)
oder Tanja.Horn at bmw.de (geschäftlich)
Sonstiges: Für mich hat es sich wirklich gelohnt, das Referendariat abzubrechen und nochmals zu studieren.
Nun kann ich wirklich etwas machen, das mir großen Spaß macht und wo ich mich voll einbringen kann.
Kostendruck zwingt heute auch Krankenhäuser zu einem effizienten Einsatz ihrer Ressourcen. Insbesondere durch die Optimierung der Ablaufplanung kann eine bessere Auslastung und damit einer höhere Effizienz bei der Belegung von Stationen erreicht werden, die Patienten im Krankenhaus durchlaufen müssen. Es ist offensichtlich, dass eine mathematische Modellierung bei diesem weder natur- noch ingenieurwissenschaftlichen Hintergrund eine nicht einfache Angelegenheit ist. Es existieren jedoch Modelle, die die Ablaufplanung mit Maschinenbelegungsproblemen in Beziehung setzen. Hierbei handelt es sich um die sogenannten Sheduling-Probleme.
Herr Sacher hat in seiner Diplomarbeit genetische Algorithmen und das Simulated Annealing, zwei naturanaloge Optimierungsverfahren, auf die Ablaufplanung im Krankenhaus angewendt. Diese Verfahren sind für solche, einer mathematischen Modellierung nicht leicht zugänglichen Aufgaben bestens geeignet. Beide Verfahren sind keine mathematisch strengen Methoden, sondern besitzen experimentellen und heuristischen Charakter, leiden allerdings an einem enormen Rechenzeitbedarf, da aufgrund der geringen mathematischen Struktur des Problems keine intelligenten Suchverfahren für Abstiegsrichtungen bei der Optimierung eingesetzt werden können.
Nach der Darstellung des Problems der Ablaufplanung im Krankenhaus und einer Einführung in die beiden Optimierungsverfahren werden diese auf die Problemstellung angewendet und die erzielten Ergebnisse ausführlich diskutiert. Die Verfahren werden sodann miteinander verglichen, dabei erweist sich das von Herrn Sacher implementierte Simulated-Annealing-Verfahren gegenüber dem ebenfalls von Herrn Sacher implementierte Genetischen Optimierungsverfahren als überlegen. Abschließend wird die Relevanz der entwickelten Software für einen praktischen Einsatz diskutiert. Daten, Programmbeschreibung der Software und Softeware sind der Arbeit angehängt bzw. auf CD-Rom beigefügt.
Die Arbeit entstand in gemeinsamer Betreuung mit dem Lehrstuhl für Betriebswirtschaftslehre VII (Wirtschaftsinformatik), Prof. Dr. Armin Heinzl, jetzt U Mannheim.
Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: März 2002
Erste Anstellung: 01.03.2003
Position: Softwareentwickler
Branche: Real Time Software for Embedded Systems
Firma: 4D Engineering GmbH Bayreuth/Weßling
E-Mail: sacher.matthias"at"web.de
Evolutionäre Algorithmen, zu denen auch die Genetischen Algorithmen zählen, eignen sich für Optimierungsaufgaben, insbesondere wenn deren mathematische Struktur keine Standardform, z.B. nichtglatte Zielfunktion, diskrete Variablen, aufweist. Frau Schindler hat in ihrer Diplomarbeit verschiedene Evolutionsstrategien getestet und vergleichen und ein Verfahren zur Optimierung von baumförmigen Kommunikationsnetzwerken entwickeln. Im ersten Teil der Arbeit wird eine Einführung in die Evolutionären Verfahren und eine Übersicht über verschiedene Evolutionsstrategien gegeben. Daran schließt sich eine Übersicht über gängige Optimierungsverfahren und ihre Einsatzbereiche an. Im zweiten Teil der Arbeit werden für verschiedene Evolutionsstrategien numerische Ergebnisse anhand der Optimierung eines sogenannten One-Max-Tree-Problems, einem Standard-Problem der Netzwerkoptimierung, präsentiert und diskutiert.
Die Arbeit entstand in gemeinsamer Betreuung mit dem Lehrstuhl für Betriebswirtschaftslehre VII (Wirtschaftsinformatik), Prof. Dr. Armin Heinzl, jetzt U Mannheim.
Aus dieser Diplomarbeit ging eine Publikation hervor: Zum Inhalt siehe hier.
Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: März 2003
Erste Anstellung: Januar 2003
Position: Softwareentwickler
Branche: Branchensoftware
Firma: SKS-AG, EDV-Systeme
E-Mail: b.schindler"at"sks-net.de
Viele Optimierungsprobleme bei Problemstellungen aus Ingenieur-, Natur- und Wirtschaftswissenschaften lassen sich
mithilfe mathematischer Modelle im Rahmen der Theorie optimaler Steuerprozesse analysieren und mithilfe von Verfahren
der Numerischen Mathematk explizit lösen. Noch relativ neu sind dagegen Anwendungen der Theorie optimaler Steuerprozesse
in der Medizin, hier speziell der Chemotherapie. Der Grund liegt sicherlich darin, dass sowohl aus medizinischer Sicht
oft nur vage Kenntnisse des dynamischen Verhaltens der Zellen bekannt sind, wie in der i.A. fehlenden gemeinsamen
Gesprächsbasis zwischen Medizinern, Pharmakologen und Biologen einerseits und Mathematikern andererseits.
Dass es sich hierbei dennoch um ein hochaktuelles Gebiet handelt, erkennt man aus der Tatsache, dass die überwiegende Zahl der
Literaturzitate in dieser Diplomarbeit der letzten Dekade entstammen.
Grundlage der in dieser Diplomarbeit verwendeten dynamischen Modelle sind einfache Wachstumsgesetze, die in der Mathematik zwar z.T. schon seit mehreren hundert Jahren untersucht wurden, jedoch erst in jüngster Zeit auf das dynamische Verhalten von Tumorzellen angewendet, modifiziert und verfeinert wurden. Insbesondere die Reaktion des Wachstums von Tumor- und gesunden Zellen auf chemotherapeutische Medikamente kann man mathematisch durch von außen beeinflussbare Größen modellieren, mit anderen Worten steuern.
In der Diplomarbeit wurde eine Sichtung der aktuellen Literatur auf diesem Gebiete durchgeführt, die vorhandenen Modelle zusammengestellt, struktriert und einige der resultierenden Optimalsteuerungsprobleme mathematisch analysiert und numerisch gelöst. Insbesondere wurden die Modelle hinsichtlich Stabilität gegenüber Parameteränderungen untersuchen, da gerade die Kenntnis der Parameterwerte in den zugrunde liegenden Differentialgleichungen nur sehr unzureichend ist. Hierbei bietet sich die Sensitivitätsanalyse an, die mit dem Verfahren NUDOCCCS von C. Büskens numerisch durchgeführt wurde.
Nach einer Einführung in die biologischen Grundlagen, die zum Verständnis der Modellierung chemotherapeutischer Modelle notwendig ist, und einer Einführung in die mathematischen Grundlagen gibt die Diplomarbeit in Kapitel 4 eine strukturierte Übersicht über die in der Literatur verwendeten dynamischen Modelle. Durch Kombination von aus der Literatur bekannten Modellen werden neue erweitere Modelle entwickelt und deren biologischer Hintergrund beschrieben. Ferner werden verschiedene Möglichkeiten aufgezeigt, die dynamischen Modelle durch von außen beeinflussbare Größen zu steuern und hinsichtlich verschiedenen Ziele zu optimieren.
Zu drei häfig in der Literatur verwendeten Modellen (von Fister & Panetta; Ledzewicz; Afenya), die zum Teil leicht modifiziert wurden, werden optimale Lösungen numerisch berechnet. Für jedes Modell wird eine Sensitivitätsanalyse durchgeführt und deren Ergebnisse diskutiert.
Aus dieser Diplomarbeit ging eine Publikation in einem Tagungsband hervor. Siehe hier bzw. hier (Download).
Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: Oktober 2002
Erste Anstellung: unmittelbar nach Studienabschluss
1. Position: Wissenschaftliche Mitarbeiterin
Branche: Universität (Bayreuth, Lehrstuhl für Ingenieurmathematik)
Promotion: Februar 2007: Simulation, Optimale Steuerung und Sensitivitätsanalyse einer Schmelzkarbonat-Brennstoffzelle
mithilfe eines partiell differential-algebraischen Gleichungssystems,
Fakultät für Mathematik, Physik und Informatik, Universität Bayreuth. Betreuer: Prof. Pesch.
2. Position: Biometrikerin
Branche: Pharmazie
Firma: Merz Pharmaceuticals GmbH, Darmstadt
Tätigkeit: Als Biometrikerin ist Frau Dr. Sternberg in der Abteilung Central Medical Affairs f&uum;r die Erstellung statistischer Analysepläne bei der Einführung neuer oder der Überprüfung bereits existierender Arzeneimittel verantwortlich.
In diesen Plänen muss jede einzelne Berechnung einer Studie im Voraus exakt festgelegt werden. Selbst Tabellen und Grafiken müssen
vorher festgelegt werden, damit statistischen Auswertungen auf keinen Fall nachträglich durch Veränderungen verfälscht werden. Insbesondere müssen die statistischen Ergebnisse der Studien unabhängig von den Patientendaten sein.
E-Mail: kati.sternberg(at)googlemail.com
Alte Homepage an der UBT: http://www.ingmath.uni-bayreuth.de/Sternberg/
Gegenstand der Diplomarbeit ist ein mikroökonomische Unternehmensmodell, bei dem der Gewinn der Eigenkapitalgeber eines Produktionsunternehmens durch Steuerung von Investitionen, Beschäftigung und Warenpreis für ein produziertes Produkt maximiert werden soll. Das Modell geht in seiner ursprünglichen Form auf Lesourne und Leban (1980, 1982) zurück und wurde danach im Verlauf mehrerer Diplomarbeiten (Will, 1992, U Hamburg; Koslik, 1994, Winderl, 1996, beide TU München) hin zu mehr Realitätsnähe verbessert. In allen diesen Diplomarbeiten wurden auch numerische Lösungen des zugrundeliegenden Optimalsteuerungsproblems angegeben. Dabei zeigte sich, dass dieses Problem extrem kompliziert ist, da aufgrund von vier linear eingehenden Steuerungen und einer Vielzahl von Ungleichungsbeschränkungen eine äußerst verzwickte Schaltstruktur aufzulösen war. Mit steigender Komplexität waren optimale Lösungen zuletzt nur noch mithilfe indirekter Verfahren zu berechnen. Trotz seiner Komplexität weist das Unternehmensmodell weiterhin Defizite in der Modellierung auf, z.B.: Kosten für Einstellung und Entlassung von Beschäftigten werden nicht berücksichtigt; die Nachfrage nach den produzierten Produkten ist weder konjunkturabhängig, noch über den Preis steuerbar.
Diese vierte Diplomarbeit zu dem Unternehmensmodell von Lesourne und Leban bezieht jetzt erstmalig auch Kosten für die Einstellung und Entlassung von Beschäftigten ein. Dazu werden eine lineare und eine quadratische Kostenfunktion modelliert und Schätzungen für die Parameter angegeben. Die Steuerung der Anzahl der Beschäftigten muss bei der linearen Kostenfunktion durch zwei linear eingehende Steuerungen, getrennt für Einstellung und Entlassung von Beschäftigten, ersetzt werden. Eine weitere Modifikation des Modells wird durch eine durch den Preis steuerbare, konjunkturabhüngige Nachfragefunktion erzielt. Diese zieht notwendigerweise auch eine Änderung des bisherigen Zielfunktionals nach sich, das ebenfalls kritikwürdig war. Zusätzlich werden noch Kosten für Veränderungen in Eigen- und Fremdkapital berücksichtigt, sowie ein Lagerbestand, der von der Differenz zwischen Produktion und Nachfrage abhängt. Das Zielfunktional muss dazu ein weiteres Mal modifiziert werden. Darüber hinaus wird statt der bisher verwendeten, in einen separaten Topf gezahlten Risikorücklage das Eigenkapital direkt gestörkt (Gewinnthesaurierung). Schließlich wird das Modell durch Einführung einer Selbstkündigungsrate sowie der Abführung von Steuern nur auf den positiven Gewinn komplettiert.
Das engültige Modell weist 7 Zustands- und nach wie vor 4 linear eingehende Steuerfunktionen mit mittlerweile 16 Ungleichungsnebenbedingungen auf. Aufgrund singulärer Teilbögen ist die optimale Schaltstruktur nach wie vor so kompliziert, so dass Lösungen mit vertretbarem Aufwand nur mithilfe direkter Optimierungsverfahren numerisch berechnet werden können. Hier wurde das Verfahren NUDOCCCS von Büskens verwendet. Da dieses Verfahren aber auch Schätzwerte für die Lagrangeparameter des Optimalsteuerungsproblems liefert, wurden die üblichen notwendigen Bedingungen der Theorie der Optimalen Steuerung näherungsweise überprüft, um eventuell nichtoptimale Lösungen auszusondern. Ein besonderer Vorteil des Softwarepakets NUDOCCCS mit seinen angebundenen weiteren Programmen liegt auch darin, Sensitivitäten der optimalen Lösung bezüglich der Systemparameter zu berechnen. Damit konnte dann die Schätzung der Werte der aufgrund der zahlreichen Modellmodifikationen erforderlichen Systemparameter abgesichert und das Unternehmensmodell bewertet werden.
Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: Oktober 2002
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Mathematikerin
Branche: Wirtschaftsprüfung
Firma: KPMG, Köln
E-Mail: maria.witzmann"at"web.de
Diese beiden Diplomarbeiten entstanden zu Beginn eines neuen größeren, dreijährigen,
vom BMBF finanzierten Forschungsprojektes zur Entwicklung optimaler Steuerstrategien
für Brennstoffzellensysteme. Insbesondere Schmelzkarbonat-Brennstoffzellen stehen
im Fokus des Interesses in diesem Verbundprojekt. Brennstoffzellensysteme zur alternativen
und umweltfreundlichen Energiegewinnung gewinnen zunehmend an technischer Reife
und damit an Bedeutung. Erste Anlagen zur stationären Energieversorgung
mittels Schmelzkarbonat-Brennstoffzellen (MCFC = molten carbonate fuel cells)
werden von der Firma MTU Friedrichshafen GmbH mittlerweile bereits an Kunden
ausgeliefert. Neben der MTU Friedrichshafen GmbH ist einer dieser Kunden
die Firma IPF Heizkraftwerksbetriebs-GmbH aus Magdeburg, die das Blockheizkraftwerk des
Magdeburger Universitätsklinikums betreibt, ebenfalls an diesem Verbundprojekt beteiligt.
Mithilfe von Brennstoffzellen kann man die bei gewissen elektro-chemischen Reaktionen entstehende Energie direkt in Strom umwandeln. Da diese Reaktionen bei Schmelzkarbonat-Brennstoffzellen stark exoterm sind, bedeutet die Abwärme des Systems nicht nur einen Vorteil, um z.B. noch zusätzlich eine Dampfturbine anzutreiben, sondern bringt auch Nachteile für die Materialien der Brennstoffzelle mit sich. Die Betriebstemperatur ist ca. 600 C.
Ziel des Projektes ist es, Strategien zu entwickeln, um bei verschiedene kritischen Betriebssituationen einer Bennstoffzellenanlage, wie Anfahren und Herunterfahren der Anlage und Lastwechsel bei sich plötzlich änderndem Bedarf, zu hohe Temperaturen, insbesondere zu hohe Temperaturgradienten, und damit die Gefahr von Beschädigungen durch Materialüberhitzung und -ermüdung zu vermeiden. Bei geringerer Temperatur ist allerdings die Stromausbeute ungenügend. Endziel des Projektes ist es, dieser Art von umweltfreundlicher Energieproduktion mit zum kommerziellen Durchbruch zu verhelfen.
Mathematisch handelt es sich hier um eine große Herausforderung: die Optimierung partieller Differentialgleichungen ist ein noch sehr junges Forschungsgebiet und dieses System ist gigantisch: bis zu 24 gekoppelte hochgradig nichtlineare partiell differential-algebraische Gleichungen sind in jeder Optimierungsiteration mehrfach numerisch zu lösen. Im Rahmen dieser Diplomarbeiten wurden verschiedene erste eindimensionale Modelle numerisch gelöst. Dennoch, selbst diese Aufgabe übersteigt die Anforderungen, die man gewöhnlich bei einer Diplomarbeit setzt. Aus diesem Grund wurde die Aufgabe auf zwei Diplomandinnen, Frau Petzet und Frau Scherdel, verteilt, die sich dieser Arbeit im Team angenommen haben, ohne dabei auf eigene innovative Beiträge verzichten zu müssen.
Die in diesen Diplomarbeiten untersuchten Modelle hierarchisch ansteigender Komplexität wurden am Lehrstuhl für Systemverfahrenstechnik der Universität Magdeburg in Kooperation mit dem Max-Planck-Institut für Dynamik komplexer Systeme, ebenfalls in Magdeburg, entwickelt. Eindimensionale Modelle beschreiben neben der Wärmeleitung in den Elektroden den Gastransport der Reaktanden im Anoden- und Kathodenkanal als eindimensionales Gegenstrom-System. Darüber hinaus enthält das Modell noch Gleichungen zur Beschreibung der auftretenden Potentialdifferenzen.
Die Wärmeleitung in den Elektroden wird durch eine semilineare parabolische partielle Differentialgleichung zweiter Ordnung beschrieben. Der Gastransport der bis zu je sieben chemischen Spezies im Anoden- und Kathodenkanal wird durch bis zu 14 semilinearen Transportgleichungen, das sind hyperbolische partielle Differentialgleichungen erster Ordnung beschrieben. Hinzu kommen noch weitere, bei festem Ort in der Zeit gewöhnliche Differentialgleichungen für die Potentialdifferenzen und partielle und gewöhnliche differential-algebraische Gleichungen, die überdies noch einen Integralterm enthalten. Alle Gleichungen sind über komplizierte nichtlineare Quelltherme gekoppelt. Mit anderen Worten: Selbst die numerische Simulation eines solch komplexen Systems ist eine Herausforderung.
Die in den beiden Diplomarbeiten behandelten partiell differental-algebraischen Gleichungssystemen basieren auf unterschiedlichen Modellen für die chemischen Reaktionsgleichungen, bei Frau Scherdel wird ein detailierteres System, bei Frau Petzet ein komprimierteres System untersucht.
Die Untersuchung der die numerischen Eigenschaften beschreibenden Indizes der differental-algebraischen Gleichungssysteme, die Hinweise auf die Wohlgestelltheit des Systems liefern, brachte folgende Ergebnisse: Der zeitliche Differentiationsindex variiert je nach Modell zwischen 1 und 2, derörtliche zwischen 0 und 1 (Petzet). Der zeitliche Differentiationsindex stimmt mit dem MOL-Index (Scherdel) über ein. Alle numerischen Resultate wurden mit dem Programmpaket EASYFIT von Klaus Schittkowski berechnet.
Aus den beiden Diplomarbeiten gingen ein Zeitschriftenartikel und zwei Beiträge in Tagungsbänden hervor: Zusammenfassungen finden Sie hier: Pub 1 (B 29), Pub 2 (C 21), Pub 3 (C 22)
Verena Petzet:
Studium: Mathematik mit Nebenfach Informatik, U Bayreuth
Abschluss: Mai 2003
Erste Anstellung: unmittelbar nach Studienabschluss
1. Position: Wissenschaftliche Mitarbeiterin
Branche: Universität (Bayreuth, Lehrstuhl für Ingenieurmathematik)
Promotion: Mai 2008: Mathematische Optimierung und Sensitivitätsanalyse des Mehrstrahlschweißverfahrens
zur Verhinderung der Heißrissbildung, Fakultät für Mathematik, Physik und Informatik, Universität Bayreuth.
Betreuer: Prof. Pesch.
2. Position: Berechnungsingenieurin
Branche: Ingenieurdienstleister
Firma: KAE - Kraftwerks- und Anlagen-Engineering GmbH, Hausen
E-Mail: Verena.Petzet"at"uni-bayreuth.de
Alte Homepage an der UBT: http://www.ingmath.uni-bayreuth.de/Petzet/html/
Sabine Rehse geb. Scherdel:
Studium: Mathematik mit Nebenfach Informatik, U Bayreuth
Abschluss: Mai 2003
Erste Anstellung: unmittelbar nach Studienabschluss
1. Position: Wissenschaftliche Mitarbeiterin
Branche: Universität (zunächst: Bayreuth, Lehrstuhl für Physikalische Chemie II, jetzt: TU Chemnitz)
in der Arbeitsgruppe Chemische Physik, Prof. Dr. Robert Magerle)
Promotion: März 2008: Registration and Quantitative Image Analysis of SPM Data, Technische Universität Chemnitz.
2. Position: Software Engineer
Branche: Software, Medizinische Bildverarbeitung
Firma: TomTec Imaging Systems
Tätigkeit: Erstellung und Anpassung von Applikationen zur Visualisierung und Analyse medizinischer Bilddaten
E-Mail: sabine.scherdel"at"physik.tu-chemnitz.de
In dieser Diplomarbeit wurde ein graphentheoretisches Optimierungsproblem mithilfe von evolutionären Algorithmen näherungsweise gelöst. Es handelt sich dabei um das (baumförmige) Optimal-Communication-Spanning-Tree-Problem (OCSTP). Darunter versteht man die Bestimmung eines Teilnetzwerkes, d.h. eines so genannten aufspannenden Baumes, eines evtl. sehr großen Kommunikationsnetzwerkes, das unter minimalen Kosten die Kommunikation zwischen allen Knoten des Netzwerkes ermöglicht und auch die Kommunikationsbedarfe erfüllen kann. Das OCSTP ist mathematisch charakterisiert durch einen vollständigen gewichteten Graphen, d.h. einem ungerichteten Graphen ohne Schleifen mit einer endlichen Knoten- und Kantenmenge, der alle möglichen Kanten in sich birgt. Die Kanten sind dabei mit nichtnegativen Kostengewichten und nichtnegativen Kommunikationsbedarfen versehen. Unter einem aufspannenden Baum versteht man dabei einen Teilgraphen, bei dem zwischen je zwei beliebigen Knoten des Graphen genau ein Pfad aus einer Sequenz von Kanten existiert, der diese Knoten verbindet. Es gilt nun, einen aufspannenden Baum zu finden, längs dem die Kommunikationskosten, basierend auf den Knotengewichten und den Bedarfen, minimal sind. Die Summe der Bedarfe sind immer beschränkt.
Dieses Problem ist NP-schwer, d.h. es existiert kein deterministischer Algorithmus, der dieses Problem mit "vertretbarem" (polynomialen) Aufwand löst - sofern nicht "NP=P" sein sollte, eine bisher weder bewiesene, noch widerlegte Vermutung.
Daher bieten sich zur Lösung solcher Probleme evolutionäre Algorithmen an, die zumindest eine Chance bieten, experimentell "bessere" Lösungen in akzeptabler Zeit zu finden, auch wenn sie weder eine Garantie auf Optimalität, noch gesicherte Schranken liefern können. Evolutionäre Algorithmen sind Suchverfahren, bei denen für eine Vielzahl (zulässiger) Kandidaten die Zielfunktionale ausgewertet werden. Die Kandidaten einer zu bestimmenden Startpopulation werden durch gewisse an die Evolution angelehnte Operatoren, wie Rekombination und Mutation, immer und immer wieder verändert und bewertet.
Will man diese Methoden auf das OCSTP anwenden, braucht man eine Kodierung des OCSTP, auf die man dann die oben genannten Operatoren anwenden kann. Aus der Literatur kennt man eine Vielzahl von (mehr oder weniger) geeigneten Kodierungen. In dieser Arbeit wurde eine neue Kodierung, die so genannte Edge-Sets-Kodierung auf ihre Eignung zur Lösung des OCSTP getestet werden. Die Ergebnisse der Arbeit von Herrn Tzschoppe zeigen, dass diese insbesondere dann gut funktioniert, wenn die optimale Lösung ähnlich dem minimal aufspannenden Baum ist, bei dem nur die Kantengewichte, nicht jedoch die Bedarfe im Gütekriterium berücksichtigt werden.
Aus dieser Diplomarbeit ging eine Publikation in einem Tagungsband hervor. Zum Inhalt siehe hier: Pub (C 26).
Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 12/2003
Erste Anstellung: 4/2004
Position: Software-Entwickler
Branche: Parallele Rechentechnologie, Data Warehouses
Firma: Exasol GmbH
E-Mail: carsten.tzschoppe"at"gmx.de
Angeregt durch die Entwicklung einer Steuerung für ein neuartiges Bediensystem für Hochregallager im Rahmen einer Industriekooperation, bei dem die einzulagernden Lasten hängend an Laufkatzen transportiert werden, die sich auf Schienen zwischen den parallel geführten Regalen bewegen, kam die Frage auf, Methoden der Optimalen Steuerung auch bei neuen innovativen Krankonzepten anzuwenden. Die Bezüge sind offensichtlich. Auch bei Kränen werden Lasten hängend transportiert und sollen möglichst schwingungsfrei, schnell und punktgenau transportiert werden. Gegenstand der Diplomarbeit war die Entwicklung von Modellen für zwei- und dreidimensionale Kranbewegungen. Es wurden nur solche Kräne untersucht, bei denen die Lasten mittels Laufkatzen transportiert werden, die sich also entweder ein- oder zwei-dimensional auf Schienen bewegen, die z.B. unter der Decke einer Fabrikhalle befestigt sind. Solche Kransysteme können nicht nur Lasten bewegen, sondern z.B. auch Schweißarbeiten ausführen. Rotierende Baustellenkräne werden also nicht betrachtet.
In der Diplomarbeit werden Modelle für zwei- und dreidimensionale Kranbewegungen unter verschiedenen Annahmen hergeleitet, ihre optimalen Punkt-zu-Punkt-Bahnen numerisch berechnet und die zum Teil überraschenden Unterschiede in den numerischen Ergebnissen kritisch analysiert und diskutiert.
Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: Mai 2003
Erste Anstellung: Mai 2004
Position: Mathematikerin
Branche: Betriebliche Altersversorgung
1. Firma: ÖBAV Servicegesellschaft mbH, Düsseldorf
2. Firma: Aon Jauch & Höbener, Mülheim a. d. Ruhr
E-Mail: anja.zenglein"at"web.de
Ausgangspunkt der Arbeit war das populärwissenschaftliche Buch mit dem Titel ''Schlüsseltechnologie Mathematik"
von H. J. Pesch, mit dem Lehrer und insbesondere Schüler gymnasialer Oberstufen und Studenten der ersten Semester
an Universitäten und Fachhochschulen auf leicht verständliche Weise in ein klassisches und in ein modernes Gebiet
der Mathematik eingeführt werden sollen, nämlich in die Variationsrechnung und in die aus ihr erwachsene Theorie der Optimalen
Steuerungen. Insbesondere sollte das Buch die oft gestellte Frage - "Warum Mathematik?" --beantworten, die aber wohl
oft nicht oder nicht hinreichend überzeugend beantwortet wird. Dass mittlerweile die Mathematik aufgrund ihrer Erfolge und auch ihrer
Unverzichtbarkeit bei der Lösung komplexer Aufgaben aus nahezu allen Wissenschaftsbereichen zur Schlüsseltechnologie avancierte,
ist in der Gesellschaft kaum wahrgenommen worden. Zusammen mit der allgemeinen Tendenz junger Menschen, den schwierigen
Fächern wie Mathematik, Physik und Ingenieurwissenschaften lieber auszuweichen, ist dies fatal für die Entwicklung
einer leistungsf$auml;higen modernen Gesellschaft.
Zwischen der mit dem Buch beabsichtigten Intention, einen Teilaspekt modernerer Mathematik in den Schulunterricht einzubringen, um damit die Frage nach dem Warum der Mathematik obsolet werden zu lassen, und der Realität des schulischen Unterrichts besteht aber noch eine große Lücke. Die von den Autoren angefertigte Zulassungarbeit für das höhere Lehramt an Gynmasien schließt nun diese Lücke und liefert einen Leitfaden für Lehrer und Schüler, anhand dessen, z.B. in einem Zusatzkurs, Schüler in das klassische Gebiet der mit dem Jahre 1696 aus der Taufe gehobenen Variationsrechnung eingeführt werden können, aus der dann in den 1950er Jahren das moderne Gebiet der Optimalen Steuerungen erwuchs. Mit den mathematischen Methoden dieses Gebietes lassen sich u.a. optimale Flugbahnen von Raumfahrzeugen berechnen, Roboterplanungen durchführen, verfahrenstechnische Prozesse optimal steuern oder mathematische Modelle aus der Ökonomie optimieren.
Das Ziel war es, ein Buch zu schreiben, dass sowohl für Lehrer als auch Schüler im Unterricht genutzt werden kann, beide Gebiete umfasst und durch zahlreiche Aufgaben bis hin zu kleineren Projektarbeiten Interesse an moderner(er) anwendungsbezogener Mathematik weckt. Dieses für eine einzige Zulassungarbeit zu umfangreiche Projekt wurde im Rahmen von zwei koordinierten Zulassungsarbeiten bearbeitet.
Die von Frau Krippner vorgelegte Zulassungsarbeit enthält neben Teilen, die von ihr gemeinsam mit Herrn Stephan Bickel verfasst wurden, sowohl Teile, für die sie alleine verantwortlich zeichnet, als auch Teile, für die Herr Bickel verantwortlich zeichnet.
Die von Herrn Bickel vorgelegte Zulassungsarbeit enthält folglich komplementär neben Teilen, die von ihm gemeinsam mit Frau Diana Krippner verfasst wurden, sowohl Teile, für die er alleine verantwortlich zeichnet, als auch Teile, für die Frau Krippner verantwortlich zeichnet. Zum Schluss haben dann die beiden Autoren gemeinsam die Nahtstellen geglättet, um ein einheitliches Werk vorlegen zu können.
In den Kapiteln 1 und 2 werden jeweils die ersten notwendigen Bedingungen für Optimierungsprobleme vom Variationsrechnungs- und Optimalsteuerungstyp hergeleitet. Diese Bedingungen bilden die wesentliche Grundlage zur Berechnung optimaler Lösungen, genauer gesagt von Kandidaten für optimale Lösungen. Die in der Schule zu deren Verständnis zu erarbeitenden Grundlagen werden in dem längeren Kapitel 3 dargelegt. In Kapitel 4 wird dann die gesamte komplexe Materie auf Schulniveau projiziert und ausführlich dargestellt, mit Hilfe welcher didaktischen Methoden dieser Stoff Schülern nahegebracht werden könnte. Das Kapitel 5 mit dem Titel "Der Natur auf der Spur" zeigt dann anhand zweier klassicher Probleme aus den Grundlagen der Physik exemplarisch Anwendungsmöglichkeiten auf, die für Schüler gymnasialer Oberstufen sicherlich erreichbar sein sollten.
Es ist geplant, diese Zulassungsarbeit als Buch herauszugeben.
Studium: Lehramt Mathematik und Physik für Gymnasien, U Bayreuth
Abschluss:
Erste Anstellung:
Position:
Branche: Schuldienst
E-Mail: diana.krippner"at"web.de
E-Mail: stephan.Bickel"at"web.de
Homepage:
Angeregt von zahlreichen Arbeiten über die optimale Steuerung von Automobilen, wird in dieser Arbeit ein mathematisches
Ersatzmodell eines Motorrades erarbeitet. Dazu wird zunächst die allgemeine Vorgehensweise zur Erstellung von dynamischen
Mehrkörpersystemen beschrieben und ein mathematisches Modell eines Motorrades erstellt.
Die notwendigen Daten, wie z.B. Abmessungen, Gewicht, Trägheitstensoren, sowie Feder- und Dämpferkennlinien wurden von der BMW AG zur Verfügung gestellt. Unbekannte Parameter des Modells werden mittels eines Least-Squares-Ansatzes identifiziert.
Ein Hauptproblem bei der optimalen Steuerung eines Motorrades ist das instabile Verhalten des Fahrzeugs bei niedrigen Geschwindigkeiten: Ein Motorrad fällt um, wenn die Geschwindigkeit zu gering ist. Die Aufnahme von Kreiselkräften der Reifen in das Modell sorgt dagegen für ein "stabileres" Fahrverhalten bei höheren Geschwindigkeiten. Es ist also erforderlich ein realitätsnahes Modell zu erstellen, welches alle relevanten Kräfte berücksichtigt.
Wie sich herausstellt, sind die resultierenden Bewegungsgleichungen des Motorradmodells extrem steif. Daher müssen eine Reihe zusätzlicher numerischer Probleme bewätigt werden.
Das Motorrad wird abschließend unter verschiedenen Zielkriterien optimal gesteuert, wobei als Fahrmanöver ein doppelter Fahrspurwechsel - der sog. "Elchtest" - zu Grunde gelegt wird. Das optimale Steuerproblem wird mit dem Programm NUDOCCCS von Chr. Büskens gelöst. Die erzielten Ergebnisse spiegeln in vielfälltiger Weise Eigenschaften einer realistischen Motorradfahrt wieder.
Die optimalen Fahrmanöver wurden in Ergänzung zu den numerischen Rechnungen mit dem Grafikprogramm POVRAY animiert.
Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 3/2004
Erste Anstellung: sofort nach Studienabschluss
1. Position: Wissenschaftlicher Mitarbeiter
Branche: Universität (U Bremen, Zentrum für Technomathematik)
2. Position: Systemanalytiker
Branche: Software-Dienstleistung
Firma: Kraftwerks-Simulator-Zentrum, Essen
E-Mail: peter.lasch``at''gmx.de
Sonstiges: Herr Lasch in einer Email vom 7.5.2009: ``Seit ich die Uni Bremen verlassen habe,
arbeite ich als Systemanalytiker beim Kraftwerks-Simulator-Zentrum in Essen. Das Zentrum übernimmt
die Ausbildung der Sichtmannschaften von 16 der 17 deutschen Kernkraftwerke sowie dem Kraftwerk Borselle
in den Niederlanden. Ich bin in der Softwareabteilung tätig und kümmere mich darum,
die Simulatoren auf dem Stand der Kraftwerke zu halten.''
Durch die anhaltende Diskussion um den Kohlendioxidausstoß bei der Energie aus Kraftwerken kommen Brennstoffzellen vermehrt
in das Blickfeld der Stromerzeuger. Lange Zeit wurde der Bau von Brennstoffzellen aber rein empirisch betrieben. In Zusammenarbeit
mit der MTU CFC Solutions GmbH, dem Max-Planck-Institut für Dynamik komplexer Systeme in Magdeburg und dem Lehrstuhl für
Systemverfahrenstechnik der Universität Magdeburg gelang die Simulation von Schmelzkarbonatbrennstoffzellen am Beispiel des
HotModule der MTU.
Ziel des Projektes ist es, Strategien zu entwickeln, um bei verschiedene kritischen Betriebssituationen einer Bennstoffzellenanlage, wie Anfahren und Herunterfahren der Anlage und Lastwechsel bei sich plötzlich änderndem Bedarf, bei zu hohen Temperaturen, insbesondere zu hohen Temperaturgradienten, und damit bei der Gefahr von Beschädigungen durch Materialüberhitzung und -ermüdung zu vermeiden. Bei geringerer Temperatur ist allerdings die Stromausbeute ungenügend. Endziel des Projektes ist es, dieser Art von umweltfreundlicher Energieproduktion mit zum kommerziellen Durchbruch zu verhelfen.
Die Modelle zur Simulation, welche auf ein System von partiell differential-algebraischen Gleichungen führen, wurden dabei in den beiden Magdeburger Instituten erstellt. Es handelt sich hierbei um eindimensionale Modelle, in denen ein Gasfluss im Gegenstrom angenommen wird. Das Gleichungssystem enthält unter anderem die Wärmeleitung im Elektrolyten und den Elektroden, den Gastransport in den einzelnen Elementen der Brennstoffzelle sowie die elektrischen Potenziale und chemischen Reaktionskinetiken.
Die Hauptaufgabe in dieser Diplomarbeit bestand darin, die Modelle für das Programmpaket EASYFIT von Klaus Schittkowski zu implementieren und Simulationsrechnungen sowie Parameteridentifikationen an verschieden komplexen Modellen durchzuführen. Besonders die Simulation von Lastwechseln und die Optimierung der einzelnen Parameter in diesem speziellen Betriebszustand ist von großem Interesse. Vor allem bei den komplexeren Modellen treten hier bereits bei der Simulation numerische Schwierigkeiten auf, weil es sich bei dem partiell differential-algebraischen Gleichungssystem der Brennstoffzelle um ein System mit groß;er Steifheit handelt. Deshalb war es für diese Modelle nicht möglich Optimierungsrechnungen durchzuführen. Eine weitere Schwierigkeit tritt dadurch auf, dass es sich bei den Transportgleichungen um hyperbolische partielle Differentialgleichungen handelt, welche sehr sensibel auf Änderungen der Eingangswerte reagieren. Aber gerade hier liegt in Zukunft das Interesse der Optimierung, um optimale Eingangswerte der Brenngase für die Brennstoffzelle zu bestimmen.
Studium: Umweltingenieurwissenschaften, U Bayreuth
Abschluss: 5/2004
Erste Anstellung: 6/2004
Position: Wissenschaftlicher Mitarbeiter
Branche: Öffentlicher Dienst
Firma: Universität Bayreuth, Lehrstuhl für Mess- und Regeltechnik
Zweite Anstellung: ?/200?
Position: Objektleiter
Branche: Erneuerbare Energien,
Firma: Schmack Biogas AG
Tätigkeit: Die Schamck Biogas AG plant und baut in erster Linie Biogas-Anlagen.
Aber auf Kundenwunsch betreibt sie diese Anlagen auch selbst und betreut sie
sowohl hinsichtlich der biologischen Verfahrenstechnik als auch hinsichtlich
aller technischen Komponenten, angefangen von Rührwerken bis hin zum eingebauten BHKW.
Die Aufgabe von Herrn Raps besteht nun hauptsächlich darin, diese Betreuung sicher zu stellen
und anzubieten. Weiterhin ist es auch seine Aufgabe, dafür zu sorgen, dass Probleme an den Anlagen
als Verbesserungen in aktuelle Planungen einfließen und somit die Qualität ständig gesteigert werden kann.
E-Mail: Timo.Raps"at"schmack-biogas.com
Sonstiges:Herr Raps in einer Email vom 23.12.2005: "Hinsichlich meiner "fachfremden" Diplomarbeit kann
ich eigentlich nur anmerken, dass die Schmack Biogas AG ebenfalls ein Projekt mit der MTU Friedrichshafen laufen
hatte, in dem der Einsatz des HotModules als BHKW in Biogas-Anlagen getestet wurde. Insofern war das Thema absolut
passend und dass es eher mathematisch als experimentell betrachtet wurde, war sicher auch nicht von
Nachteil, da die dadurch gewonnenen Einsichten in die Grundlagen der Optimierung sicher für jeden Ingenieur
ganz nützlich sind.
Die Bedeutung naturanaloger Optimierungsverfahren hat in den letzten Jahren stark zugenommen, da traditionelle Optimierungsverfahren für die Bewältigung komplexer Optimierungsprobleme oft nicht zur Verfügung stehen und für praktische Anwendungen oft zu aufwendig sind. Naturanaloge Optimierungverfahren wie die Genetische Algorithmen, die sich am natürlichen Evolutionsprozess orientieren, stellen im Gegensatz zu klassischen Verfahren keine besonderen Bedingungen an die Problemstellung (Zielfunktion, Struktur der Nebenbedingungen). Gerade bei der Anwendung auf praktische Scheduling-Probleme ist dieser Aspekt von entscheidender Bedeutung. Mit solchen Verfahren können in akzeptabler Zeit dem Optimum nähere Lösungen gefunden werden als mit traditionellen oder zufälligen Suchverfahren, auch wenn sich gesicherte Schranken im Allgemeinen nicht angeben lassen. Für die Lösung eines solchen Optimierungsproblems ist es wichtig, dieses in geeigneter Weise zu repräsentieren bzw. zu kodieren, so dass es von einem Algorithmus erfasst werden kann.
Gegenstand der vorliegenden Arbeit ist der Vergleich unterschiedlicher Repräsentationsformen, die sich für die Optimierung der Ablaufplanung im Krankenhaus mit Genetischen Algorithmen eignen. Um dieses Ziel zu erreichen, wird auf Grundlage von klassischen Scheduling-Problemen ein Modell für eine Ablaufplanung im Krankenhaus entwickelt. Anschließend werden in der Literatur vorhandene Repräsentationsformen für klassische Maschinenbelegungsplanungen vorgestellt. Zwei sehr unterschiedliche Rerpäsentationen (completion time-based und operation-based representation) werden in der vorliegenden Arbeit an die Anforderungen einer Ablaufplanung im Krankenhaus angepasst und implementiert. Anschließend werden sie hinsichtlich Performance (Lösungsqualität und Laufzeit) verglichen und Abweichungen in den Ergebnissen werden erläutert.
Die in der Literatur weit verbreitete These, dass der Wahl der Repräsentationsform bei der Optimierung von Ablaufplanungen mit naturanalogen Verfahren eine entscheidene Bedeutung zukommt, wurde bestätigt. Verschiedene Repräsentationen sind in Abhängigkeit von der Problemstellung unterschiedlich gut für Scheduling-Verfahren geeignet. Die beiden untersuchten Repräsentationsformen liefern sehr unterschiedliche Ergebnisse. Bei der Untersuchung dieser Abweichungen wird festgestellt, dass die implementierten Repräsentationen beide redundant sind, d.h. unterschiedliche Chromosomen bzw. Kodierungen erzeugen gleiche Ablaufpläne. In Abhängigkeit der Problemstellung wirkt sich diese Redundanz jedoch unterschiedlich gut auf die Lösungsqualität eines resultierenden Ablaufplans aus.
Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 11/2004
Erste Anstellung: sofort nach Studienabschluss
Position:
Branche: Betriebliche Altersvorsorge
Firma: Mercer Human Resource Consulting
E-Mail: draffel"at"draffel.de
Sonstiges: Herr Viebrock hat eine Ausbildung zum Aktuar begonnen;
siehe die Seite der Deutschen Aktuarvereinigung e.V.
oder die Seite Wie werde ich Aktuar?
Strukturbildungseffekte und Selbstorganisation, insbesondere in der Biologie und Medizin, faszinieren Naturwissenschaftler, zumal geordnete Zellstrukturen streng genommen im Widerspruch zum fundamentalen physikalischen Naturgesetz der Thermodynamk stehen - dem Streben eines Systems nach maximaler Unordnung. Die Alzheimersche Demenz gehört zu den strukturbildenden Mechanismen und wird durch Zellaggregation im menschlichen Hirngewebe hervorgerufen. Alzheimersche Demenz führt vom gesunden Chaoszustand der Zellen zu neuronaler Degeneration und zu symptomatischen Erscheinungen, wie Beeinträchtigung von Gedächtnis, Sprache, Orientierung und Urteilsvermögen.
Aus medizinischen Befunden am Hirngewebe verstorbener Alzheimer-Patienten weiß man, dass es einen direkten Zusammenhang zwischen Ablagerungssekret (Plaque) und den Alzheimer-Symptomen gibt. Obwohl die chemischen Plaque-Bausteine identifiziert werden konnten, scheiterten jegliche Versuche, diese mittels Marker in vivo zu diagnostizieren. In vitro, also im Reagenzglas, konnte man aufgrund biochemischer Reaktionen die einzelnen Plaque-Bausteine untereinander identifizieren. Kombiniert man diese Teilreaktionen erhält man einen theoretischen Gesamtprozess für ein erstes Verständnis der Entstehung der Alzheimerschen Krankheit. Leider lässt sich diese Theorie experimentell nur teilweise auf neuronalem Gewebe nachweisen.
Die Mathematik liefert aber zumindest ein Rüstzeug für die mathematische Modellierung und numerische Simulation des zur Alzheimersche Demenz führenden biochemischen Prozesses. Alzheimer-typische Prozesse, wie Diffusion und Chemotaxis, sind als gekoppelte Systeme nichtlinearer partieller Differentialgleichungen modellierbar.
Von der mathematischen Modellierung erhofft man sich, nach Validierung an realen Patientendaten, sichere Langzeitprognosen abgeben zu können, das genauere Zusammenwirken einzelner Teilreaktionen genauer untersuchen und über Parametereinstellungen den die Alzheimersche Krankheit verursachenden Mechanismus hemmen oder blockieren zu können, um dadurch neue Therapieansätze gewinnen zu können. Doch muss man sicherlich noch einen langen Weg gehen, bis dieser Forschungsansatz klinisch umsetzbar wird.
Zum mathematischen Hintergrund des Modells: Die biochemische Beschreibung des eigentlichen Alzheimerschen Reaktionszyklus wird in drei Reaktionsmuster aufgeteilt, in eine Sekretions-Absorptions-Reaktionskette, in eine chemische Transformationsreaktion eines an der Alzheimerschen Demenz beteiligten Monomers von seinem löslichen zu einem festen Zustand durch Anlagerung weiterer Monomere, wodurch die dann entstehende Fibrille ihre Beweglichkeit verliert und sich dauerhaft anlagert. Fibrillenvorkommen markieren die Alzheimer-typischen Ablagerungen im Hirngewebe. Das dritte Reaktionsmuster beruht auf physikalischen Bewegungseffekten. Die auftrenden Diffusionsvorgänge werden durch orts- und zeitabhängige Diffusionskoeffizienten beschrieben. Insgesamt entsteht ein abschnittsweise definiertes gekoppeltes System aus nichtlinearen partiellen und gewöhnlichen Differentialgleichungen.
Letztendlich dient das Modell der Untersuchung der Neuronengesundheit in einem quadratischen Ausschnitt des Hirngewebes.
Der numerische Lösungsansatz basiert auf einem direkten und indirekten Multirate-Ansatz zur Reduktion der Lösungskomplexität, womit die Differentialgleichungen näherungsweise linear entkoppelt werden. Mithilfe der vertikalen Linienmethode auf Basis von Semidiskretisierungen der Ortsableitungen mittels finiter Differenzen wird eine Methode vorgeschlagen, um die schnellen Diffusions- und langsamen Transportvorgänge zu simulieren. Verschiedene Möglichkeiten zur Diskretisierung der Ortsableitungen werden ausführlich hinsichtlich Konsistenz, Stabilität und Konvergenz untersucht.
Erste numerische Testrechnungen beschließen die Arbeit; sie befinden sich auf der beiliegenden CD.
Studium: Mathematik, U Bayreuth
Abschluss: Oktober 2005
Erste Anstellung: vor Studienende
Position:
Firma: Audi
Branche: Automobilbau
E-Mail: michaela.alka"at"gmx.de
In dieser Diplomarbeit sollte untersucht werden, ob die nichtlineare, degeneriert parabolische Richardsgleichung, die u.a.
eine entscheidende Rolle bei der Modellierung von Be- und Entwässerungsmodellen im Boden spielt, mithilfe der
vertikalen Linienmethode so semidiskretisiert werden kann, dass Standardverfahren zur Parameteridentifikation
bei Systemen von (steifen) gewöhnlichen Differentialgleichungen oder differential-algebraischen Gleichungen angewendet
werden können. Dieser Zugang würde dann auch die optimale Steuerung - wegen der zu erwartenden Rechenzeiten - zumindest
derörtlich eindimensionalen Richards-Gleichung inklusive einer parametrischen Sensitivitätsanalyse ermöglichen.
Nach einer kurzen Einleitung in den Anwendungshintergrund und die Zielsetzung der Arbeit, der Modellierung von Stoff- bzw. Wasserflüssen in ungesättigten und porösen Materialien werden die in der Arbeit benötigt Grundlagen aus der Theorie und Numerik gewöhnlicher und partieller Differentialgleichungen, insbesondere diverse Stabilitätsbegriffe und Diskretisierungsansätze, zusammengestellt. Zu beachten ist, dass man die erste Ortsableitung durch einen Rückwärtsdifferenzenquotienten diskretisieren muss. Nur bei "richtiger" Diskretisierung entstehen keine numerisch erzeugten Massenverluste. Daran schließt sich eine Beschreibung von Parameteridentifikationsprobleme bei gewöhnlichen Differentialgleichungen bzw. differential-algebraischen Gleichungen an, insbesondere wird das direkte Optimierungsverfahren beschrieben, das dem Softwarepaket NUDOCCCS von Büskens zugrundeliegt.
Schließlich wird das Anwenderproblem behandelt. Zuächst wird die grundlegende Richardsgleichung (1931) aus der Bodenphysik hergeleitet. Dies geschieht zum einen auf Basis des Darcyschen Gesetzes (1856). Dieses beschreibt die auf empirischen Messungen des Fließverhaltens von Wasser durch mit gesättigten Sandböden gefüllte Säulen beruhende Proportionalität der Geschwindigkeit, mit der die Flüssigkeit durch die Säule strömt, auch Flussdichte genannt, zum negativen Gradienten der sogenannten Druckhöhe bzw. dem Quotienten aus Differenz der Druckhöhe und Abstand zu einer Referenzhöhe. Die Proportionalitätskonstante heißt hydraulische Leitf$auml;higkeit. Eine detailliertere Darstellung liefert die Darcy-Buckingham-Gleichung. Sie beschreibt die Proportionalität der Flussdichte zum negativen Gradienten des hydraulischen Potentials, jetzt allerdings mit einem vom volumetrischen Wassergehalt abhängigen Proportionalitätsfaktor. Nimmt man nun noch das Kontinuitäts- bzw. Massenerhaltungsgesetz hinzu, das die zeitliche Ableitung des volumetrischen Wassergehaltes gleich der negativen örtlichen Ableitung der Flussdichte setzt, kommt man zur Richardsgleichung, einer parabolischen partiellen Differentialgleichung für eine unbekannte Funktion einer Zeit- und - hier - einer Ortsvariablen; sie heißt Matrixpotential. In dieser Arbeit sollte nur dieörtlich eindimensionale Richardsgleichung untersucht werden. Diese Gleichung ist hochgradig nichtlinear und degeneriert bei konstantem volumetrischen Wassergehalt, d.h. der Term in der parabolischen Gleichung mit der Zeitableitung verschwindet. Sie degeneriert somit zu einer (imörtlich eindimensionalen Fall) gewöhnlichen Differentialgleichung zweiter Ordnung. Anfangs- und Randbedingungen werden nun für ein Saug- bzw. Entwässerungsexperiment modelliert. Ausgehend von einer bis zum oberen Rand gesättigten Bodensäule, die durch Ummantelung und Deckel festverschlossen ist, wird an deren unterem Ende mittels eines Schiebers ein Druckabfall erzeugt. Zwei Szenarien werden untersucht.
Für explizite Rechnungen müssen nun noch empirische Gesetzmäßigkeiten für den von dem Matrixpotential abhängigen volumetrischen Wassergehalt (das van Genuchten-Mualem-Modell) sowie für die ebenfalls vom Matrixpotential abhängige hydraulische Leitf$auml;higkeit angegeben werden. Die beiden zu untersuchenden Szenarien deuten schon auf die zu erwartende Problematik hin. Die Randwerte weisen größere Bereiche aus, in denen die Gleichung "nahezu" degeneriert, so dass numerische Schwierigkeiten zu erwarten sind.
Herr Blume weist dann explizit die extreme, mit der Feinheit des Ortsdiskretisierungsgitters zunehmende Steifheit nach. Erste numerische Rechnungen mit einem auf einem impliziten Runge-Kutta-Verfahren basierenden MATLAB-Integrator und dem in NUDOCCCS verwendeten Radau-Verfahren ergeben bei beiden Datensätzen übereinstimmende numerische Ergebnisse. Da der bekannte Stabilitätssätz für lineare gewöhnliche Differentialgleichungen mit konstanten Koeffizienten mithilfe der Eigenwerte der konstanten Systemmatrix nicht für nicht-autonome lineare Differentialgleichungen gilt, kann die Stabilität der semidiskretisierten Richardsgleichung nur heuristisch überprüft werden, indem die Auswirkungen leichter Störungen der Parameterwerte auf die Lösung numerisch untersucht werden. Um auszuschließen, dass numerisch bedingte Massenverluste auftreten, wird die Massenbilanz numerisch mithilfe der Erhaltungsform der Gleichungen untersucht. Es zeigt sich, dass keine jenseits der Integrationsgenauigkeit liegenden Massenbilanzfehler auftreten. Zu Demonstrationszwecken werden auch die Massenbilanzfehler für nichtgeeignete Diskretisierungen berechnet. In diesen Fällen sind die numerischen Lösungen absolut unbrauchbar. Umfangreiche numerische Untersuchungen zeigen schließlich, dass sich die Parameter in dem van Genuchten-Mualem-Modell mithilfe der von Herrn Blume entwickelten Software um das Softwarepaket NUDOCCCS herum, basierend auf einem Einfachschießansatz, zufriedenstellend identifizieren lassen. Die Identifikationsgüte nimmt naturgemäß mit zunehmender Parameterzahl ab.
Diese Diplomarbeit entstand nach diversen Gesprächen über mögliche Kooperationen mit der Professur für Bodenphysik (Prof.Dr. Bernd Huwe). Es ist beabsichtigt, dieses Themengebiet in weiteren Diplomarbeiten zu vertiefen.
Studium: Mathematik, U Bayreuth
Abschluss: September, 2005
Erste Anstellung: sofort nach Studienabschluss
Position: wissenschaftlicher Mitarbeiter
Firma: Friedrich-Alexander Universität Erlangen-Nürnberg, Lehrstuhl für Angewandte Mathematik 1
Branche: Öffentlicher Dienst
E-Mail: michael_blume"at"gmx.net
Homepage: http://www1.am.uni-erlangen.de/ blume/index.html
Promotion: Michael Blume hat im Jahre 2011 bei Prof. Knabner an der Universität Erlangen-Nürnberg mit einer
Dissertation zum Thema Identifizierung nichtlinearer Koeffizientenfunktionen des reaktiven Transports durch poröse Medien
unter Verwendung rekursiver und formfreier Ansätze promoviert.
Die Diplomarbeit von Frau Kerstin Brandes beschäftigt sich mit der Frage der Robustheit optimaler Lösungen von Optimierungsaufgaben in unendlich-dimensionalen Räumen und insbesondere von Optimalsteuerungsaufgaben mit partiellen Differentialgleichungen. Dazu wird mit der Aktive-Mengen-Strategie zunächst eine Methode rekapituliert, wie solche Lösungen in der Gegenwart von Ungleichungsbeschränkungen berechnet werden können.
Im weiteren Verlauf der Arbeit wird ein konkretes Optimalsteuerungsproblem ohne Ungleichungsbeschränkungen für die Poissongleichung mit nichtlinearen Stefan-Boltzmann-Strahlungsrandbedingungen behandelt. Die für die numerische Lösung notwendige Diskretisierung mit finiten Elementen sowie die aufwendige Berechnung der exakten Ableitungen werden ausfürlich dargestellt.
Die Grundlagen der parametrischen Sensitivitätsanalyse für optimale Lösungen werden dargestellt, und die Diskretisierung der Sensitivitätsgleichung wird besprochen.
Diese umfangreichen Vorbereitungen sind notwendig, um zu der eigentlichen Frage der Robustheit optimaler Lösungen zu kommen. Dazu wird die durch die Sensitivitätsgleichung definierte lineare Abbildung der Störungsrichtung auf die Ableitung etwa der optimalen Kontrolle nach dem Störparameter einer Singulärwertzerlegung zugeführt.
Zur praktischen Berechnung dieser Singulärwertzerlegung haben Frau Brandes und ihr Betreuer, Dr. Griesse, einen herausragenden Vorschlag gemacht. Aufgrund der Finite-Element-Diskretisierung enthält die zu untersuchende Matrix die Cholesky-Faktoren der Massematrizen, die i.A. nicht zur Verfügung stehen. Deshalb wird zur äquivalenten Eigenwertzerlegung der zugehörigen Jordan-Wielandt-Matrix übergegangen und zur Vermeidung der Choleskyfaktoren eine geeignete Änlichkeitstransformation durchgeführt. Nach dieser Transformation kann eine (partielle) Eigenwertzerlegung durchgeführt werden, die iterativ erfolgen muss, da die betreffende Matrix in der Praxis aufgrund des Aufwandes nicht aufgestellt werden kann.
Die so erhaltene (partielle) Singulärwertzerlegung erlaubt eine Beurteilung der Stabilität der optimalen Lösung (Größe der führenden Singulärwerte) und gibt Aufschluss darüber, in welche Störungsrichtungen die größen Störungen auftreten (Rechtssingulärvektoren).
Anhand des oben erwähnten Beispiels zeigt Frau Brandes die praktische Anwendung ihrer Ergebnisse. Dazu hat sie den gesamten Algorithmus in Matlab implementiert, damit verschiedene Konfigurationen durchgerechnet und die Lösungen ansprechend dargestellt und diskutiert.
Studium: Mathematik mit Nebenfach Ingenieurwissenschaften, U Bayreuth
Abschluss: Oktober, 2005
Erste Anstellung: Januar, 2006
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität, Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
Zweite Anstellung: Januar, 2007
Position: Doktorandin in der Konzernforschung der Volkswagen AG
Firma: Volkswagen AG
Branche: Automobilbau
E-Mail: kerstin-brandes"at"web.de
Alte Homepage an der UBT: http://www.ingmath.uni-bayreuth.de/Brandes/
Sonstiges: Frau Brandes hatte für ein Jahr (1.1.2006 - 31.12.2006) ein Stipendium im Internationalen Doktorandenkolleg
"Identifikation, Optimierung und Steuerung für technische Anwendungen" im Rahmen des Elitenetzwerks Bayern.
Sie wechselte dann in ein Doktorandenkolleg des Volkswagen-Konzerns in Wolfsburg, um sich dort einem ingenieurwissenschaftlichen Dissertationsthema
zuzuwenden, der Modellierung, Simulation und Optimierung von Abgasnachbehandlungssystemen. Auch hier stehen zunächst mathematische Problemstellungen
im Vordergrund: Parameteroptimierung, Inverse Probleme, Adjungiertenverfahren und Automatisches Differenzieren, aber stets mit starkem Praxisbezug
auf dem Gebiet der Abgasnachbehandlung.
Über Frau Brandes wurde auch in der Zeitschrift
abi extra Typisch Frau, typisch Mann, Ausgabe 2011 berichtet.
Die Optimierung komplexer dynamischer Systeme, die durch zeitabhängige partielle Differentialgleichungen beschrieben werden können, gehört mit zu den spannensten, herausfordernsten und hochaktuellen Gebieten der Angewandten Mathematik. Das Anwendungspotential dieses Gebietes scheint nahezu unbeschränkt. Dabei zählen die hyperbolischen partiellen Differentialgleichungen wegen ihrer Eigenschaft, Unstetigkeiten in den Anfangs- oder Randbedingungen in das Gebietsinnere zu tragen oder solche "Shocks" selbst bei glatten Anfangs-Randbedingungen aus sich heraus zu entwickeln, mit zu den "unangenehmsten" Nebenbedingungen in solchen Optimierungsproblemen. Die mathematische Theorie hierfür steht noch ziemlich am Anfang. Aber auch die Numerik ist voller Tücken. Ein typischer Repräsentant für eine eindimensionale hyperbolische partielle Differentialgleichung 2. Ordnung ist die wohluntersuchte klassische Wellengleichung, deren analytische Lösungsformel auf d'Alembert und mithin das Jahr 1750 zurückgeht. Ein weiterer prominenter Prototyp eines hyperbolischen Systems sind die ebenfalls gut untersuchten Eulerschen Gleichungen der Fluiddynamik zur Beschreibung nichtviskoser Fluide, das sind Flüssigkeiten oder Gase. Ziel der Diplomarbeit war zu untersuchen, inwieweit der Einsatz geeigneter finiter Differenzenmethoden zur Semidiskretisierung der partiellen Gleichungen im Ort mit anschließender Zeitintegration der resultierenden großen gewöhnlichen Differentialgleichungssysteme nach der vertikalen Linienmethode für eine Lösung von Optimierungsproblemen mit hyperbolischen Gleichungen als Restrinktionen sinnvoll ist. Ausgangspunkt waren dabei Arbeiten zu analytisch lösbaren Optimalsteuerungsproblemen bei der homogenen eindimensionalen Wellengleichung 2. Ordnung von Martin Gugat. Damit war also eine Beurteilung der Approximationsgüte des zu entwickelnden numerischen Verfahrens nach der Methode "first discretize then optimize" möglich. Man beachte aber, dass bekannt ist, dass diese Methode auch zu fehlerhaften Ergebnissen führen kann! Ihr Vorteil liegt jedoch in der einfachen Implementierbarkeit und in den geringen Anforderungen an theoretisches Vorwissen, das ja, wie bereits bemerkt, noch nicht hinreichend entwickelt ist. Trotz dieser Unwägbarkeiten wird sich die Methode "first discretize then optimize" wie bei der optimalen Steuerung gewöhnlicher Differentialgleichungen gegenüber der Methode "first optimize then discretize" letztendlich durchsetzen. Gegen die höhere Sicherheit und die tiefere mathematische Einsicht wird sich die Notwendigkeit durchsetzen, einfach und schnell zu handhabbarende Software zu entwickeln. Zudem können offene theoretische Fragen durch die Vorarbeit der Numerik evtl. leichter beantwortet, und notwendige und in der Zukunft vielleicht auch hinreichende Bedingungen für ein lokales Optimum durch geeignete Approximationen der adjungierten Variablen zumindest näherungsweise verifiziert werden. In der Arbeit werden u.a. neben grundlegenden Fragen zur Konsistenz, Stabilität und Konvergenz einfache Upwind-Verfahren sowie die Verfahren von Lax-Friedrich und Lax-Wendroff für hyperbolische Systeme erster Ordnung diskutiert, auf die die klassische Wellengleichung bekanntlich transformiert werden kann, sowie ein Mehrschrittverfahren, welches direkt auf die Wellengleichung zweiter Ordnung anwendbar ist. Insbesondere wird untersucht, wie sich Verhältnisse zwischen Orts- und Zeitschrittweite auf die Auflösung von Unstetigkeitsstellen auswirken, ähnlich den CFL-Bedingungen bei parabolischen Gleichungen. Die verschiedenen Ordnungen der Verfahren, deren Gültigkeit nur bei glatten Anfangs-Randdaten gilt, werden auch numerisch verifiziert. Ferner wurde ein numerisches verfahren auf MATLAB-Basis zur Berechnung der optimalen Steuerung des diskretisierten Anfangsrandwertproblems bei der Wellengleichung 2. Ordnung über die Randbedingungen entwickelt. Numerische Ergebnisse für die Steuerung aus einer beliebigen Anfangsauslenkung in die Ruhelage sowie aus der Ruhelage in eine beliebige Endbedingung (in der L2-Norm) runden Herrn Greifs Untersuchungen ab und zeigen durch Vergleich mit den analytischen Lösungen nach Gugat, dass der hier gewählte Zugang zu guten Ergebnissen führt, wenn das Verhältnis zwischen Orts- und Zeitschrittweite bei eins liegt. Besonders hervorzuheben sind Herrn Greifs Untersuchungen zu den numerisch erreichten Konvergenzordnungen in der L2-Norm: Es stellt sich heraus, dass diese bei allen Verfahren und allen Beispielen mit unstetigen Steuerungen bei 0.5 liegt. Man beachte dabei, dass aufgrund von Unstetigkeiten in den Randsteuerungen ja keineswegs die Voraussetzung glatter Randbedingungen für die Konvergenzanalyse dieser Verfahren der theoretischen Konvergenzordnung 1 erfällt ist. Bei glatten Randsteuerungen ergibt sich numerisch für alle untersuchten Verfahren eine Konvergenzordnung von 1.5; sie liegt damit also höher als die untere Schranke für die theoretisch zu erwartende Konvergenzordnung. Dieses numerische Ergebnis sollte Ansporn sein, für weitere theoretische Untersuchungen bzgl. der Ordnung von Verfahren zur Berechnung optimaler Steuerungen bei hyperbolischen Systemen.
Studium:Wirtschaftsmathematik, 11/1999 - 7/2005
Abschluss: Juli 2005
Erste Anstellung: sofort nach Studienabschluss
1. Position: Wissenschaftlicher Mitarbeiter
Firma: TU Darmstadt, AG 10 - Nichtlineare Optimierung und Optimale Steuerung
Branche: Öffentlicher Dienst
Tätigkeit: Mitarbeiter im Sonderforschungsbereichs 666 "Integrale Blechbauweisen höherer Verzweigungsordnung - Entwicklung, Fertigung, Bewertung".
Bearbeitung des Teilprojekts A2 "Mathematische Modelle zur automatisierten Produktentwicklung
von optimalen Blechbauteilen mit verzweigten Strukturen".
Im Vordergrund steht die Lösung von Formoptimierungsproblemen. Dabei stehen Fragen wie 3D-Elastizität, Wärmeleitung,
etc. im Mittelpunkt der Untersuchungen. Mehr Informationen zum SFB 666
hier.
2. Position:
Firma: Siemens AG, Erlangen
E-Mail: guentergreif"at"web.de
Sonstiges: Herr Greif in einer Email vom 4.12.2008: Ich bin in der
Ferigungsplanung tätig. Meine Arbeit sehr abwechslungsreich und interessant.
Ich habe neben dem Tagesgesch�ft, Arbeitspläne zu erstellen und zu pflegen, aber auch
viele übergreifende Themen, wie Materialversorgung mittels Milkrun,
Wertstromoptimierung der Fabrik, SAP Koordination der gesamten Abteilung, etc.
Ich habe nun auch das Tätigkeitsfeld gefunden, welches ich mit aller Macht verfolge,
nämlich "Lean Manufacturing". Stichworte wie Toyota Produktionssystem, Kanban, Jidoka,
Poka Yoke, 5S, TPM, Nivellierung, Glättung, Fraktale Fabrik, etc. haben mich in ihren Bann
gezogen. Eine Ausbildung zum Lean Manufacturing Experten steht zwar noch nicht an,
aber da ich dies als konkretes Ziel habe , bin ich guter Dinge dies noch zu erreichen.
Die Modellierung realer Prozesse mit Systemen von Differentialgleichungen
gewinnt immer größere Bedeutung. Für die mathematische Simulation und Optimierung
ist es erforderlich, eine Anwendung aus der Realität durch ein möglichst gutes Modell
abzubilden. Je detailierter die Modellierung durchgeführt und je genauer die Wechselwirkungen
auf die realistische Anwendung beschrieben werden können, desto genauer, aber desto komplexer
wird das resultierende mathematische Modell. Häfig ist man heute zwar in der Lage hochgenaue
und realitätsnahe Modelle zu formulieren, die resultierende Komplexität der entstehenden Modelle
kann dann jedoch zu einem Problem im Hinblick auf die Komplexität für eine numerische
Lösungsberechnung führen. Dies ist insbesondere kritisch vor dem Hintergrund einer auf der
Simulation aufgesetzten Optimierung zu sehen. Insbesondere fehlt es oftmals an den entsprechenden
Methoden, um etwa nichtlineare Modelle mittels einer Regelung zu steuern. Trotz des Verlustes
an Genauigkeit geht man daher oft dazu über, die entstandenen Modelle zu vereinfachen,
um mittels einer Parameteridentifikation dennoch ein möglichst gutes Abbild der Wirklichkeit zu erlangen
und mathematische Verfahren erfolgreich zur Anwendung zu bringen.
Die Diplomarbeitsaufgabe von Frau Leeske war die Herleitung eines realitätsnahen mathematischen Modells des Hubschraubers BO105. Aufgrund der beabsichtigten Anwendung von Regelalgorithmen zur Stabilisierung von Flugmanövern der BO105 durch das deutsche Institut für Luft- und Raumfahrt (DLR) in Braunschweig, sollte Frau Leeske mittels Linearisierungstechniken aus den nichtlinearen Bewegungsgleichungen ein lineares Modell extrahieren, das auf die bei der DLR einzusetzenden Regler anzupassen war. Die Berechnung und Analyse ausgewählter optimaler Trajektorien für verschiedene Ausgangssituationen zur Vorbereitung spezieller, von der DLR nachzuregelnder Flugmanöver, sollte schließlich die Arbeit von Frau Leeske abrunden.
Die Arbeit von Frau Leeske unterteilt sich im Wesentlichen in vier Bereiche: Im ersten Bereich der Modellierung des Hubschraubers werden in kompakter Form die erforderlichen physikalischen Grundlagen hergeleitet und sowohl ein nichtlineares, als auch ein lineares Modell hergeleitet. Insgesamt besteht das nichtlineare Modell aus 14 hochkomplexen Bewegungsgleichungen für die jeweils drei Komponenten des Orts- und Geschwindigkeitsvektors sowie für die Eulerwinkel (Roll-, Nick-, Gierwinkel) und deren zeitliche &Auuml;nderungen. Um den Hauptrotor besser in das Modell einzubringen, werden für Roll- und Nickwinkel auch noch deren Beschleunigungen berücksichtigt. Neun dieser Bewegungsgleichungen (ohne jene für die Ortskomponenten, die entkoppelt sind, und die Roll- und Nickwinkelbeschleunigungen) werden nun um einen Referenzpunkt linearisiert. Die entstehenden Systemmatrizen A und B des linearisierten Systems der Form (d/dt) z = A z + B u (z Zustandsvektor, u Steuervektor) sind aus Parameteridentifikationen, die an dem DLR durchgeführt wurden, bekannt. Nach einer detailierten Darstellung der Theorie und numerischen Lösung von Optimalsteuerungs- und Optimierungsproblemen im zweiten Teilbereich, erfolgt eine Auswertung der numerischen Ergebnisse im dritten Abschnitt der Arbeit. Frau Leeske präsentiert numerische Ergebnisse für einen optimalen Geradeausflug, einen optimalen Kurvenflug auf einer Kreisbahn und schließlich auch auf einer optimalen Spiralbahn (Landeanflug). Alle Ergebnisse sind anschaulich visualisiert, so dass man den Flug des Hubschraubers nachverfolgen kann.
Die Betreuung der Diplomarbeit erfolgte am Zentrum Technomathematik der Universität Bremen durch Prof. Büskens, der auch für die Aufgabenstellung verantwortlich zeichnete.
Studium: Wirtschaftsmathematik, U Bayreuth
Abschluss: 03/2005
Erste Anstellung: sofort nach Studienabschluss
Position: Projektmitarbeiterin m Bereich Unternehmensberatung
Firma: Creditreform Rating AG, Neuss, Bereich Consulting
Branche: Ratingagentur
Derzeitige Position (seit 2009): Teamleiterin des Bereichs Quantitative Methoden
Firma: GBB Rating GmbH, Köln
Branche: Ratingagentur
E-Mail: Melanie.Leeske"at"gmx.de
Sonstiges: Melanie Leeske schrieb in einer Email am 26.10.2006: Ich arbeite ausschließlich
an Projekten im Bereich Unternehmensberatung. Es ist sehr interessant. Wir beraten überwiegend
Großunternehmen. Die Vorlesung Variationsrechnung bei Ihnen hat mir bei einem Projekt, Backtesting
eines Ratingmodells, schon etwas geholfen. Ansonsten stoße ich eher auf nichtlineare Optimierungsprobleme.
Und in ihrer Email vom 24.09.2013 schrieb Frau Leeske: Wir sind u.a. zuständig für die Validierung und
das Backtesting der Ratingfunktionen. Des Weiteren arbeiten wir an Projekten zum Themenfeld Risikomanagement.
Ich habe zwei Kinder. Familie und Beruf lassen sich, zumindest mit meinem Arbeitgeber, sehr gut vereinbaren.
Gegenstand der Diplomarbeit war die Modellierung und Simulation von und Parameteridentifikation bei Be- und Entwässerungsvorgängen in senkrechten Bodensäulen, einem typischen Laborexperiment in der Bodenphysik. Drei Experimente wurden in der Diplomarbeit von Frau Lieb mathermatisch nachgebildet und untersucht:
Zur mathematischen Beschreibung solcher Transportprozesse in porösen Medien hat sich die Richardsgleichung bewährt. Sie setzt sich aus zwei physikalischen Gesetzen zusammen, dem Darcy-Buckinghamschen Fließgesetzt für ein inkompressibles, isothermes, isotropes Medium und einem Kontinuitätsgesetz. Ersteres besagt, dass die Darcy-Geschwindigkeit, auch als Volumenflussdichte bezeichnet, proportional dem Gradienten der Differenz zwischen Matrixpotential bzw. Druck und einer Referenzhöhe ist. Die Kontinuitätsgleichung beschreibt eine Massenbilanz. Die Volumenflussdichte ihrerseits beschreibt das Wasservolumen, das pro Zeiteinheit und Querschnittsfläche das poröse Medium passiert. Ihre Einheit ist also die einer Geschwindigkeit. Die Wasserbewegung in einem porösen Medium wird also repräsentiert durch die Energiegradienten, die dort wirken. Die Porportionalitätskonstante, hydraulische Leitf$auml;higkeit genannt, hängt dabei vom volumetrischen Wassergehalt ab, also dem Volumenanteil des Wassers am Gesamtvolumen. Dieser ist seinerseits wiederum eine Funktion des Matrixpotentials.
Daraus resultiert die Richardsgleichung (1931). Diese partielle Differentialgleichung ist je nach Parametrisierung des volumetrischen Wassergehaltes parabolisch oder parabolisch degeneriert, d.h. sie ist für gewisse Werte des Matrixpotentials elliptisch.
Neben dieser Eigenschaft der partiellen Differentialgleichung verursacht die Wahl geeigneter Parametrisierungen des volumetrischen Wassergehalts und der hydraulischen Leitf$auml;higkeit weitere Schwierigkeiten. Es gibt nicht nur verschiedene Modelle in der Literatur, sondern es zeigt sich, dass für Be- und Entwässerungsvorgänge wegen auftretender Hystereseeffekte verschiedene Parametrisierungen gewählt werden müssen.
Frau Lieb hat dazu in ihrer Diplomarbeit neben einer Darstellung dieser sogenannten hydraulischen Funktionen mittels Exponentialfunktionen, die eine analytische Lösung der Richartsgleichung erlauben - und damit ideale Modelle für die Bewertung numerischer Tests darstellen -, aber praktisch keinerlei Bedeutung haben, das Modell von van Genuchten und Mualem und für Hystereseeffekte das sogenannte down-scaling-Modell untersucht.
Ein Verfahren, das sich für dieseörtlich eindimensionale partielle Differentialgleichung anbietet, ist die auf Semidiskretisierung im Ort beruhende (vertikale) Linienmethode. Dabei muss man den Transportterm, insbesondere wenn der Diffusionsterm klein ist, z.B. mittels upwind-Schemata diskretisieren. Es zeigt sich weiter, dass die sogenannte Druckform der Richardsgleichung numerisch ungünstig ist, da sie zu Massenbilanzfehlern führt. Die resultierenden (steifen) gewöhnlichen Differentialgleichungen oder differential-algebraischen Gleichungen werden mithilfe des Verfahrens NUDOCCCS von C. Büskens gelöst, das intern den semiimpliziten RADAU5-Integrator benutzt. Durch Verwendung der Software NUDOCCCS hat man die Option, Parameteroptimierungsprobleme oder (später einmal) Optimalsteuerungsaufgaben bei der Richardsgleichung anzugehen. Anhand zahlreiche numerischer Simulationen hat Frau Lieb die numerischen Probleme, die bei der Integration der resultieren gewöhnlichen oder Algebro-Differentialgleichungen auftreten können, theoretisch durch Indexuntersuchungen und numerisch durch Vergleich verschiedener Diskretisierungen und Beurteilung der Diffusions- und Transportkoeffizienten gründlich untersucht.
Letztendlich hat Frau Lieb auch noch Parameteridentifikationen für das van Genuchten-Mualem und das down-scaling-Modell durchgeführt.
Diese Diplomarbeit entstand nach diversen Gesprächen über mögliche Kooperationen mit der Professur für Bodenphysik (Prof.Dr. Bernd Huwe). Es ist beabsichtigt, dieses Themengebiet in weiteren Diplomarbeiten zu vertiefen.
Studium: Mathematik mit Nebenfach Physik, U Bayreuth
Abschluss: 12/2005
Erste Anstellung: 2/2006
Position: Gymnasiallehrerin
Firma: Gymnasium (Maria-Ward-Gymnasium, Bamberg)
Branche: Öffentlicher Dienst
E-Mail: julia.lieb"at"web.de
Bei dieser interdisziplinären Diplomarbeit in Kooperation mit dem Lehrstuhl für BWL VII (Prof. Eymann) bestand die Aufgabe darin, die Literatur nach geeigneten existierenden Verfahren (Scheduling-Algorithmen) zu sichten, mit denen die Zuweisung (Allokation) von Ressourcen (Prozessoren, Speicherplatz, Datenbanken, Software, etc.) für Aufträge weltweit verteilter Nutzer eines riesigen Rechnernetzes (Grid), bestehend aus geographisch getrennten, heterogenen Rechnern, effizient (optimal) geplant werden kann. Die Idee ist - ähnlich dem Stromnetz - Rechnerleistung aus der "Steckdose" zu beziehen, da weltweit freie Rechnerleistung ungenutzt "herumsteht" und daher kostengünstiger zu beziehen sein müsste. Die Auswahl der Planungsverfahren (Scheduler) sollte mit Blick auf die Anwendbarkeit für das so genannte "grid computing" bewertet werden.
In der Diplomarbeit werden zunächst die grundlegenden Begriffe und Anwendungsszenarien des Grid Computings sowie die sich daraus ergebenden Probleme für Scheduler beschrieben. Dieser soll den Koordinationsaufwand für eine optimale Verteilung und den effizienten Einsatz der Rechner im Netz übernehmen. Die Schwierigkeiten für einen Schedulers sind offensichtlich durch die Dynamik der Ressourcenverfügbarkeit bedingt und unterliegen stochastischen Einflüssen. Die verschiedenen Aufgabenstellungen und Bewertungskriterien machen darüber hinaus die effiziente Allokation von Aufträgen für ein komplexes, heterogenes und dynamisch variierendes Rechnernetz zu einer hochkomplexen Aufgabe. Hierbei zeichnet sich ab, dass ein zentraler Grid Scheduler unter Verwendung von Middleware-Diensten lokale Scheduler zur Zuweisung der Aufträge beauftragt, die jeweils nur einen Teil des Netzes beschicken. Der Grid Scheduler verfolgt dabei jobbezogene Ziele, der lokale Scheduler systembezogene Ziele. Unter Middleware versteht man dabei eine anwendungsunabhängige Technologie, die Dienstleistungen zur Vermittlung und Kommunikation zwischen Anwendungen anbietet, um die Komplexität der zugrundliegenden Applikationen und Infrastruktur zu verbergen und den Transport komplexer Daten zu ermöglichen.
Dann werden zwei Vorgehensweisen für die Planung durch einen Grid Scheduler beschrieben. Zum einen wird mit CONDOR ein Vertreter eines Ressource-Management-Systems, ähnlich einem Broker, vorgestellt, welches die Aufträge gemäß ihres Auftragseingangs reiht, zum anderen mit NIMROD-G ein System, das nachökonomischen Regeln plant. Bei Condor wird keinerlei Optimierung durchgeführt, sondern nur nach zueinander passenden Aufträgen und Ressourcen gesucht. Bei Nimrod-G entscheidet der Nutzer, ob und wenn ja, welche Art der Optimierung aus einer vorgegebenen Klasse von Kriterien durchgeführt werden soll. In der Bewertung zeigt sich, dass beide Systeme ihre Vor- und Nachteile haben. Die Vielzahl an Optimierungskriterien, eigentlich handelt es sich hierbei sogar um ein mehrkriterielles Mehrpersonenspiel, sowie an Restriktionen zeigt sofort, dass es den optimalen Algorithmus nicht geben kann. Zudem sind die Optimierungsprobleme i.Allg. NP-schwer, stochastisch und ihre Lösung muss in der Regel auch noch in Echtzeit erfolgen. Herr Raetsch hat sich daher auf zwei Verfahren konzentriert, die zumindest einige der Anforderungen erfüllen können. Beim so genannten Stochastic Online Scheduling von Megow u.a. (2004) muss das Scheduling-Problem als klassiches kombinatorisches Optimierungsproblem modelliert werden, bei dem eine gewichtete Summe der Fertigstellungszeiten minimiert wird. Herr Raetsch schlägt für diese Methode eine Modifikation vor. Aussagen über die Güte der berechneten Lösungen können allerdings nicht gemacht werden; dazu ist die Aufgabe zu komplex. Die zweite von Herrn Raetsch diskutierte Methode ist ein Algorithmus aus der Graphentheorie, der ein maximales Matching mit minimalen Gewichten in einem bipartiten Graphen bestimmt. Auf diesem Graphen wird dann ein maximaler Fluss bestimmt. Zusammenfassend erhält Herr Raetsch, dass man diverse Abstriche von den Anforderungen für das Scheduling im Grid machen muss, um überhaupt einen Algorithmus anwenden zu können. An Gütegarantien ist derzeit nicht zu denken. Der Weg bis hin zu einem Einsatz von optimierten Schedulern ist noch sehr weit!
Studium: Wirtschaftsmathematik, U Bayreuth
Herr Reinl hat bei der Suche nach einem industriellen Praktikum im Rahmen seine Studiengangs Technomathematik
Kontakt zur Firma Rodenstock in Regen aufgenommen, einem der führenden Herstellern von Brillengläsern.
Brillengläser sind heutzutage wegen ihrer vielfachen Eigenschaften hoch komplexe Produkte. So muss zum Beispiel
die Oberfläche eines Gleitsichtbrillenglases mit seinen verschiedenen Fokussierungseigenschaften, individuell
auf den zukünftigen Träger zugeschnitten, durch komplizierte Freiformflächen äußerst genau beschrieben werden.
In der Diplomarbeit von Herrn Reinl geht es aber lediglich um die vergleichsweise einfache Rückseite von
Gleitsichtbrillengläsern. Erst durch einen gleichmäßigen, durch Polieren erzeugten Abtrag wird das
Glas durchsichtig. Für diesen letzten Schritt in der Herstellung eines Brillenglases wird dieses auf einem Träger
befestigt, der in Rotation versetzt werden kann. Mithilfe eines ebenfalls rotierenden Polierpads soll nun eine
dünne Schicht abgetragen werden. Das auf einer Pinole befestigte Polierpad kann dazu beliebig über die
zu polierende Fläche der Rückseite des Brillenglases geführt werden.
Die mathematische Aufgabe bestand nun zunächst darin, diese Bewegung zu modellieren; sie setzt sich aus zwei Rotationsbewegungen
und der Bahnbewegung der Pinole zusammen. Geht man davon aus, dass der Abtrag proportional zum Betrag des
Gesamtgeschwindigkeitsvektors aus der Summe der Einzelgeschwindigkeitsvektoren ist, hat man den ersten Schritt zur Modellierung des
Polierprozesse bereits getan.
Das nächste, weit schwierigere Problem besteht in der Modellierung der Druckverteilung, die das Polierpad auf die Glasfläche
ausübt, denn der Abtrag ist auch proportional zur Druckverteilung. Diese hängt des weiteren von der Oberflächengeometrie
und der Elastizität des Polierkopfes ab. Insbesondere problematisch ist die Modellierung der Druckverteilung am Glasrand,
wenn das Polierpad über den Glasrand hinausragt. Physikalisch muss das kippende Polierwerkzeug in stabiler Lage einem
Momentengleichgewicht gehorchen. Schließlich darf der in diesen Bedingungen auftretende Elastizitätsmodul nicht mehr als
konstant oder linear abhängig von der Profilfunktion des sogenannten Flächenverschnitts angenommen werden. Hierfür
war ein geeignetes nichtlineares Modell zu entwickeln.
Das Gesamtmodell wurde dann zum Teil mit analytischen, im wesentlichen aber numerischen Methoden gelöst. Der Abtrag wurde
auf diskretisierten Einzelzellen eines regulären Gitters akkumuliert, das über die rückwärtige Glasoberfläche zu legen
ist. Da Gleitsichtbrillen aus verständlichen optischen Gründen in ihrer Mitte eine möglichst geringe Dicke aufweisen sollen,
ohne allerdings am Rand zu dünn für die Einfassung in ein Brillengestell zu sein, kann die Außenkontur nicht mehr
regelmäßig sein. Damit macht die ansonsten vereinfachende Anwendung von Polarkoordinaten keinen Sinn mehr.
Das von Herrn Rein entwickelte Modell wurden anhand diverser Vergleiche mit Messergebnissen validiert. Abhängig vom
zugrundeliegenden Glasmaterial schwankt die Güte der Übereinstimmungen zwischen Modell und Messungen zwischen perfekt oder stark
verbesserungsbedürftig.
Eine einzige Diplomarbeit kann wegen der auch für den Betreuer unerwarteten Komplexität des Problems nicht alle in der Praxis
auftretenden Probleme lösen. Eine Vielzahl von weiteren Problemen hat Herr Reinl in seinem ausführlichen Ausblick zusammengefasst,
darunter einer der interessantesten, aber auch schwierigsten ist sicherlich die Frage nach der optimalen Bahn des Polierpads über
die Glasoberfläche.
Diese Diplomarbeit entstand in Kooperation mit der Firma Rodenstock GmbH in Regen,
mit
betreut von Herrn Dipl.-Ing. Günter Niemeyer.
Studium: Technomathematik, U Bayreuth
Offensichtlich lässt sich dieses Problem durch ein Optimalsteuerungsproblem modellieren: Man finde eine Kurve x(t),
0 <= t <= 1, mit Anfangspunkt x(0)=x_1 und Endpunktpunkt x(1)=x_2 im n-dimensionalen Raum bzw. die dazu
gehörige Kurve (x(t),f(x(t)), 0 <= t <= 1, auf der Potentialfläche z = f(x) , so dass das Maximum der
längs dieser Kurve auftretenden Funktionswerte minimiert wird. Hierbei handelt es sich um ein sogenanntes Cebysevsches
Optimalsteuerungsproblem, zu deren Lösung leistungsf$auml;hige Standardverfahren zur Verfügung stehen.
Die hieraus resultierenden Verfahren, je nach Modellierung des Optimalsteuerungsproblems, benötigen keine expliziten Formeln
bzw. Programme zur Berechnung von Gradienten oder Hessematrizen von f, rufen dafür allerdings f sehr oft auf.
Die Modellierungen führen wie andere Verfahren auch auf sehr große Optimierungsprobleme bzw. hier auf sehr große
Optimalsteuerungsprobleme, deren Diskretisierung wiederum auf sehr große Optimierungsprobleme führen.
Man beachte, dass eine Auswertung von f enorme Rechenzeiten benötigen kann, da zur Bestimmung von f im Allgemeinen
die Lösung einer Schrödinger Gleichung, also einer partiellen Differentialgleichuung mit 3 N unabhängigen Variablen,
approximiert werden muss, wobei N die Anzahl der Atome des Moleküls bezeichnet. In dieser Diplomarebiet wurden allerdings nur
solche Probleme gerechnet, wo f explizit angegeben werden konnte. Bei dem größten gerechneten Problem war die Dimension
n=66, d. h. es musste ein Optimalsteuerungsproblem für 132 gewöhnliche Differentialgleichungen numerisch gellöst
werden.
Bemerkung:
In diesem Zusammenhang sei noch auf das sogenannte Mountain-Pass-Theorem von Ambrosetti und Rabinowitz verwiesen,
welches eine wichtige Rolle bei der Abschätzung der Zahl kritischer Punkte reeller, stetig differenzierbarer Funktionale
auf reelen Banachräumen und damit bei Existenfragen bei nichtlinearen (partiellen) Differentialgleichungen spielt.
Inhaltsangabe:
Nach Einleitung und Motivation wird im zweiten Kapitel die zugrundeliegende Theorie, insbesondere das Mountain-Pass-Theorem
dargestellt. Existierende Methoden zur Berechnung von Sattelpunkten erster Ordnung werden im dritten Kapitel übersichtsartig
dargestellt. Im vierten Kapitel werden die Hauptergebnisse der Theorie Optimaler Steuerungen, soweit sie in dieser
Arbeit von Belang sind, zusammengefasst und mehrere Formulierungen von Optimalsteuerungsaufgaben angegeben, mit denen
Mountain-Pass-Trajektorien berechnet und sogar gestaltet werden können. Die numerischen Resultate inklusive einer sehr kurzen
Darstellung der verwendeten Methode NUDOCCCS zur numerischen Lösung von Optimalsteuerungsproblemen runden im fünften Kapitel
die Diplomarbeit ab. Eine Zusammenfassung sowie einige Anhänge zur Ordnung der bei den Optimalsteuerungsproblemen auftretenden
Zustandsbeschränkungen, weitere numerische Ergebnisse und Programmcodes beschließen die Arbeit.
Studium: Wirtschaftsmathematik, U Bayreuth
Aufgabenstellung:
Ausgangspunkt:
Ausgangspunkt waren Untersuchungen am Lehrstuhl für Technische Mechanik und Strömungsmechanik zu harmonischen
Bodenkonturen und sogenannten "Hügelketten", die durch Polynome mit trigonometrischen Funktionen dargestellt
werden und die harmonische Bodenkonturen einschließen. Es zeigte sich, dass ab einer gewissen Amplitude Wirbel
in den Mulden der Bodenkonturen auftreten, deren Größe mit steigender Amplitude anwächst. Die
Flüssigkeit verliert an der Bodenplatte durch Reibung Bewegungsenergie, auf den Wirbeln gleitet die Flüssigkeit jedoch
mit verminderter Reibung. Die Wirbel wirken wie flüssige Wälzlager, auf denen die Flüssigkeit dahingleitet.
Es stellt sich die Frage, ob sich solche Wirbel positiv auf den Materialtransport auswirken können. In der Tat beobachtet man
bei Steigerung der Amplitude ab einer bestimmten Wirbelgröße einen steigenden Materialtransport.
Dennoch konnte der geringe
Widerstand einer ebenen Kontur für harmonische Bodenkonturen nicht wieder erreicht werden. Insbesondere verhinderten die
schlechte Kondition eines mit zunehmender Welligkeit immer größer werdenden linearen Gleichungssystems und immens
steigende Rechenzeiten weitere Rechnungen.
In einer Arbeit in der renommierten Zeitschrift Arch. Appl. Mech., zu der Herr Rund mit seinen Ideen beigetragen hat
und neben Herrn PD Scholle und Prof. Aksel als Koautor zeichnet, konnte dann oberhalb einer gewissen Amplitude erstmalig eine
Erhöhung des Materialtransportes gegenüber der ebenen Kontur für die oben genannten Hügelketten nachgewiesen werden.
Inhaltsangabe:
Strömungen lassen sich mathematisch durch ein gekoppeltes System nichtlinearer partieller Differentialgleichungen
beschreiben, das nach Navier und Stokes benannt wird. Bei der hier vorliegenden Aufgabenstellung handelt es sich
um ein Randwertproblem mit freiem Rand. Aufgrund physikalischer Gegebenheiten (unendlich weite Kontur, Stationarität,
Vernachlässigung der Trägheit) lässt sich das System zu den ebenen linearen Stokes-Gleichungen vereinfachen.
Durch Einführung einer Stromfunktion erhält man dann daraus eine Bi-Laplace-Gleichung, eine lineare elliptische
partielle Differentialgleichung vierter Ordnung, zur Berechnung der Stromfunktion, die nun Ausgangspunkt für alle
weiteren Untersuchungen ist.
Für die Bi-Laplace-Gleichung lässt sich eine Lösungsformel finden, die holomorphe Funktionen enthält, die sich
aus den physikalischen Randbedingungen über ein unendlich-dimensionales System von Integralidentitäten bestimmen lassen.
Eine abgebrochene Fourier-Reihe erzeugt daraus ein eindeutig bestimmtes endlichdimensionales lineares Gleichungssystem
für die Koeffizienten der Fourier-Entwicklung. Dieses Gleichungssystem muss dann letztendlich numerisch gellöst werden.
Aus dessen Lösung kann man dann alle problemrelevanten Größen berechnen bzw. rekonstruieren.
Die Herleitungen in der Diplomarbeit sind bis auf Symmetrie- und Periodizitätsannahmen unanhängig von der festen Berandung,
der Bodentopographie. Herr Rund schlägt zum einen eine logarithmische Bodenkontur vor, die sich den bisher untersuchten Bodenkonturen
in vielfacher Hinsicht überlegen zeigt. Ihre mathematische Form erlaubt eine analytische Vereinfachung der zu lösenden Gleichungen
und eine Halbierung der Dimension der nicht analytisch lösbaren Gleichungen. Weiterhin erweist sich die Numerik in Bezug
auf Genauigkeit und Laufzeit deutlich verbessert. Eine geschickte analytische Vorkonditionierung des verbleibenden inhomogenen
linearen Gleichungssystems optimiert dann das numerische Verfahren ein weiteres Mal. Zum anderen entwickelt Herr Rund
noch eine überhängende Bodenkontur, die durch eine ebene parametrisierte Kurve mittels trigonometrischer Polynome niedriger
Ordnung dargestellt wird. Hierfür zeigt sich später, dass sie numerisch ähnlich ungünstig ist, wie die harmonische
Bodenkontur und die Hügelketten.
Im Vergleich zur harmonischen Bodenkontur und zu den Hügelketten steigt allerdings bei der logarithmischen Bodenkontur die Kondition
des zu lösenden linearen Gleichungssystems nicht mehr mit der Anzahl der Terme der abgebrochenen Fourier-Entwicklung. Lediglich
Rechenzeit- und Speicherplatz limitieren die maximal rechenbare Bodenkontur, nicht aber Rechenungenauigkeiten wie bei der
harmonischen Bodenkontur oder den Hügelketten. Ja bis zu einem Reihenabbruch nach 20 Termen ist sogar eine geschlossen analytische
Lösung des Problems bei logarithmischer Bodenkontur möglich, deren Gültigkeitsbereich sich aber nur bis zu mittleren
Welligkeiten erstreckt.
Weitergehende numerische Rechnungen bestätigen nun, dass es bei hinreichender Welligkeit Bodenprofile gibt, welche bei schleichenden
Filmströmungen einen höheren Materialtransport gewährleisten als eine ebene Bodenplatte. Neben der Hügelkette, die in
der oben genannten Zeitschrift unter Mitwirkung von Herrn Rund untersucht wurde, führt sein Vorschlag einer logarithmischen Bodenkontur
ebenfalls zu einem höheren Materialtransport durch die reduzierte Reibung an der Separatrix, der Kontaktfläche zwischen
Hauptströmung und Wirbeln. Herrn Runds Vorschlag weist aber gegenüber den bisherigen Ansätzen vielfältige rechnerische
Vorteile auf. Die mit der Erhöhung des Materialtransports einhergehende Widerstandsreduktion ist im übrigen technologisch
äußerst interessant. Für andere Arten von Strömungen gibt es in diesem Bereich bereits Anwendungen: Berühmte
Beispiele einer Widerstandsreduktion durch unebene Körperoberflächen bieten beispielsweise der Golfball oder die parallel zur
Schwimmrichtung gerillte Haihaut, welche dem Hai besonders bei sprunghaften Angriffen eine schnellere Bewegung ermöglicht.
Den Abschluss der Arbeit bildet ein Ausblick, wie man nun über die Formulierung eines Optimalsteuerungsproblems eine optimale
Bodenkontur berechnen könnte, sofern sie denn existiert. Man beachte, dass die ebene Bodenkontur nur ein lokales Optimum darstellt.
Dieser Ansatz stand eigentlich am Anfang der Arbeiten zu dieser Diplomarbeit. Es zeigte sich jedoch bald, dass die dem Problem
inhärenten numerischen Schwierigkeiten auch hier auftreten, so dass die Frage nach der Existenz und der Berechnung einer
optimalen Bodenkontur offen bleiben muss.
Diese interdisziplinäre Diplomarbeit entstand in Kooperation mit dem Lehrstuhl für Technische Mechanik
und Strömungsmechanik (Prof. Dr. Nuri Aksel). Die Hauptlast der Betreuung trug Herr PD Dr. Markus Scholle
von diesem Lehrstuhl, auf dessen wissenschaftlichen Arbeiten, insbesondere dessen Habilitationsschrift
diese Diplomarbeit gründet.
Studium: Technomathematik, U Bayreuth
Anhand zweier mathematischer Modelle (mit diversen Varianten), die zum Teil erst im Laufe
der Diplomarbeit entwickelt wurden, sollte untersucht werden, ob eine Population von Spezies,
deren Wachstumsrate von einer gewissen Ressource abhängig ist, von einem Lebensraum (Habitat) in einen
benachbarten migriert, sobald dort Bedingungen herrschen, unter denen dieses Habitat erobert
werden kann. Speziell sollte die Frage beantwortet werden, ob eine homogenen Umwelt, also
eine Menge bezüglich der Ressourcen identischer Habitate, nach einer gewissen Zeitdauer
auch eine identische Populationsdichte aufweisen wird. Oder stellen sich unter Umständen
gar Gleichgewichte ein, bei denen andere Muster stabil sind als jene, die gleicher Populationsdichte
in allen Habitaten entsprechen? Diese Frage gehört zu den grundlegenden Fragen der Ökologie.
In vielenökologischen Modellen spielen sogenannte Metapopulationen eine Rolle.
Das sind Populationen von gleichen oder verschiedenen Spezies - in dieser Arbeit sind es
Spezies verschiedener Altersklassen -, die zwischen den benachbarten Habitaten wandern können,
dort von den gleichen Ressourcen abhängen und/oder dort von gleichen Raubtieren bedroht sind.
Im Vordergrund dieser Arbeit steht also die räumliche Verteilung der Spezies. Diese wird beschrieben
durch eine kreisförmig angeordnete Kette von Habitaten. Ferner wird angenommen, dass die Spezies
nur die beiden benachbarten bzw. die vier nächst benachbarten Habitate besuchen. Es herrscht also
ein sogenannter "quasi-lokaler Wettbewerb" um die Ressourcen.
Frau Utz hat dazu zwei mathematische Modelle untersucht, bei denen Individuen eines bestimmten Habitats
einen Teil ihrer zurückliegenden Zeit in einem benachbarten Habitat verbracht haben. Im ersten Modell
legen die Erwachsenen Individuen Eier mit einer Rate proportional zur Menge der zur Verfügung stehenden
Futterressourcen. Die Individuen, die den Eiern entschlüpfen, bilden die Erwachsenengeneration der
nächsten Brutsaison. Das zweite Modell führt dann eine weitere Altersklasse ein, die der Heranwachsenden,
die erst nach einem Jahr geschlechtsreif werden.
Nach einer Einführung in die Fragestellung werden im zweiten Kapitel zunächst die beiden Modelle
(ohne und mit Heranwachsenden) vorgestellt. Nur die Erwachsenen werden als potentielle Migranten angenommen.
Die Modelle bestehen jeweils aus zwei Teilen, einem System gewöhnlicher Differentialgleichungen für
die Ressourcen und die Anzahl der Eier, der Heranwachsenden und der Erwachsenen sowie Differenzengleichungen,
die den Übergang der Mitglieder der verschiedenen Altersklassen über die Wintersaison beschreiben.
Zur Vereinfachung wird angenommen, dass sich über das Jahr die Ressourcen in einem quasi-stationären
Gleichgewicht befinden, welches sich dann als stabil erweist. Als erstes wird dann untersucht, wann eine Population
überlebensf$auml;hig ist, d. h., unter welchen Bedingungen an die Systemparameter mindestens ein Erwachsener
einen Nachkommen erzeugt, der die Geschlechtsreife erreicht. Die aus der Forderung nach Überlebensf$auml;higkeit
resultierende Bedingung wird im Folgenden stets angenommen.
Im dritten Kapitel wird zunächst das Modell ohne Heranwachsende untersucht, für ein, zwei und n Habitate.
Es zeigt sich, dass bei all diesen Varianten, abgesehen von entarteten Fällen, das sogenannte homogene
Gleichgewicht das einzige stabile Gleichgewicht ist. Eine andere Muster-Formation existiert nicht.
Die entarteten Fälle hängen dabei von der Wahrscheinlichkeit ab, mit der Erwachsene in benachbarte Habitate
wechseln und beschreiben biologisch unwahrscheinliche Situationen.
Das vierte Kapitel ist nun dem Modell mit Heranwachsenden gewidmet. Hier werden drei Varianten untersucht.
Zunächst wird angenommen, dass die Heranwachsenden nur einen vernachlässigbaren Anteil der Ressourcen verbrauchen
und ihre Mortalität unabhängig von den zur Verfügung stehenden Ressourcen ist. Diese Variante kann noch vollständig
analytisch gellöst werden. Hängt jedoch die Mortalität der Heranwachsenden bei weiterhin zu vernachlässigbaren
Ansprüchen an die Ressourcen von diesen ab, können Teile des Modells nur noch numerisch untersucht werden.
Bei der vollen Modellvariante, bei der sowohl Wachstumsrate und Mortalität der Heranwachsenden von den Ressourcen abhängen,
muss das gesamte Modell numerisch untersucht werden. Alle numerischen Rechnungen erfolgen mithilfe von MATHEMATICA.
Als Resultate ergeben sich jetzt Muster von Spezies-Formationen, wenn die Heranwachsenden entweder einen beträchtlichen
Teil der Ressourcen benötigen oder deren Überlebensrate von diesen abhängt, insbesondere wenn die diese Situationen
beschreibenden beiden Konstanten in den Kombinationen "klein" und "groß" bzw. "groß" und "klein" auftreten.
Das fünfte Kapitel enthält eine Zusammenfassung. Die Arbeit wird durch einen Anhang mit den MATHEMATICA-Programmen
abgeschlossen.
Diese Diplomarbeit entstand vollständig an der Universität in Turku, Finnland, und wurde dort von
Frau Prof. Dr. Eva Kisdi betreut. Da Frau Utz eine selten gewählte Nebenfachkombination, nämlich Biologie, gewählt hat,
kann man den Umstand, dass Frau Utz ihre Diplomarbeit in Turku hat anfertigen können, nur als Glücksfall
bezeichnen, da es dort eine international angesehene Gruppe auf dem Gebiet der Biomathematik gibt.
Der Auslandsaufenthalt von Frau Utz wurde teilweise vom DAAD finanziert.
Frau Utz hat über ihre Arbeit in Turku und Helsinki vorgetragen. Aus ihrer Diplomarbeit sind zwei Arbeiten und eine
Posterpräsentation für eine internationale Tagung hervorgegangen; eine der beiden Arbeiten (mit E. Kisdi) ist bereits
zur Publikation in Theoretical Population Biology angenommen, eine zweite wird noch eingereicht werden
(Bulletin of Mathematical Biology). Bei der letzteren der beiden Arbeiten wird Frau Utz Erstautorin sein.
Frau Utz kann ihre Forschungen in Helsinki im Rahmen eines Dissertationsprojektes fortsetzen.
Studium: Mathematik mit Nebenfach Biologie, U Bayreuth
Da in den Lehrplänen moderne Anwendungsfelder der Mathematik immer noch unzureichend berücksichtigt sind, besteht ein
Hauptanliegen der Arbeit darin, Schülern die Nützlichkeit von Mathematik für zahlreiche praxisrelevante Fragestellungen
vor Augen zu führen. Dazu werden interessante Anwendungsbeispiele wie die Funktionsweise eines Computertomographen,
Renditeberechnungen bei Geldanlagen oder die Erstellung von Computergraphiken sowie deren mathematische Hintergründe vorgestellt.
Des Weiteren ist der Arbeit eine Begleit-CD mit einigen Programmen und Materialien zur Veranschaulichung der numerischen Inhalte
beigefügt.
Im Vordergrund stand die Umsetzbarkeit auch im Unterrichtsalltag. Wo immer es möglich war wurde versucht an Inhalten
aus dem Lehrplan anzuknüpfen. Die einzelnen Kapitel bauen dabei nicht aufeinander auf, so dass Lehrern selbst überlassen bleibt,
welche Themen in welcher Intensität bearbeitet werden sollen. So ist je nach Leistungsstand der Schüler und verfügbarer
Unterrichtszeit eine flexible Konzeption des Unterrichts möglich.
Es ist geplant, diese Zulassungsarbeit als Buch herauszugeben, eventuell angereichert um einige weitere Kapitel zur Abrundung des
Stoffes.
Studium: Lehramt Mathematik und Wirtschaftswissenschaften für Gymnasien, U Bayreuth
Das Thema zu dieser Diplomarbeit entstammt einem aktuellen Drittmittelprojekt am Lehrstuhl für Ingenieurmathematik
mit dem Titel Optimierte Prozessführung von Brennstoffzellen-Systemen mit Methoden der Nichtlinearen Dynamik.
In dieser Arbeit wird ein bereits vorliegendesörtlich zweidimensionales Schmelzkarbonat-Brennstoffzellen-Kreuzstrommodell (Abk. für
Schmelzkarbonat-Brennstoffzelle: MCFC = molten carbonate fuel cell) auförtlich eine Dimension reduziert. Das resultierende
sehr große gekoppelte semilineare partielle Differentialgleichungssystem der Dimension 28 stellt dann ein vereinfachtes
Gegenstrommodell der MCFC dar und wird numerisch mittels der Linienmethode gellöst. Dazu wird das nach Semidiskretisierung im Ort
(vertikale Linienmethode) entstehende gewöhnliche differential-algebraische Gleichungssystem mithilfe des Softwarepakets EASY-FIT
von Prof. Klaus Schittkowski numerisch simuliert.
Dabei werden die auftretenden ersten und zweiten Ortsableitungen durch geeignete Differenzenquotienten approximiert, u.a. werden
Upwind-Formeln benutzt, um die Transportterme zu diskretisieren. Insgesamt erhält man ein sehr großes steifes System gewöhnlicher
Differentialgleichungen in der Zeit, das dann letztendlich mit Hilfe eines impliziten Integrationsverfahrens numerisch gellöst wird.
In der Arbeit wird detailliert beschrieben, wie man dies alles mit dem Programmpaket EASY-FIT durchführt.
Die Intention dieser Diplomarbeit ist, ein aussagekräftiges eindimensionales Modell zu erstellen, das numerisch effizienter
als dasörtlich zweidimensionale Modell behandelt werden kann und doch das dynamische Verhalten der diversen Größen
wie die Temperaturen der Gasgemische in den Kanälen und im Solid, wie die Konzentrationen der an den elektro-chemischen Reaktionen
beteiligten Substanzen und die Potentiale sicher voraussagen zu können. Demnach liegt der Schwerpunkt dieser Diplomarbeit in der
Durchdringung des mathematischen Modells und seiner Modifikation auf eine Ortsdimension. Mit dieser Arbeit wurde die im oben
genannten Projekt wegen kontinuierlicher Modellverbesserungen verlorengegangene Abwärtskompatibilität wieder hergestellt.
Damit liegen nun zwei kompatible Familien von MCFC-Modellen vor, für 1D-Gegenstrom und 2D-Kreuzstrom. Auf ähnliche Weise lassen
sich auch 1D- und 2D-Gleich- und 2D-Gegenstrommodelle herleiten. Diese Diplomarbeit liefert die Anleitung dafür.
Die Arbeit schließt mit einem Vergleich der Ergebnisse aus dem 1D-Gegenstrommodell mit jenen aus dem 2D-Kreuzstrommodell, welche
aus der Dissertation von Kati Sternberg stammen. Obwohl die wesentlichen Zustandsgrößen qualitativ ähnliche Ergebnisse liefern,
bedingen die unterschiedliche Führung der Gasströme doch auch Unterschiede.
Bemerkung: In der Dissertation von K. Sternberg wurde noch ein 2D-Gegenstrommodell entwickelt, das sogar gewisse Vorteile gegenüber
der im HotModule der Firma MTU CFC Solutions, München, realisierten Kreuzstromführung aufweist. Ein Vergleich damit steht noch aus;
die Diplomarbeit von Herrn Bauer liefert dazu einen guten Ausgangspunkt.
Studium: Technomathematik, U Bayreuth
Strömungen fluider Schichten spielen sowohl in natürlichen Systemen als
auch in einer Vielzahl von technischen und industriellen Anwendungen
eine wichtige Rolle. Die regennasse Fahrbahn, der Ölfilm eines Motors,
der Tränenfilm auf dem Auge oder die Herstellung von CDs stellen nur
einige Beispiele dar. In vielen Anwendungen spielt die Geometrie des
Bodens eine herausragende Rolle, bei der das idealisierte Modell eines
ebenen Bodens zur Modellierung nicht mehr ausreicht. Zum Beispiel sind in der
Beschichtungsindustrie, bei Wärmetauschern oder Verdampfern und
Kondensatoren gekrümmte bzw. gewellte Böden von speziellem
Interesse. Um einen höheren Wirkungsgrad zu erreichen, werden z.B. bei
Wärmetauschern die Oberflächen gekrümmt bzw. gerippt hergestellt.
Andererseits kommt es bei der Produktion von glatten ebenen Materialien
aufgrund von Herstellungsungenauigkeiten zu unebenen, gewellten
Oberflächen. Für all diese Anwendungen stellt sich die Frage, welche
Auswirkungen die gewellten Oberfächen auf die Eigenschaften des Systems
und speziell die Strömung haben. Ein Teilaspekt dieses Einflusses der
Bodenkontur auf stationäre Filmströmungen über gewellte Böden ist
Gegenstand dieser Arbeit.
In vorausgehenden Untersuchungen wurden sowohl analytisch als auch
numerisch und experimentell Phänomene beobachtet, die bei Strömungen
über ebene Böden nicht auftreten. Z.B. gelingt es Oberflächenwirbel oder
hydraulische Sprünge in Form von Schocks nachzuweisen. Der Einfluss
einer gewellten oder allgemein gerippten Oberfläche kann aber auch zur
Entstehung von Wirbeln in den Vertiefungen des Bodenprofils führen.
Neben den bereits diskutierten Eigenschaften können noch weitere
Phänomene beobachtet werden:
Bei gewellten bzw. rechteckig gerippten Böden bilden sich stehende
resonante Wellen, die bei bestimmten Reynoldszahlen eine besonders hohe
Amplitude erreichen. Dabei ist in vorausgehenden Veröffentlichungen
durch numerische Rechnung ein aus der nichtlinearen Resonanz bekannter
Effekt untersucht wordern: Für wachsende Bodenwelligkeiten "biegt" sich
die Resonanzkurve zu größeren Reynoldszahlen, d.h. in einem bestimmten
Reynoldszahlbereich existieren gleichzeitig drei verschiedene Amplituden
der Filmdicke, abhängig vom vorherigen Zustand des Systems.
Dieses nichtlineare Resonanzproblem wird in dieser Arbeit sowohl
analytisch als auch numerisch untersucht. Zunächst werden mit
analytischen Methoden die nichtlinearen Resonanzeffekte des
Strömungsproblems berechnet. Unter den Annahmen einer kleinen Welligkeit
und eines dünnen Filmes kann ausgehend von den Navier Stokes Gleichungen
und den Randbedingungen mit Hilfe einer integralen Grenzschichtmethode
eine gewöhnliche nichtlineare Differentialgleichung für die Filmdicke in
lokalen krummlinigen Koordinaten hergeleitet werden. Nach Transformation
dieser Differentialgleichung in kartesische Koordinaten wird diese
Gleichung mit störungstheoretischen
Methoden auf Resonanz untersucht. Anschließende numerische Resultate des
zugehörigen
Randwertproblems liefern eine gute Übereinstimmung mit der Analytik im
Gültigkeitsbereich
der Störungsrechnung. Motiviert durch Resonanzuntersuchungen aus
vorhergehenden Veröffentlichungen wird die mittels integraler
Grenzschichttheorie hergeleitete Differentialgleichung analytisch und
numerisch auf bistabiles Verhalten untersucht. Sowohl analytisch mit
einem Fourieransatz als auch numerisch mit einem Randwertproblemlöser
können Aussagen über die auftretende Bistabilität gemacht werden.
Um qualitative Aussagen zu gewinnen und um die bistabilen Effekte besser
verstehen zu können, wird mit der Ausgangs-Differentialgleichung ein
vereinfachtes Minimalmodell hergeleitet, mit dessen Hilfe dann ein
Zusammenhang zum Duffing Oszillator hergestellt werden kann. Zudem
gelingt es die für die Bistabilität verantwortliche Nichtlinearität zu
identifizieren.
Studium: Technomathematik, U Bayreuth
Das Thema zu dieser Diplomarbeit entstammte einem laufenden Drittmittelprojekt am Lehrstuhl für Ingenieurmathematik
mit dem Titel "Optimierte Prozessführung von Brennstoffzellen-Systemen mit Methoden der Nichtlinearen Dynamik".
In dieser Arbeit wird ein bereits vorliegendesörtlich zweidimensionales Schmelzkarbonat-Brennstoffzellen-Modell (Abk. für
Schmelzkarbonat-Brennstoffzelle: MCFC = molten carbonate fuel cell) auf eine Ortsdimension reduziert. Das resultierende
sehr große gekoppelte semilineare partielle Differentialgleichungssystem der Dimension 28 wird dann numerisch mittels der Linienmethode
behandelt. Der Zweck dieser Diplomarbeit ist es, ein aussagekräftiges eindimensionales Modell zu erstellen, das numerisch effizienter
als dasörtlich zweidimensionale Modell gelöst werden kann und doch das dynamische Verhalten der diversen Größen wie Temperaturen der Gasströme
und im Solid, Konzentrationen der an den elektro-chemischen Reaktionen beteiligten Substanzen und Spannungen sicher voraussagen zu können.
Dazu wird das nach Semidiskretisierung im Ort (Linienmethode) entstehende gewöhnliche differential-algebraische Gleichungssystem mithilfe
eines direkten Optimierungslösers (NUDOCCCS von Büskens) numerisch simuliert und nach unterschiedlichen Vorgaben optimiert.
Dabei werden die auftretenden ersten und zweiten Ortsableitungen durch geeignete Differenzenquotienten approximiert, u.a. werden Upwind-Formeln
benutzt, um die Transportterme so zu diskretisieren, dass die Erhaltungsgleichungen auch in ihrer diskretisierten Form gültig bleiben.
Insgesamt erhält man am Ende ein sehr großes steifes System gewöhnlicher Differentialgleichungen in der Zeit, das dann mit Hilfe eines impliziten
Integrationsverfahrens numerisch gel$ouml;st wird.
Zur Erläuterung der Vorgehensweise wird in den einzelnen Abschnitten der Diplomarbeit immer wieder auf die bekannte Wärmeleitungsgleichung
zurückgegriffen.
Die wesentlichen Resultate für das Projekt sind die Untersuchung des Anfahrens der Brennstoffzellenstapels per Simulation. Dabei wird zunächst dem Stapel
nur wenig Strom entzogen. Dieser Strom wird danach in Sprüngen bis zu einem Maximalwert angehoben. Optimiert wird das Brennstoffzellensystem
dabei hinsichtlich maximaler Leistung und maximalem Wirkungsgrad durch Wahl einer geeigneten optimalen Steuerung. Des Weiteren wird das Verhalten
der Zustände der Zelle mit und ohne Kathodenrückführung untersucht. Im letzten Abschnitt wird die optimale Steuerung nach einem Lastwechsel untersucht.
Dabei wird nicht wie zuvor der Zellenstrom als Steuervariable verwendet, sondern bis zu sechs von außen regulierbare Eingangsgrößen, mit denen die
Brennstoffzelle über die Randbedingungen gesteuert werden kann. Optimal gesteuert wird insbesondere mithilfe der Zellenspannung und zusätzlich noch der
Mischertemperatur. Zum Abschluss wird noch untersucht, ob eine optimale Steuerung mit Beginn vor einem Lastwechsel bessere Ergebnisse erzielt
als eine optimale Steuerung mit Beginn beim Lastwechsel.
Studium: Technomathematik, U Bayreuth
Spontane Strukturbildung kommt in vielen Bereichen der Biologie vor - aber nicht nur dort. Sowohl innerhalb einzelner Zellen
als auch in Zellkolonien stellen Strukturbildung und Selbstorganisation entscheidende Prozesse für die Funktionalität lebender
Organismen dar. So können Veränderungen im Umfeld beweglicher Arten wie Bakterien deren Bewegungen beeinflussen. Man nennt dies
Taxis. Von Chemotaxis spricht man, wenn Änderungen einer chemischen Substanz, z.B. einer Nährstoffkonzentration oder einer Konzentration
schädlicher Chemikalien, auf die Bewegungen einer beweglichen Spezies Einfluss hat. In dieser Arbeit wird ein mathematisches Modell
für die bakterielle Chemotaxis herangezogen, welches auf Evelyn Fox Keller und Lee A. Segel (1970) zurückgeht und welches experimentell
anhand von Einzellern gut validiert ist.
Grundlage dieses Modells ist ein Signalübertragungsvorgang zwischen den Bakterien, bei dem als Antwort z.B. auf die Änderung der
Nährstoffkonzentration eine chemotaktisch aktive Substanz (CAS) von den Bakterien ausgesondert wird, die zunächst in die Umgebung diffundiert.
Angelockt durch dieses Signal wandern die Bakterien dann in Richtung der Nahrungsquelle, um sich dort zu sammeln. Die Registrierung der CAS
erfolgt über Rezeptoren auf der Oberfläche der Bakterien, die dann nach der Bindung ein Signal in das Zellinnere leiten. Mithilfe ihrer Geiseln
bewegen sich nun die Bakterien mit abwechselnd gerichteten und taumelnden Bewegungen in Richtung steigender CAS-Konzentration.
Höhere CAS-Konzentrationen führen dabei zu häfigeren gerichteten Bewegungen.
Damit ist klar, dass die zeitliche undörtliche Veränderung der Zell- und der CAS-Konzentration durch ein Reaktions-Diffusionssystem beschrieben wird,
das neben den Diffusionstermen (
Nach einer Einführung in das Gebiet werden in Kapitel 2 die aus der Literatur bekannten Ergebnisse zur lokalen und globalen Existenz von Lösung
parabolischer Chemotaxissysteme dargestellt. Bisher liegen mit einer Arbeit von Hillen und Painter (2001) nur Ergebnisse für ein stark vereinfachtes
Modell vor, verglichen mit dem in dieser Diplomarbeit untersuchten Modell.
In Kapitel 3 werden dann verschiedene, für das Chemotaxissystem geeignete Finite-Differenzen-Verfahren vorgestellt und auf Konsitenz und Stabilität
untersucht. Diese beiden Eigenschaften sichern dann nach dem Laxschen Äquivalenztheorem auch die Konvergenz dieser Verfahren. Speziell werden
sogenannte IMEX-Verfahren (implicit explicit) untersucht. Hierbei wird der Diffusionsterm wegen seiner bekannten Steifheit implizit diskretisiert,
um zu starke Restriktionen der Zeitschrittweite zu vermeiden. Da die Terme mit den partiellen Ableitungen zweiter Ordnung im Ort -
die Diffusonsterme - nur linear in den beiden partiellen Gleichungen auftreten, ist pro Zeitschritt nur ein lineares Gleichungssystem der
Dimension 2 zu lösen. Die nichtlinearen Terme erster bzw. nullter Ordnung im Ort werden dagegen explizit disktetisiert, so dass die aufwändige
Lösung eines nichtlinearen Gleichungssystems vermieden wird. Approximiert man die Zeitableitung durch einen Rückwärts-Eulerschritt und den
Diffusionsterm durch zentrale Differenzen zweiter Ordnung im Ort am neuen Zeitpunkt erhält man das sogenannte 1-SBDF-Verfahren (first order
semi-implicit backward differentiation formula). Dieses Einschrittverfahren ist konsistent von erster Ordnung bzgl. der Zeitdiskretisierung
und von zweiter Ordnung bzgl. der Ortsdiskretisierung. Dieses Verfahren lässt sich als Spezialfall eines allgemeinen Einschritt-IMEX-Verfahrens deuten,
welches z.B. das explizite Euler-Verfahren, das Crank-Nicolson-Verfahren und das sogenannte 1-CNEU-Verfahren (first order Crank-Nicolson Euler)
enthält.
Zusätzlich wird noch ein Zweischrittverfahren, das 2-SBDF-Verfahren, untersucht, welches sowohl im Ort als auch in der Zeit von zweiter
Konsistenzordnung ist.
Zum Nachweis der Konvergenz dieser Verfahren muss deren Stabilität nachgewiesen werden. Anhand des 1-SBDF-Verfahrens zeigt Frau Hoffmann, wie Stabilität
mithilfe einer Fourier-Analyse nach von Neumann nachgewiesen werden kann. Wegen der Nichtlinearität des Chemotaxissystems hängt diese vom Gradienten
der CAS-Konzentration ab, so dass Stabilität "nur" numerisch und "nur" für einen weiten Bereich (sinnvoller) Zeit- und Ortsschrittweiten nachgewiesen
werden kann, was natürlich für die Praxis ausreichend ist.
Da in der Arbeit auchörtlich zweidimensionale Probleme behandelt werden, werden auch Finite-Differenzenverfahren für diese Klasse von
Reaktions-Diffusionsproblemen vorgestellt. Diese Verfahren gehören zur Klasse der ADI-Verfahren (
Umfangreiche numerische Untersuchungen belegen die theoretischen Ergebnisse. Insbesondere wurde die Stabilität der Verfahren in der Nähe stabiler
stationärer Lösungen bei Schrittweiten- und Parametervariationen untersucht. Dabei erweist sich hinsichtlich Stablität bei größeren Schrittweiten
das 1-SBDF-Verfahren dem 1-CNEU-Verfahren überlegen. Auch das Zweischrittverfahren 2-SBDF ist trotz seiner höheren Konsistenzordnung diesbezüglich
dem 1-SBDF-Verfahren nicht überlegen. Dies besagt aber natürlich nichts hinsichtlich der Approximationsgüte.
Besonders interessant ist die Simulation von Wellenausbreitungsphänomenen, die sich bei lokalen Störungen vom Gleichgewicht ergeben. Es treten
Bakterieninseln auf. Die numerischen Ergebnisse können dabei sehr anschaulich visualisiert werden.
In Kapitel 4 werden dann noch Optimale Steuerungsprobleme untersucht, bei denen das Anfangsrandwertproblem für die Chemotaxis-Gleichungen als
Nebenbedingungen auftritt. Solche Optimierungsprobleme über Funktionenräumen stellen eine der derzeit größten Herausforderungen in der Angewandten
Mathematik dar. Durch zeitlich veränderliche Steuerung der von Neumann-Randbedingungen soll der Verlauf der Zellkulturen zu einem festen Zeitpunkt
einer vorgegebenen Sollverteilung möglichst genau entsprechen. Dabei wird dieses sogenannte
Bei der Optimierung vonörtlich zweidimensionalen Problemen stößt man an die Grenze des heute Rechenbaren. Ergebnisse können nur noch für relativ
grobe Schrittweiten erzielt werden, will man die Rechenzeiten im einstelligen Stundenbereich halten. Die erreichte Genauigkeit bei der Approximation
der vorgegebenen Soll-Zellkonzentration ist damit naturgemäß nur noch gering. Die prinzipielle Vorgehensweise erweist sich jedoch auch hier als gangbar.
Fazit: Will man Optimale Steuerungsprobleme fürörtlich zweidimensionale partielle Differentialgleichungsprobleme lösen, wird man derzeit nicht
an der Verwendung Indirekter Methoden vorbeikommen. Dieser mathematisch schwierige und sehr anspruchsvolle Zugang muss jedoch für jedes Problem erneut
begangen werden und erfordert einen hohen Aufwand bereits bei der analytischen Vorarbeit. Die dem gegenüber relativ einfach zu handhabende Direkte
Methode wird aber erst dann hinreichend effizient sein, wenn hinreichend leistungsfägige Löser für die Lösung von NLPs zur Verfügung stehen, die auch
"wirklich" große Probleme lösen können.
Studium: Mathematik, Nebenfach Biologie, U Bayreuth
Diese Vorgehensweise ist nicht nur aus inhaltlichen Gründen gerechtfertigt, sondern auch durch die Schwierigkeit des Gebietes
und den Umfang der Aufgaben bedingt.
Inhaltsangabe.
Die im Focus der beiden Diplomarbeiten stehenden instationären partiellen Differentialgleichungen, die mit ihren zugehörigen Anfangs- und
Randbedingungen als Nebenbedingungen in Optimalsteuerungsproblemen auftreten, sind zwei Varianten mit derörtlich ein- und
zweidimensionalen parabolischen Wärmeleitungsgleichung mitörtlich verteilter Steuerung und homogenen Neumann-Randbedingungen
bzw. mit gesteuerten Robin-Randbedingungen (Randbedingungen dritter Art) sowie zwei Varianten derörtlich eindimensionalen
Burgers-Gleichung, der parabolischen, aber konvektionsdominanten und daher "fast" hyperbolischen viskosen Burgers-Gleichung
und der hyperbolischen, nicht-viskosen Burgers-Gleichung, jeweils mitörtlich verteilter Steuerung und homogenen Randbedingungen.
Als Zielfunktional wird stets ein tracking-Funktional verwendet, bei dem eine vorgegebene Orts-Verteilung der
Zustandsvariablen zu fest vorgegebener Endzeit optimal im Sinne der $L^2$-Norm angesteuert werden soll. Alle Probleme werden
durch Einbeziehung eines zusätzlichen Terms in den Zielfunktionalen regularisiert, der die Kosten der Steuerung je nach Wahl
des Regularisierungsparameters mehr oder weniger mitminimiert.
Zunächst werden die zweiten Ableitungen in den partiellen Differentialgleichungen mithilfe von Finite-Differenzen-Verfahren
der Konsistenzordnung zwei diskretisert. Die partiellen Ableitungen ersten Ordnung werden mit Upwind-Verfahren der Konsistenzordnung
eins diskretisiert. Die diversen Randbedingungen werden passend einbezogen.
Erste Simulationen zeigen durch Vergleiche mit dem PDE-Löser aus MATLAB und einem Problem mit bekannter analytischer Lösung
die Korrektheit der Diskretisierung.
Dann treten Steuerung bzw. Optimale Steuerung gegen Regelung bzw. Optimale Regelung an. Obwohl verwandt, haben die Methoden
dieser Gebiete verschiedene, aber auch sich überschneidende Zielrichtungen. Bei der (Optimalen) Steuerung eines dynamischen Systems
wird eine festgelegte Abfolge von Eingangssignalen in das System eingegeben, die zuvor anhand eines mathematischen Modells
des dynamischen Systems (optimal) bestimmt wurde. A priori unbekannte Störungen werden nicht berücksichtigt.
Die Regelung umfasst einen permanenten Vergleich zwischen gewünschtem Sollwert und dem gemessenen Istwert der interessierenden
Ausgangssignale des dynamischen Systems und daraus folgend eine permanente Veränderung der Eingabesignale für das System mit dem Ziel,
den Unterschied zwischen Soll- und Istwert zu verringern. A priori unbekannte Störungen werden berücksichtigt. Die optimale
Regelung führt aufgrund von Beobachtungen (Messungen) automatische Eingriffe in das System durch, um den gewünschten Zustand
des Systems optimal zu erzeugen oder zu bewahren.
Bei der modellprädiktiven Regelung (MPC steht für model predictive control wird eine zustandsabhängige Kontrollstrategie,
also eine reine Feedback-Steuerung, gesucht, die basierend auf einer endlichen Zahl von Auswertungen des Zustandes (Abtastpunkte)
neue Kontrollsignale berechnet, die zwischen den Abtastpunkten konstant gehalten werden, wobei das Steuerungsproblem über einem
endlichen, sich mitbewegenden Zeithorizont optimiert wird, im Gegensatz zur Optimalen Steuerung, bei der über den gesamten
Prädiktionshorizont optimiert wird. Hierbei wird dann aber nur der Wert der Steuerung im ersten Teilintervall des Prädiktionshorizontes
verwendet, die restliche Kontrollfolge wird nach Neuberechnung verworfen. An den Abtastpunkten können demnach Sprünge auftreten.
Bei der Optimalen Steuerung kann man z.B. mit der Software NUDOCCCS von C. Büskens nach der Offline-Berechnung
der optimalen Lösung des nominellen Problems die zugehörigen Sensitivitätsdifferentiale mitberechnen. Diese erlauben im Prinzip
eine sehr effiziente Echtzeitsteuerung, mit der dann Modellungenauigkeiten und parametrische Unsicherheiten kompensiert werden können,
sofern nominelle und aktuelle Trajektorie nicht zu weit voneinander abweichen, insbesondere aber die gleiche Schaltstruktur in den
optimalen Steuerungen aufweisen. Leider zeigten die Untersuchungen in dieser Diplomarbeit, dass nur bei denörtlich eindimensionalen
Aufgabenstellungen eine Berechnung der Sensitivitätsdifferentiale aus Gründen der Rechenzeit möglich war.
Der Vorteil von MPC gegenüber Optimaler Steuerung ist, dass diese von jedweder Vorausberechnung unabhängig ist, ja diese kann
sogar oft nicht möglich sein. Sie ist daher vom Prinzip her auch unabhängig von der optimalen Schaltstrukur der aktuellen, gestörten
optimalen Lösung. Auch hierbei erfolgt die Optimierung des dynamischen Systems auf den sich mitbewegenden Zeitfenstern über die
Software NUDOCCCS.
Ein numerischer Vergleich anhand eines ersten Beispiels, der optimalen Randsteuerung für die eindimensionale Wärmeleitungsgleichung,
offenbart eine (eigentlich zu erwartende) Schwäche des MPCs: Da ein Endzeit-Funktional vorliegt, reicht ein begrenzter Zeithorizont nicht
aus, die vorgegebene Zustandsreferenz zum Endzeitpunkt hinreichend genau anzusteuern. Bei optimaler Steuerung ist das natürlich kein
Problem, da über den gesamten Zeithorizont optimiert wird. Als Abhilfe wird daher vorgeschlagen, als Referenz nicht die
Zustandsverteilung am Endzeitpunkt, sondern die gerade aktuelle optimale Lösung aus NUDOCCCS anzusteuern, diese also
"nachzufahren". Hier liefert eine Vergrößerung des Prädiktionshorizontes keine Verbesserung der Resultate mit MPC.
Insgesamt scheint diese Variante jedoch nicht sinnvoll, weil damit ja gerade gewisse Vorteile von MPC aufgegeben werden:
Die optimale Lösung sollte ja a priori nicht bekannt sein.
Ähnlich verhalten sich die Resultate bei der 2D-Wärmeleitungsgleichung mit verteilter Steuerung (Kaiser-Hugel) und Randsteuerung (Vogel)
sowie den beiden Varianten der Burgers-Gleichung. Bei den 2D-Problemen zeigt sich allerdings, dass man die Resultate mit Optimaler
Steuerung erst nach einer Rechenzeit von Tagen erhält, die Resultate mit MPC zwar schon nach weniger als einer Stunde, aber dafür sind
sie aus oben genannten Gründen leider nicht überzeugend. Eine Kopplung von Optimaler Steuerung und MPC wurde hier, da nicht sinnvoll,
nicht mehr durchgeführt, zumal die Rechenzeiten für die Optimierung über den gesamten Zeithorizont prohibitiv gewesen wären.
Schließlich wurden noch Rechnungen mit abweichenden Parametern durchgeführt; sie sollten experimentell untersuchen, wie "sensitiv"
das MPC-Verfahren auf Parameterunsicherheiten reagiert (Man beachte, dass die Optimierung dabei jeweils mit dem nominellen Parameter
durchgeführt wurde und das ganze dann in die jeweiligen Gleichungen mit geändertem "unbekannten" Parameter eingesetzt wurde).
Durch die iterative Neuoptimierung im MPC-Verfahren ergibt sich eine Rückkopplung, welche die Fehler durch die Parameterunsicherheiten
zumindest in der Theorie teilweise ausgleichen sollte. Die Experimente zeigen, dass dies in gewissem Maße tatsächlich funktioniert.
Nadine Kaiser-Hugel:
Studium: Mathematik, U Bayreuth
Stephanie Gallardo Yances geb. Vogel:
Studium: Mathematik, U Bayreuth
Open capillary channels are fluid channels with open sides. At the
free surface there is a two phase interface between moving liquid
inside the channel and the surrounding gas phase outside the
channel. Due to capillary forces, the curvature of the interface is
dependent on the gas and liquid pressure. At higher velocities the
interface bends inward and restricts the liquid transport.
Liquid transport in open channels is restricted to environments
where gravitational forces can be neglected, like in micro-scale
channels or outer space. Today open capillary channels are
successfully used for liquid management in all kind of space
applications, like in satellites or at the International Space
Station. The dominating effects of the surface tension can be used
for transporting and positioning propellant to ensure gas free
propellant supply for the operating
system (see
here).
Capillary solutions are attractive because of their simple passive
nature and their potential to improve system weight, volume, cost
and reliability. Because of their simple structure, capillary
solutions also have a great potential for earth applications.
Microlabs-on-a-chip (see Annual Reviews of Fluid Mechanics
2006), also known as $μ$TASs (Micro Total Analysis Systems), is
just one application of the biochemistry to run fast and cheap lab
processes, like DNA testing or biomaterial analysis on a chip with
micro-channels. Therefore, the effects and the limits of channel
flow must be well understood to avoid greater design margins or
redundancy.
Few publications that study a forced liquid flow through open
capillary channels consider the limiting flow rates. The effects of
the capillary channel flow consisting of two parallel plates is
examined by Rosendahl and is well understood for
steady flow rate $Q$. Jaekle applied a computational
model for unsteady flow in an open rectangle vane. The present
thesis derives analytical equations and performs numerical
computations for the unsteady flow between parallel plates.
The basic equations, like the general mass balance, the momentum or
the free surface equation were studied for the flow between parallel
plates. Finally, a two-dimensional differential equation system,
with additional time-dependent factors, was applied. In the scope of
this theses a numerical tool was developed, which computes with a
modified Lax method the disturbed mean velocity, the pressure and
the free surface profile numerically within half an hour. Three
disturbance models are available to study the dynamics of the
capillary flow. The unsteady model can also recognize the choking
phenomena of the channel flow.
For constant flow rate at the outlet the solutions were successful
compared with the existing steady model. A smaller flow rate limit
could be observed than expected from the steady model for a linear
flow increase at the outlet. Due to the oscillation of the free
surface, the limit is dependent on the speed of the flow rate
change. For sufficient small changes the unsteady solution also
tends to the steady solution for constant flow rates.
Aus der "Preamble" der Diplomarbeit:
The first four months Prof. Collicott was advising me as a
research assistant at Purdue University (Department of
Aeronautics and Astronautics, Purdue University, Lafayette,
Indiana), which is proud of its "cradle for astronauts"
reputation. Beside the work on my thesis, I was calculating
numerical solutions for the paper of the capillary
rise in the Vane-Wall Gap Geometry. Moreover Prof. Collicott,
specialized in low-gravity fluid dynamics, provided me
the opportunity to teach a lecture at Purdue and to visit the annual
Aerospace Science Conference in Reno, Nevada.
In February 2006, I transferred to Portland State
University (Department of Mechanical and Materials
Engineering, Portland State University, Oregon), where I continued
the cooperation with Prof. Weislogel. To study the dynamic
contact line boundary condition and to gauge the accuracy of
present commercial fluid software, we compared the
numerical results to zero gravity sloshing experiments aboard the
International Space Station. Moreover, we were studying
the stability and the contact angle hysteresis of droplets on rough
surfaces.
Before my journey started, I was working at the drop tower facility
ZARM for seven months, as part of my practical semester for my
studies at the University Bayreuth. By successfully solving
multiphase flow problems in microgravity conditions, I was able to
get in contact with Prof. Collicott and Prof. Weislogel at the
international Drop Tower Days conference in Bremen.
Working together with international departments, experiencing the
culture and the way of life at different parts of America was a
great experience for myself. I believe that the exchange was also
beneficial for all institutions and will lead to future
collaborative research between them.
Studium: Technomathematik, U Bayreuth
Mathematische Methoden sind heute oft unerlässliches Werkzeug bei der Lösung schwieriger
Probleme in den Natur-, Ingenieur- und Wirtschaftswissenschaften, ja sogar in den sogenannten
Life Sciences. Ihr Erfolg hat zur Einstufung der Mathematik als Schlüsseltechnologie beigetragen.
In dieser Arbeit konzentrieren wir uns auf sogenannte Optimalsteuerungsprobleme. Hierbei werden die
Zustände eines dynamischen Prozesses quasi von außen durch Steuerungen so beeinflusst, dass
der Prozess, gemessen an einer vorgegebenen Zielgröße, optimal verläuft. Darunter fallen z.B. Aufgaben wie die
Bestimmung des optimalen Schubprogramms eines Raumfahrzeugs für eine komplizierte Planetenmission, bei der eine
möglichst große Nutzlast transportiert werden soll, die Berechnung zeit- oder minimaler Verfahrbahnen von
Industrierobotern oder die Bestimmung des optimalen Feeds und der optimalen Kühlung und Aufheizung von
Batchreaktoren in der chemischen Industrie, der gewinnmaximalen Steuerung eines Betriebes modelliert vermöge
eines mikroökonomischen Modells oder der optimalen Dosierung von Chemotherapeutika bei der Tumorbehandlung,
um nur einige wenige zu nennen.
Allen diesen oben genannten Beispielen gemein ist die Tatsache, dass einige oder evtl. sogar alle Komponennten
des Vektors der Steuerungen linear sowohl in die Bewegungsgleichungen, als auch in das Zielfunktional eingehen.
Erstaunlicherweise existieren gerade für diese, auf den ersten Blick einfacher klingenden Problemstellungen,
im Vergleich zu Aufgaben mit nichtlinear eingehenden Steuerungen, einige der letzten großen Lücken, sowohl in der Theorie,
als auch in der Numerik der Optimalen Steuerungen. Das Gebiet der Optimalen Steuerungen ist heute wohl erforscht, sofern man
Nebenbedingungen in Form gewöhnlicher Differentialgleichungen zur Beschreibung der Prozessdynamik verwendet. Auch
in dieser Diplomarbeit konzentrieren wir uns ausschließlich auf diesen Fall. Optimalsteuerungsaufgaben bei partiellen
Differentialgleichungen sind dagegen ein hochaktuelles Forschungsgebiet, das erst am Anfang seiner Entwicklung steht.
Worin bestehen nun die Schwierigkeiten bei der Analyse und numerischen Lösung von Optimalsteuerungsproblemen
mit linear eingehenden Steuerungen? Diese sind gegeben durch die Tatsache, dass das Minimumprinzip, die
fundamentale notwendige Bedingung zur Bestimmung und expliziten numerischen Berechnung von Kandidaten für
optimale Steuerungen auf sogenannte bang-bang oder singuläre Steuerungen führt. Im allgemeinen ist die Abfolge
von Extremalenbögen mit bang-bang oder singulären Steuerungen a priori unbekannt und kann auch i. Allg. nicht sicher
berechnet werden. Wegen der damit verbundenen Nicht-Regularität der Hamiltonfunktion sind in diesen Fällen auch keine allgemeinen
hinreichenden Bedingungen bekannt, wenn man einmal von den extrem einfachen Fällen einer durchgehenden
bang-bang-Struktur oder einer ausschließlich singulären Steuerung absieht.
Ausgehend von aktuellen Doktorarbeiten von Winderl (U Bayreuth) und Vossen (U Münster) wird dieses Defizit dadurch umgangen,
dass das (unendlichdimensionale) Optimalsteuerungsproblem zunächst mithilfe einer Diskretisierung in ein endlichdimensionales,
restringiertes nichtlineares Optimierungsproblem transformiert wird. Dafür werden die notwendigen Bedingungen
der Optimalsteuerungstheorie nicht benötigt. Dann transformiert man das resultierende nichtlineare Programm um
in ein sogenanntes Schaltintervall-Optimierungsproblem. Hierfür kann dann aber das Minimumprinzip zu Rate gezogen werden.
Voraussetzung dafür ist, dass der verwendete Löser, in dieser Arbeit das Softwarepaket NUDOCCCS von Büskens, zuverlässig
Schätzungen für die aus der Theorie der Optimalen Steuerung hervorgehenden adjungierten Variablen liefert. Diese werden
nämlich zur Berechnung der die Schatstrukur bestimmenden Schaltfunktionen benötigt.
Für das letztendlich entstehende nichtlineare Programm, dessen optimale Lösung im wesentlichen hilft, die optimale Schaltstruktur
zu verifizieren, lassen sich jedoch notwendige und hinreichende Bedingungen überprüfen.
Ebenso können sogenannte Sensitivitätsdifferentiale berechnet werden, die auf hinreichenden Bedingungen basieren und die
Empfindlichkeit der optimalen Lösung von Systemparametern messen können. Darüber hinaus bilden sie die Basis für echtzeitf$auml;hige
Algorithmen wie NUDOCCCS, mit denen vorausberechnete optimale Steuerungen online nachjustiert werden können, wenn (unvermeidbare)
Modellungenauigkeiten oder (unvorhersehbare) Parameterschwankungen auftreten.
Es muss jedoch herausgestellt werden, dass diese Vorgehensweise nach wie vor eine Lücke aufweist. Zum Nachweis der Konvergenz
der optimalen Lösung des diskretisierten Problems gegen die optimale Lösung des ursprünglichen Optimalsteuerungsproblems
werden wieder hinreichende Bedingungen benötigt, die bei den in dieser Arbeit im Zentrum stehenden Optimalsteuerungsaufgaben,
wie bereits erwähnt, nicht bekant sind. Die Untersuchungen in dieser Diplomarbeit helfen also "nur", diese Lücke zu umgehen,
um Anwenderprobleme praxisnahe zu lösen, auch wenn nicht garantiert werden kann, dass die berechneten Lösungen näherungsweise
lokal optimal sind. "Gute" Kandidaten für lokale optimale Lösungen sind sie jedoch allemal. Und global optimale Lösungen sind
im Allg. eh nicht berechenbar.
In dieser Diplomarbeit werden zwei Beispiele untersucht, die klassische Höhenrakete nach Goddard und ein
hochkompliziertes mikroökonomisches Modell, das wegen seiner vier linear eingehenden Steuerungen und der damit verbundenen
hochkomplexen Schaltstruktur mit zu den kompliziertesten bisher berechneten Optimalsteuerungsproblemen zählt. Die erzielten
Ergebnisse gegen damit über die in der Dissertation von Winderl gewonnenen Ergebnisse hinaus und ermöglichen evtl. den Einsatz
der Ersatzmethoden zum Nachweis hinreichender Bedingungen der Lösungen des Schaltintervall-Optimierungsproblems nach Vossen.
Weitere Untersuchungen in dieser Richtung hätten aber den Rahmen dieser Diplomarbeit gesprengt.
Studium: Wirtschaftsmathematik, U Bayreuth
Ziel dieser Zulassungsarbeit war es, ein Schulbuch zu schreiben, dass Lehrern und Schülern das Gebiet
der Differentialgleichungen näherbringt und so darstellt, dass es für den Unterricht am Gymnasium verwertbar
und verstehbar ist. Warum gerade Differentialgleichungen? Nun, die Lösung vieler praktischer Probleme in nahezu
allen Wissenschaftsbereichen führt auf Differentialgleichungen. Deshalb sollte in dem Buch insbesondere dem
Modellieren mit Differentialgleichungen ein breiter Raum gewährt werden. Damit kommt man dann auch der häfig
gestellten Forderung nach mehr Praxisnähe entgegen. Da sich jedoch selbst einfach aussehende Differentialgleichungen
nicht analytisch lösen lassen, wird man an numerischen Lösungsmethoden nicht vorbei kommen. Auch sie sind Gegenstand
des Buches.
Inhaltsangabe:
Nach zwei einführenden Kapiteln über grundlegende Begriffe aus der Theorie der gewöhnlichen Differentialgleichungen
sowie über die Behandlung von Existenz- und Eindeutigkeitsfragen und die Analyse numerischer Methoden, praktisch als
Wiederholung bzw. Auffrischung für den Lehrer gedacht, bildet Kapitel 3 den Hauptteil des Buches für Schülerinnen
und Schüler: Anfangswertprobleme im Unterricht.
Es werden so Fragen beantwortet wie: Warum sieht der Eiffelturm so aus, wie er aussieht? Stirbt Deutschland aus?
Wieviele Menschen trägt die Erde? Dahinter stecken die grundsätzlichen Wachstumsprinzipien, exponentielles und
logistisches Wachstum; sie sind omnipräsent bei der Modellierung vieler Phänomene in Naturwissenschaften und Ökonomie.
Auf Systeme von Differentialgleichungen, bei denen solche Wachstumsprinzipien gekoppelt sind, stößt man bei der Modellierung
epidemiologischer und populationsdynamischer Phänomene. Warum kommen gewisse Epidemien schneller als andere zum Stillstand?
Wie hoch muss die Durchimpfung einer Population sein? - übrigens gehorchen auch viele chemische Reaktionen diesen Gesetzen.
Ohne Numerik geht's nun nicht mehr: Das Euler-Cauchysche Polygonzugverfahren ist nicht nur simpel, sondern auch sehr hilfreich
bei der numerischen Lösung dieser Probleme mithilfe von SCILAB, einer kostenfreien Variante von MATLAB - ein für den
Unterricht wichtiger Punkt. "Sinnvolles" Umgehen mit Computern und Programmieren mit einer höheren, modernen Sprache lernt
man also auch noch.
Die berühmten Räuber-Beutetier-Modelle nach Alfred James Lotka (1880--1949; 69), einemösterreichisch-amerikanischem Biophysiker,
und Vito Volterra (1860--1940;80), einem italienischen Mathematiker, führen je nach Modellvariante auf periodische Lösungen oder
Gleichgewichtslösungen. Stabilitätsfragen bei Differentialgleichungen "blitzen" hier kurz auf; ihre Behandlung würde jedoch zu weit
führen.
Ein besseres Verfahren zur numerischen Lösung der Räuber-Beutetier-Gleichungen - eine analytische Lösung ist im Allg. nicht möglich -
wird aber jetzt benötigt: Das Verfahren von Heun.
Den Abschluss der Beispiele bildet ein Katz-und-Maus-Verfolgungsspiel, vom Autor "Tom & Jerry"-Spiel genannt; dies war eine
Aufgabenstellung aus dem schon traditionellen Mathematikkalender der Berliner Universitäten und mathematischen Forschungsinstitute.
Schließlich wird zum Schluss des 3. Kapitels mithilfe des Lorenz-Attraktors, einem nichtlinearen System 3. Ordnung und einem
Minimodell mit ähnlichen Eigenschaften wie die modernen Wettergleichungen, die Gläubigkeit in die von einem Computer produzierten
Zahlen in Frage gestellt: Seine kritische Analyse führt auf den Begriff der empfindlichen Abhängigkeit der Lösung eines
Anfangswertproblems von seinen Daten - oft fälschlich mit Chaos bezeichnet.
Letztendlich bleibt dann für einen ersten Einstieg in das Gebiet der gewöhnlichen Differentialgleichungen noch die bisher nicht
behandelte Frage zu beantworten, wann Lösungen von Anfangswertproblemen für gewöhnliche Differemtialgleichungen eindeutig sind
und wann nicht.
Das Buch schließt ab mit einem großen Kapitel über Himmelsmechanik, sicherlich schwierig, aber faszinierend und äußerst lehrreich.
Wann lernt man schon die grundlegenden Gesetze von Newton und Kepler in einem einheitlichen mathematischen Kontext in der Schule kennen?
Und so nebenbei lernt man vieles über Ellipsen, Trigonometrie und die verschiedenen Koordinatensysteme zur Beschreibung der Planetenbahnen
unseres Sonnensystems. Konkret werden, ausgehend vom allgemeinen N-Körperproblem, das planetare Zwei- und Dreikörperproblem mit SCILAB
behandelt; wieder muss ein besseres numerisches Verfahren her: Das klassische Runge-Kutta-Verfahren.
Schließlich werden noch die Fragen beantwortet, ob unser Sonnensystem stabil ist bzw. wie lange mindestens und was die "Große Ungleichheit"
in den Planetenbahnen von Saturn und Juppiter bewirkt. An der Lösung des letzten Phänomens, entdeckt von Edmond Halley (1656-1742; 86),
haben sich viele berühmte Mathematiker versucht. Wesentliche Beiträge stammen von Euler, Lambert und Lagrange. Aber erst Laplace gelang
im Jahre 1784 mithilfe seiner Störungsrechnung die vollständige Lösung.
Den Brückenschlag zur Moderne bildet schließlich die Berechnung von Satelliten im Gravitationsfeld von Erde und Mond, mathematisch
durch das sogenannte eingeschränkte Dreiköperproblem beschrieben. Auch hier wird wieder eine Frage aufgeworfen, im bereits oben erwähnten
Sinne: Gibt es Chaos bei Satellitenbahnen? Letztendlich wird noch auf die Nützlichkeit der Lagrangschen Punkte bei zukünftigen Raumflugmissionen
eingegangen.
Der Autor beginnt sein Vorwort mit der Frage "Differentialgleichungen … auch das noch?" Ohne Zweifel ist man nach Lesen des "Schulbuches"
überzeugt: "Differentialgleichungen … es ist einen Versuch wert!"
Studium: Lehramt Mathematik und Physik für Gymnasien, U Bayreuth
Die Optimierung von zeit- undörtlich veränderlichen Prozessen, deren Dynamik durch partielle Differentialgleichungen
beschrieben werden, ist ein hochaktuelles Forschungsgebiet der Angewandten Mathematik mit großem Anwendungspotential, etwa
bei der Steuerung von Strömungsvorgängen, in der Herzmedizin, der Bildverarbeitung, bei der Tumorbehandlung durch Hyperthermie;
die ingenieurtechnischen Anwendungen sind sogar geradezu unübersehbar.
Gegenüber der optimalen Steuerung von gewöhnlichen Differentialgleichungen treten bei der optimalen Steuerung mit partiellen
Differentialgleichungen zunächst einmal viele Schwierigkeiten dadurch auf, dass man bei der Lösung des zugrundliegenden
- in dieser Arbeit - elliptischen Randwertproblems schwache Lösungen zulassen muss. Dies macht eine funktionalanalytische
Untersuchung der Aufgabenstellung in geeigneten Hilberträumen (Sobolev-Räumen) notwendig.
Basierend auf den bekannten Existenz- und Eindeutigkeitssätzen für schwache Lösungen von elliptischen Randwertproblemen
kann man einen linearen, beschränkten und damit stetigen Lösungsoperator definieren, der jeder Steuerung aus der (konvexen) Menge
der zulässigen Steuerungen eine eindeutig definierte Lösung des elliptischen Randwertproblems zuordnet. Diese wird Zustandsvariable
oder kurz Zustand genannt. Damit kann man diesen theoretisch aus dem zu optimierenden (konvexen) Zielfunktional eliminieren.
Aus Gründen der Einfachheit werden in dieser Diplomarbeit, wie zumeist auch in der Literatur, ausschließlich quadratische
Zielfunktionen vom sogenannten tracking type behandelt. In den Diplomarbeiten werden sowohl regularisierte als auch nicht
regularisierte Zielfunktionale zugelassen. Darüber hinaus sind in dieser Arbeit die zugrundeliegenden elliptischen
Randwertprobleme stets linear.
Die Optimierung des auf diese Weise resultierenden abstrakten Optimierungsproblems in einem geeigneten Hilbertraum führt dann
auf eine notwendige und hinreichende Optimalitätsbedingung in Form einer Variationsungleichung für das optimale Paar aus Zustand
und Steuerung. In dieser Variationsungleichung kann dann der "variierte" Zustand, der der variierten Steuerung aus der
Menge der zulässigen Steuerungen zugeordnet ist, durch den sogenannten adjungierten Zustand eliminiert werden. Dieser gehorcht
ebenfalls einem elliptischen Randwertproblem und ist mit dem Randwertproblem für den Zustand gekoppelt.
Die transformierte Variationsungleichung erlaubt dann die Elimination der optimalen Steuerung über eine Projektionsformel
oder als sogenannte bang-bang-Steuerung als Funktion von Zustand und adjungiertem Zustand. Diese muss iterativ so berechnet
werden, dass das gegebene Zielfunktional minimal wird.
Damit liegt die erste numerische Lösungsmethode - erst optimieren, dann diskretisieren - auf der Hand: Man muss in jedem
Iterationsschritt eines Optimierungsverfahrens [Gradientenverfahren, (präkonditioniertes) konjugiertes Gradientenverfahren
(CG- bzw. PCG-Verfahren)] ein gekoppelte elliptisches Randwertproblem lösen, dass bei den hier untersuchten Beispielen stets
von der Dimension 2 ist. Für diese Methode zeichnet Herr Wendl verantwortlich. Die Randwertprobleme werden dabei mit der
Finiten-Element-Methode (FEM) numerisch gel$ouml;st. Diese sogenannte indirekte Methode, bei der die Optimalitätsbedingungen im Hilbertraum
in jedem Iterationsschritt des Optimierungsverfahrens näherungsweise ausgewertet werden müssen, erfolgt auf MATLAB-Basis
unter Verwendung des kommerziellen Finite-Element-Lösers COMSOL Muliphysics. Die Berechnung des für die Optimierung
benötigten Gradienten der Zielfunktion erfolgt mithilfe des adjungierten Zustandes. Die näherungsweise Auswertung der Hessematrix -
benötigt wird beim CG-Verfahren eigentlich nur eine Näherung des Produktes der Hessematrix mit einem Vektor - kann sehr effizient
durch eine zusätzliche Auswertung des Gradienten des Zielfunktionals erfolgen. Pro Optimierungsiterationsschritt werden also nur
2 Aufrufe des FE-Lösers benötigt. Dies gilt jedoch nicht für das eigentlich bessere PCG-Verfahren. Der höhere Aufwand
für das PCG-Verfahren durch Verbesserung der Kondition der zulösenden endlich-dimensionalen Optimierungsaufgabe zahlt sich
für die hier untersuchten Beispiele jedoch nicht aus.
Die zweite Lösungsmethode - erst diskretisieren, dann optimieren -, für die Herr Perner verantwortlich zeichnet, basiert
auf einer vollen Diskretisierung der partiellen Differentialgleichung für den Zustand. Die Optimalitätsbedingungen aus der
Minimierung des abstrakten Optimierungsproblems im Hilbertraum spielen keine Rolle. Die Diskretisierung des elliptischen Randwertproblems
für den Zustand erfolgt diesmal mithilfe finiter Differenzen (FD). Damit lässt sich das unendlich-dimensionale Optimierungsproblem
in ein sehr großes endlich-dimensionales Optimierungsproblem transformieren, das mit spezieller, für sehr große Probleme
geeigneter Software gel$ouml;st werden kann. Verwendet wird hier die Barriere- bzw. Innere-Punkte-Methode IPOPT von Andreas Wächter,
die man mittels der Modellierungssprache AMPL relativ komfortabel aufrufen kann. Obwohl auch bei dieser Vorgehensweise das
endlich-dimensionale Optimierungsproblem quadratisch ist, wurde wegen der allgemeineren Verwendbarkeit bewusst ein allgemeiner Löser
für sehr große, restringierte, nichtlineare Optimierungsprobleme eingesetzt.
Die numerischen Vergleiche der beiden Methoden werden anhand von vier Modellproblemen aus der Literatur durchgeführt,
einer zweidimensionalen Laplace-Gleichung mit einer gesteuerten Robin-Randbedingung auf dem Einheitskreis und bekannter
analytischer Lösung, einer Poisson-Gleichung mit Dirichletscher Randbedingung auf dem Einheitsquadrat und einer verteilten
Steuerung im Innern und ebenfalls bekannter analytischer Lösung, einer weiteren Poisson-Gleichung auf dem Einheitsquadrat
mit Neumannscher Randbedingung und verteilter Steuerung sowie als Besonderheit, einer Poisson-Gleichung, ebenfalls
auf dem Einheitsquadrat, aber mit einer Dirichletschen Randsteuerung. Für letzteres Beispiel gestaltet sich im übrigen die Analysis
der notwendigen und hinreichenden Bedingungen grundsätzlich verschieden von jener der übrigen Beispiele. In allen Fällen
kann man jedoch mithilfe der formalen Lagrangetechnik die Optimalitätsbedingungen aufstellen. Die Analyse von Dirichletschen
Randbedingungen ist aktuelles Forschungsgebiet und würde den Rahmen dieser Diplomarbeit sprengen. Für die übrigen Beispiele
ist der Beweis der Herleitung der Optimalitätsbedingungen nach einem kürzlich erschienenen Buch von Fredi Tröltzsch skizziert.
Der Vergleich der numerischen Lösungsmethoden ergibt, das die indirekte Methode über COMSOL Multiphysics hinsichtlich der
zugrundeliegenden Geometrie allgemeiner anwendbar ist, während die direkte Methode über AMPL/IPOPT nur auf rechteckige Gebiete
oder solche, die auf rechteckige Gebiete transformierbar sind, anwendbar ist. Dies kehrt sich jedoch um, wenn man Zustandsbeschränkungen
berücksichtigen wollte - was in der vorliegenden Diplomarbeit allerdings nicht untersucht worden ist. Dennoch lässt sich sagen,
dass diese im Prinzip genauso einfach zu behandeln wären wie Steuerungsbeschränkungen. Jedoch muss man dabei die verwickelten
theoretischen Probleme beachten, die mit der Behandlung von Zustandsbeschränkungen verbunden sind und derzeit Gegenstand
intensiver Forschungen sind.
Hinsichtlich der Handhabung der beiden Methoden sind die Unterschiede enorm. Die indirekte Methode erfordert viel Vorwissen
aus der Theorie optimaler Steuerungen, auch der Implementierungsaufwand ist erheblich, da ein geeignetes Optimierungsverfahren
erst noch implementiert werden musste. Handhabung und Implementierungsaufwand sind demgegenüber bei der direkten Methode
einfach und schnell zu erledigen. Der Rechenzeitbedarf ist bei der direkten Methode erstaunlich gering bei durchaus hoher Genauigkeit.
Abschließenden kann man sagen, dass die Wahl der in den beiden Diplomarbeiten entwickelten Methoden von den zu lösenden
Problemstellungen abhängt und damit in erster Linie durch die Form des Gebietes gegeben ist.
Michael Perner:
Studium:Wirtschaftsmathematik, U Bayreuth
Stefan Wendl:
Studium: Mathematik mit Nebenfach Physik, U Bayreuth
Das erste Kapitel behandelt Fragen der Populationsdynamik, wobei hier vor allem Fragen nach einer stabilen Koexistenz der Spezies untersucht werden. Vom mathematischen Standpunkt handelt es sich hierbei um die Frage nach asymptotisch stabilen Punkten des Systems in Abhängigkeit der bestimmenden Parameter. Die Untersuchung eines Modells von J.C. Flores (1998) zur Modellierung des Wettbewerbs zwischen Neanderthalern und dem frühen Menschen ergibt Hinweise auf das in der Biologie bedeutsame Korkurrenzausschlussprinzip. Ein zweites Modell beschäftigt sich mit der Interaktion zwischen Plankton und Pflanzenfressern. Hierbei erkennt man grundlegende Voraussetzungen einer stabilen Räuber-Beute-Beziehung, die durchaus auch auf andere Systeme übertragbar erscheinen.
Das zweite Kapitel beschäftigt sich mit Modellen für die Aktivität neuronaler Zellen. Charakteristische Eigenschaften dieser Modelle sind das Zerfallen der Dynamik in zwei Zeitebenen und die Erregbarkeit dieser Systeme. Diese Erregbarkeit ist Basis für die Modellierung neuronaler Aktionspotentiale. Treten diese in schneller Abfolge auf, so lassen sich Effekte wie das neuronale Feuern simulieren und untersuchen. Wird dieses Feuern periodisch durch Phasen der Ruhe unterbrochen, so spricht man von Bursting. In der Arbeit wird ein Modell für dieses Bursting untersucht und anschließend simuliert um die Vorhersagen zu verifizieren. In der Analyse derartiger Modelle spielen Bifurkationen eine zentrale Rolle.
Das Thema des letzten Teils der Arbeit ist die Enzymkinetik. Bei der Modellierung enzymgesteuerter Reaktionen treten typischerweise singulär gestörte dynamische Systeme auf, deren Lösungen für sinkende Enzymkonzentrationen zum Startzeitpunkt nicht-gleichmäßiges Verhalten zeigen. Mit Hilfe des Verfahrens von O´Malley-Hoppensteadt wird hier die Näherung zweiter Ordnung für die Basisreaktion berechnet und mit numerischen Ergebnissen verglichen. Zuletzt wird mit Hilfe der Quasi-Steady-State-Approximation die für die Anwendung wichtige Reaktionsrate für die Reaktion der gemischten Hemmung berechnet.
Studium: Mathematik mit Nebenfach Physik und Lehramt Mathematik und Physik, U Bayreuth
Der besseren Lesbarkeit wegen wurden alle Teile der beiden Diplomarbeiten so geschrieben, dass sie als ein gemeinsamens Werk "zusammengeschoben"
werden können. Die hier vorliegende Diplomarbeit von Herrn Schott umfasst also auch jene Teile, die von dem zweiten Diplomanden, Herrn
Martin Uhl, verfasst worden sind. Der Titel seiner Diplomarbeit lautet Portfolio-Optimierung mittels des primalen Critical-Line-Algorithmus -
Analyse, Implementierung und Vergleichstests mit dem dualen Algorithmus. In der Einleitung wird die individuelle bzw. gemeinsame Autorenschaft
der einzelnen Kapitel herausgestellt.
Herrn Schotts Beitrag umfasst die Kapitel 2 und 4 (ohne Abschnitt 4.4), die Abschnitte 5.2 und 6.2 sowie alle Inhalte von Abschnitt 7,
die sich nicht auf die numerischen Resultate des primalen Algorithmus beziehen.
Herrn Uhls Beitrag umfasst die Kapitel 1 und 3, die Abschnitte 5.1 und 6.1 sowie alle Inhalte von Abschnitt 7,
die sich nicht auf die numerischen Resultate des dualen Algorithmus beziehen. Gemeinsam verfasst wurde Abschnitt 6.3.
Inhaltsangabe.
Von Harry M. Markowitz, der 1990 für seine Portfolio-Theorie und seine moderne Kapitalmarkttheorie den Nobelpries bekam, stammt
das Zitat: Ein gutes Portfolio ist mehr als eine lange Liste von Wertpapieren. Es ist eine ausbalancierte Einheit,
die dem Investor gleichermaßen Chance und Absicherung unter einer Vielzahl von möglichen Entwicklungen bietet.
Die traditionelle, fundamentale Aktien-Analyse geht von einem zielgerichtet-rationalen Verhalten aller Marktteilnehmer aus, deren
Hauptmotivation Ertragsstreben ist, so dass jeder Aktienkurs aufgrund der sich herausbildenden Angebots- und Nachfragekonstellation
langfristig um seinen inneren Wert oszillieren sollte, der sich aus einem in bestimmter Weise abgeleiteten Ertragswert ergibt.
Demnach ist also nur die monovariable Zielfunktion "Rendite" Gegenstand quantitativer Überlegungen, die Zusammensetzung des Depots
erfolgt lediglich nach qualitativen Gesichtspunkten.
Im Gegensatz dazu werden in der modernen Portfoliotheorie nach Markowitz - im Jahre 1952 veröffentlichten Allen Douglas Roy und
Harry Max Markowitz übrigens unabhängig voneinander Modelle zur optimalen Depotzusammensetzung - mittels eines mathematisch-statistischen Ansatzes
Portfolio-Zusammensetzungen berechnet, die ein Optimum bzgl. der beiden konkurrierenden Hauptanlageziele Ertragsmaximierung und Risikominimierung
darstellen. Mathematisch gesehen liegt hier also ein sogenanntes Pareto-Optimierungsproblem mit einer zweidimensionalen Zielfunktion vor,
das ja im Allg. unendlich viele Lösungen aufweist. Man kann stattdessen aber auch einen Mindest-Erwartungswert für die Rendite vorgeben und
minimiert dann das Risiko: Man wählt somit unter den im Allg. unendlich vielen Pareto-Optima eines aus. Man nennt das resultierende Portfolio
dann risikoeffizient. In dieser Arbeit wird aber auch die Kurve aller Pareto-Optima berechnet, die auf der sogenannten Efficient Fontier liegen.
Nach Markowitz geht man davon aus, dass jeder Anleger möglichst hohe Erträge aus Kursgewinnen und Dividenden erzielen will und danach seine
Anlagemöglichkeiten (Assets) auswählt, wobei allerdings die zugehörigen Riskiken mitberücksichtigt werden müssen. Betrachtet man den zukünftigen Ertrag
einer Aktie statistisch als eine normalverteilte Zufallsgröße und als Maß für das zugehörige Anlagerisiko deren Standardabweichung oder Varianz -
letztere bietet rechentechnische Vorteile -, so lassen sich Formeln für Erwartungswert und Varianz eines Gesamtportefeuilles aus einzelnen
gegebenen Assets angeben. Dabei sind die Gewichte der Assets die zu bestimmenden Unbekannten eines Optimierungsproblems. Eine Analyse zeigt überdies,
dass man unter gewissen Annahmen durch eine geeignete Gewichtung der Assets ein im Vergleich zu den Einzelinvestitionen geringeres Risiko erzielen kann.
Mathematisch führen diese Überlegungen auf spezielle quadratische Optimierungsprobleme mit linearen Gleichungs- und Ungleichungsrestriktionen.
Die mathematischen Grundlagen für quadratische Optimierungsprobleme mit positiv definiter Matrix des quadratischen Terms auf abgeschlossenen und
beschränkten Teilmengen des $R^n$ werden in Kapitel 2 dargestellt. Solche Optimierungsprobleme besitzen ein eindeutig bestimmtes globales Minimum,
das sich durch die bekannten Karush-Kuhn-Tucker-Bedingungen (KKT-Bedingungen) charakterisieren lässt. Eine wesentliche Voraussetzung ist hierbei
die Abadie Constraint Qualification (ACQ); sie ist erfüllt, wenn die (bekanntere) Linear Indepence Constraint Qualification (LICQ) erfüllt
ist. Letztere besagt, dass die die Gleichungs- und Ungleichungsrestriktionen beschreibende Matrix vollen Rang besitzt. Für konvexe quadratische
Optimierungsprobleme sind die KKT-Bedingungen sowohl notwendig als auch hinreichend. Die ACQ ist bei linearen Nebenbedingungen zudem immer erfüllt.
Liegen überdies nur lineare Gleichungsrestriktionen vor, dann lässt sich die Minimalstelle sogar direkt berechnen.
Schließlich werden noch die Beziehungen zwischen dem sogenannten primalen Problem - das ist hier das ursprüngliche Optimierungsproblem zur
Bestimmung der optimalen Assetgewichte - und dem sogenannten dualen Problem dargestellt. Letzteres ist ein Sattelpunktsproblem für die zum primalen
Problem gehörige Lagrangefunktion. Es gilt zum Beispiel: Jeder primal zulässige Punkt beschränkt den Zielfunktionswert des dualen Problems nach oben
und umgekehrt, jeder dual zulässige Punkt beschränkt den Zielfunktionswert des primalen Problems nach unten. Und weiter: Ist eine Lösung des dualen
Problems bekannt, lässt sich auch die primale Lösung sofort angeben. Der Vorteil des dualen Problems, ebenfalls ein quadratisches Optimierungsproblem,
liegt in einer einfacher angebbaren konvexen Menge der zulässigen Lösungen. Schließlich ist seine Dimension kleiner als die des primalen Problems,
wenn die Summe der Restriktionen kleiner als die Zahl der Asset-Gewichte ist. Ein Nachteil ist, dass die Matrix des quadratischen Terms des dualen
Problems nicht notwendig positiv definit sein muss; das duale Problem kann also unendlich viele Lösungen haben, die allesamt globale Lösungen
des primalen Problems (mit gleichem Zielfunktionswert) sind. Dies entspricht der Nichteindeutigkeit der Lagrangeparameter im primalen Problem.
In Kapitel 3 werden dann für gleichungsbeschränkte Probleme alle risikoeffizienten Portfolios charakterisiert; sie liegen auf einem Hyperbelast,
der sogenannten Efficient Frontier. Für realitätsnahe Probleme müssen jedoch auch Ungleichungsrestriktionen behandelt werden. In Kapitel 4
wird dann gezeigt, wie man in endlich vielen Schritten eine Lösung solcher Probleme - sofern diese existieren - berechnet, indem man eine Folge
von gleichungsrestringierten Problemen löst. Daraus resultieren zwei Verfahren, ein primales (Diplomarbeit Uhl) und ein duales (Diplomarbeit Schott)
Verfahren, deren Algorithmen in den Abschnitten 4.4 (Uhl) und 4.5 (Schott) dargestellt werden. Kapitel 5 ist dann den Eigenschaften und der
Berechnung der Efficient Frontier gewidmet, resultierend in dem sogenannten Critical Line Algorithmus.
Die MATLAB-Implementierungen des primalen (Uhl) und des dualen (Schott) Algorithmus zur Berechnung des Minimumvarianz-Portfolios sowie des
Critical Line-Algorithmus (Schott und Uhl) bzw. deren Pseudo-Codes werden in Kapitel 6 beschrieben. Numerische Tests beschließen dann die Arbeit
mit Kapitel 7, wobei die erhaltenen Ergebnisse auch noch mit jenen verglichen werden, die mithilfe der MATLAB-Routine quadprog erzielt wurden.
Zusammenfassend kann festgestellt werden, dass die positive Definitheit der Matrix des quadratischen Terms wesentlich für beide Algorithmen ist.
Es zeigt sich, dass bei Problemen höherer Dimension (etwa n > 100) der primale Algorithmus klar im Vorteil ist. Der Vorteil des dualen Algorithmus
liegt darin, dass - im Falle der Existenz einer Lösung - das Minimumvarianz-Portfolio auf jeden Fall berechnet werden kann.
Stephan Schott:
Studium: Wirtschaftsmathematik, U Bayreuth
Martin Uhl:
Studium: Wirtschaftsmathematik, U Bayreuth
Dieses Diplomarbeitsthema wurde von Herrn Dr. Kastner-Maresch von der
Firma LivingLogic, Bayreuth,
an den Gutachter herangetragen. Frau Sutter, bereits bei dieser Firma zeitweise beschäftigt, sollte dieses Thema
im Rahmen ihrer Diplomarbeit bearbeiten. Nachdem sich herausstellte, dass der mathematische Hintergrund in den Kompetenzbereich
meines Kollegen, Prof. Jörg Rambau, fällt, hat er dankenswerterweise die Betreuung übernommen.
Sand und Kies, uns allen von vielen Stränden bekannt, sind äußerst vielfältig, lassen sich nach ihrer Zusammensetzung und ihrer Korngröße
unterscheiden, und insbesondere Sand ist, was man vielleicht nicht glauben mag, ein Basisprodukt für viele Hochtechnologieprodukte.
Wir finden Sand, speziell Quarzsand (Siliziumdioxid) nicht nur in unserer Zahnpasta, in allen Gläsern, sondern als reines Silizium
in praktischen allen Produkten der Mikroelektronik, in denen Halbleiter Verwendung finden. Gleiches gilt für zahllose Hochleistungswerkstoffe
im Motoren-, Maschinen- und Anlagenbau, deren Ausgangsprodukte meist getrocknete Quarzsande, Quarzkiese oder Quarzmehle sind
(z.B. auch für die Formel 1). Quarzfüllstoffe vermindern den Kunststoffbedarf und helfen somit unmittelbar bei der Reduzierung
des Erdölverbrauchs und der CO2-Emissionen. Sand ist also überall um uns herum "drin".
Hintergrund dieser Diplomarbeit ist folgendes Mischungsproblem. Gegeben ist eine bestimmte Menge von Silos, die mit Sanden eines
bestimmten Körnungsverhältnisses (aus verschieden Sandgruben) gefüllt sind. Die Körnungsverhältnisse je Silo können anhand von Proben
mithilfe eines Siebroboters experimentell bestimmt werden. Man soll nun aus den Sanden der verschiedenen Silos eine neue Sandmischung
mit vorgegebener Korngrößenverteilung optimal zusammenmischen. Dabei können die Silos während des Mischungsvorganges leerlaufen,
da ihre Füllmenge nur ungenau bestimmt werden kann. Die mathematische Optimierung des zugrundeliegenden restringierten quadratischen
Optimierungsproblems erfolgt bei der Firma LivingLogic derzeit mit dem Wolfe-Algorithmus.
Nach erfolgreicher (optimaler) Mischung wird noch eine Endprobe von der Charge genommen; es kann dabei zu mehr oder weniger großen
Abweichungen kommen, zumal die Charge nicht mehr homogen durchgemischt werden kann.
Das derzeit in der Realität verwendete mathematische Modell ist ein restringiertes lineares Ausgleichsproblem, welches sich nach
Diskretisierung des integralen Zielfunktionals in ein restringiertes quadratisches Optimierungsproblem mit positiv semidefiniter
Systemmatrix transformieren lässt. Das Problem ist also konvex. Bei dem Verfahren von Wolfe werden die Kuhn-Tucker-Bedingungen
ausgewertet. Das resultierende System aus Gleichungen und Ungleichungen lässt sich dann in ein lineares Optimierungsproblem überführen,
welches mit dem Simplex-Verfahren gel$ouml;st werden kann.
Zu dem Verfahren von Wolfe gibt es jedoch Alternativen, von denen zwei in der Diplomarbeit diskutiert wurden: Bei dem Verfahren
zulässiger Richtungen wird eine konvexe, stetig differenzierbare Funktion unter linearen Restriktionen iterativ über eine Folge
von Minimierungsproblemen in einer Variablen minimiert. Beim Penalty-Verfahren wird die Verletzung der Restriktionen im Zielfunktional
bestraft. Die Minimallösung wird dabei durch eine Folge unrestringierter Minimierungsprobleme approximiert.
Wie behandelt man nun das Leerlaufen eines Silos? Bisher wird in diesem Falle die Optimierung ohne das leergelaufene Silo wiederholt.
Dies führt bei der Gesamtmischung hinsichtlich der Qualitätsendkontrolle zu einer problematischen Schichtenbildung in der Charge.
Aufgabe ist es, die Reoptimierung und die damit einhergehenden Probleme zu vermeiden. Eine mathematische Modellierung (im Sinne
robuster Optimierung), bei der die Füllmenge je Silo (bis auf fest vorgegebene Unsicherheiten intervallweise) bekannt ist, führt
zu einer weiteren Nebenbedingung, die in dem Optimierungsproblem berücksichtigt werden muss. Bei der robusten Optimierung
(Variante in Klammern) versucht man, unter allen schlechten Ergebnissen das beste zu finden.
Anhang konkreter Daten wird dann in Testrechnungen die Leistungsf$auml;higkeit der verschiedenen Modellierungen (Reoptimierung, Berücksichtigung
der Füllstände ohne Unsicherheiten bzw. mit Unsicherheiten im robusten Sinne) und den daraus resultierenden Verfahren
getestet. Diese werden über die Modellierungssprache AMPL bzw. ZIMPL mit dem Hochleistungs-Simplexlöser CPLEX
realisiert. Vergleichsrechnungen zeigen, dass die Berücksichtigung der Füllstände Vorteile gegenüber der Reoptimierung bietet, eine
Optimierung im robusten Sinne ist dagegen nicht empfehlenswert bzw. dürfte dem Kunden nicht vermittelbar sein, da sie von extrem
pessimistischen Annahmen ausgeht.
Studium: Technomathematik, U Bayreuth
Inhaltsangabe. In Zeiten knapper Ressourcen stellt sich die Frage nach deren optimaler Verwendung.
So treten in nahezu allen Bereichen der Technik, der Wissenschaft und auch der Wirtschaft Fragestellungen auf,
die Entscheidungen über den Einsatz von Materialien, Kapital oder des Faktors Zeit erfordern.
Die mathematische Modellierung dieser realen Vorgänge spielt eine immer wichtiger werdende Rolle.
Diese lassen sich häfig durch Systeme von Differentialgleichungen beschreiben, die wiederum oft von außen
durch Steuergrößen beeinflusst werden können. Ist dies der Fall, wird von optimalen Steuerprozessen gesprochen.
Das Ziel ist es dann, unter Optimalitätskriterien bestimmte Steuerfunktionen zu identifizieren.
Ein bekanntes Beispiel ist die Maximierung der Höhe einer vertikal aufsteigenden Rakete unter Berücksichtigung
von Widerstand und Schwerkraft, das so genannte Goddard-Problem.
Der Spezialfall einer in der Modellierung linear auftretenden Steuervariablen verdient besondere Beachtung.
Diese kann in wirtschaftlichen Problemstellungen ein Verhältnis zwischen Investitionen in verschiedene Sektoren
oder zwischen Eigen- und Fremdkapital ausdrücken. Im erwähnten Goddard-Problem entspricht die Steuergröße dem Schub der Rakete.
Hier kann jeweils die Erfüllung der so genannten strengen Legendre-Clebsch-Bedingung, die ein wichtiges Optimalitätskriterium
bei nichtlinear eingehenden Steuerungen darstellt, nicht vorausgesetzt werden. Durch eine in dieser Arbeit nicht näher behandelte
Regularisierung des Steuerproblems durch die Hinzunahme einer quadratischen Kostenfunktion kann diese Schwierigkeit umgangen werden.
Jedoch wird dadurch die Aufgabenstellung oft nicht unerheblich verfälscht.
Bei Problemen mit linear eingehender Steuerungsfunktion treten generell drei verschiedene Typen von optimalen Steuerungen auf.
Verläuft sie überall an den Rändern des Steuerbereichs, bezeichnet man sie als bang-bang Steuerung. Ist dies nicht der Fall,
ist sie singulär. Besteht die Steuerung sowohl aus bang-bang als auch aus singulären Teilstücken, wird sie bang-singulär genannt.
Für diesen Fall untersuchte erstmals Georg Vossen, U Münster, hinreichende Optimalitätsbedingungen. Dabei wird zunüchst das Hilfsmittel
der Multiprozessformulierung gewählt, wobei die Zustands- und Steuervariablen auf jedem Teilstück gesondert betrachtet werden.
Durch die so genannte Goh-Transformation werden Zustands- und Steuerungsvariationen eingeführt, anhand derer eine bestimmte
Koerzivitätsbedingung aus den hinreichenden Bedingungen überprüft werden kann. Dies geschieht schließlich durch die Bestimmung
einer Lösung gewisser Riccati-Differenzialgleichungen.
In der vorliegenden Arbeit werden zunächst Grundlagen zu optimalen Steuerprozessen vorgestellt. Zudem werden insbesondere
zu Problemen mit linear eingehender Steuerung notwendige Optimalitätsbedingungen angegeben, anhand welcher in einem Beispiel
schließlich eine Lösung bestimmt wird. Kapitel 2 befasst sich ausführlich mit der Herleitung der hinreichenden Optimalitätsbedingungen.
Zunächst werden reguläre Steuerungen betrachtet, d.h. solche, bei denen die Minimumbedingung fast überall eindeutig lösbar ist.
Zu dieser Kategorie zählen die bang-bang Steuerungen. Die anschließend behandelten nichtregulären Steuerungen beinhalten singuläre Teilstücke.
Optimalitätsbedingungen werden mit Hilfe der Goh-Transformation für Probleme mit total singulärer und bang-singulärer Steuerung vorgestellt,
wobei analog zu Vossons Dissertation vorgegangen wird. Eine Anleitung zur Überprüfung der hinreichenden Optimalitätsbedingungen wird in
Kapitel 3 gegeben. Anhand eines Beispiels, der optimalen Steuerung des in der Physik weithin bekannten Van der Pol-Oszillators, werden diese
exemplarisch formuliert und durch die Mehrziel-Software MUMUS von Hiltmann et al. numerisch ausgewertet.
Die vorliegende Arbeit liefert also insbesondere eine Anleitung zur Überprüfung der von Vossen, U Münster, vorgestellten
neuen hinreichenden Optimalitätsbedingungen für Probleme mit linear eingehender Steuervariable.
Ein besonderes Augenmerk wird dabei auf das Auftreten einer bang-singulären Steuerungsfunktion gelegt.
Somit kann die Diplomarbeit als Leitfaden zur Lösung ähnlich gelagerter Problemstellungen dienen.
Für Modelle niedriger Komplexität, wie dem betrachteten Optimalsteuerungsproblem des Van der Pol-Oszillators,
lässt sich das behandelte Verfahren übersichtliür die Berechnung der Randbedingungen der zur Überprüfung
der hinreichenden Bedingungen zu lösenden Riccati-Gleichungen.
Ein allgemeiner Beweis der hinreichenden Optimalitätsbedingungen für Optimalsteuerungsprobleme mit linear eingehender Steuerung
steht noch aus. Erweiterungsmöglichkeiten für die Theorie bestehen darin, kompliziertere Schaltstrukturen zu betrachten.
Eine interessante Erweiterung wäre auch die Berücksichtigung von Zustandsbeschränkungen in dem optimalen Steuerprozess.
Studium: Mathematik mit Nebenfach Informatik, U Bayreuth
Vorbemerkung: Die Aufgabenstellung der Diplomarbeit im Studiengang Technomathematik geht auf Herrn
PD Dr. Markus Scholle vom Lehrstuhl für Technische Mechanik und Strömungsmechanik (Prof. Dr. Nuri Aksel)
zurück.
Inhaltsangabe:
Gegenstand der Untersuchungen dieser Diplomarbeit sind grundlegende Fragen der Strömungsmechanik
Poiseuille- und Quetschströmungen betreffend.
In der Strömungsmechanik wird das Verhalten von Fluiden untersucht, also von Gasen oder Flüssigkeiten,
die sich bekanntermaßen unter dem Einfluss von Scherkräften unbegrenzt verformen können.
Untersucht werden Newtonsche Fluide, bei denen zwischen Spannungs- und Deformationstensor ein linearer
Zusammenhang besteht. Zudem wird das Fluid als inkompressibel angenommen, d.h. die materielle Zeitableitung
der Dichte verschwindet - was nicht bedeutet, dass die Dichte im gesamtem Fluid konstant ist. Dann ergeben
die Erhaltungsgesetze für Masse, Impuls und Energie die bekannten Navier-Stokes-Gleichungen inkl. der Kontinuitätsgleichung
ein System von vier nichtlinearen, partiellen Differentialgleichungen zweiter Ordnung für das dreidimensionale Geschwindigkeitsfeld
und den Druck als Funktionen von Ort und Zeit. Normal- und Tangentialgeschwindigkeiten an den Rändern des Ortsgebietes
komplettieren die Aufgabenstellung mit den daraus resultierenden Randbedingungen.
Eine wichtige Kennzahl für Strömungen ist die Reynoldszahl, die das Verhältnis von Reibung zu Trägheit definiert.
In der Diplomarbeit von Herrn Altmüller wird der Grenzfall beliebig kleiner Reynoldszahlen untersucht; sie stellen schleichende
Strömungen dar, also langsame und/oder sehr zähe Strömungen.
Bei der Quetschströmungen wird das Verhalten von Fluiden zwischen Wänden untersucht, die sich aufeinander zubewegen.
Diese Arbeit konzentriert sich auf eine ebene Quetschströmung, bei der sich die obere Platte mit konstanter Sinkgeschwindigkeit
gegen die zweite Platte bewegt, deren Kontur - mit gewissen Eigenschaften - als gewellt angenommen wird. Die obere Platte
wird dabei vereinfachend als Sieb modelliert, sodass die Höhe zwischen den Platten zeitabhängig dargestellt werden kann.
Aufgrund dieser Annahmen, insbesondere wegen des Grenzfalles beliebig keiner Reynoldszahlen und der Annahme einer ebenen Strömung,
reduziert sich das Ausgangsproblem über die Stokesgleichungen zu einer Bi-Laplace-Gleichung, einer elliptischen partiellen Differentialgleichung
4. Ordnung, für die Stromfunktion. Die Niveaulinien der Stromfunktion sind die Stromlinien, also die Tangentialkurven des Geschwindigkeitsfeldes.
Der Druck ist eliminiert. Durch Zerlegung der Stromfuktion in eine sogenannte Fern- und eine Nahfeldlösung, die sich in ihrem Einfluss
auf den Staupunkt unterscheiden, lässt sich die Bi-Laplace-Gleichung auf zwei einseitig entkoppelte Laplace-Gleichungen transformieren;
hier ist die Fernfeldlösung unabhängig von der Nahfeldlösung.
Als verwandtes Problem wird des Weiteren noch die Poiseuille-Strömung untersucht; sie wird durch den Druckgradienten angetrieben - hier durch Vorgabe des
Volumenstroms modelliert - und ist stationär. Auch hier werden nur ebene schleichende Strömungen zwischen einer ebenen oberen
und einer gewellten unteren Platte untersucht.
Auf beide Problemstellungen wird nun der auf M. Scholle (Habilitation, 2004) zurückgehende Lösungsweg angepasst, bei der die Stromfunktion
als Superposition holomorpher Funktionen dargestellt wird. Da holomorphe Funktionen bereits durch ihre Randwerte vollständig festgelegt sind,
gelingt die Reduktion der Fernfeldgleichungen mithilfe einer Diskretisierung durch Fourier-Reihen auf ein lineares Gleichungssystem zur Bestimmung
der Fourier-Koeffizienten. Ein wesentlicher eigenständiger Beitrag von Herrn Altmüller liegt in der Anpassung der Randbedingungen an diese
Vorgehensweise. Herrn Altmüller gelingt die Sichtbarmachung von Wirbeln, hervorgerufen durch die gewellte Bodenplatte. Überdies wurden diese
Berechnungen durch Finite-Element-Rechnungen mittels Comsol Multiphysics auf einem zweiten Weg bestätigt.
Des Weiteren wurden in umfangreichen Parameterstudien die Entstehung und Vermeidung von Wirbeln sowie bei der Quetschströmung
der Zusammenhang zwischen Plattenabstand und aufzubringender Kraft untersucht. Im Gegensatz zur Quetschströmung zwischen ebenen Platten zeigt sich,
dass die Wirbel wie Gleitlager wirken, sodass die aufzubrinende Kraft deutlich gegenüber ebenen Platten reduziert ist. Ein Vergleich mit
einer Störungsrechnung bestätigen diese Ergebnisse wiederum zusätzlich noch auf einem anderen Rechnungsweg.
In diesen Untersuchungen liegt ohne Zweifel großes Potential für technische Umsetzungen der theoretischen Erkenntnisse.
Studium: Technomathematik, TU Clausthal und U Bayreuth
Neben einem frühen Beispiel von Bryson und Ho (1975) mit regulären Teilbögen wird ein abstraktes Lebenszyklusmodell von Pohmer (1985) untersucht.
Hierbei werden Konsumrate und die Zeitanteile an Freizeit, Arbeitszeit und Ausbildungszeit optimal so gewählt, dass ein Nutzenfunktional maximiert wird.
Zustandsvariablen sind Humankapital und Geldvermögen. Die angenommenen Zinssätze spielen sowohl bzgl.ökonomischer Aspekte, als auch
hinsichtlich der mathematischen Analyse eine große Rolle. Bereits in Pohmer (1985) wurde das Problem bei identischen Zinssätzen für Anlagekapital
und Kredite untersucht. In der Realität werden jedoch häfig nicht vollständige Märkte mit unterschiedlichen Zinswerten beobachtet. In diesem
Fall treten die oben genannten neuartigen Phänomene, reguläre und singuläre Teilstücke, auf.
Als weiteres Beispiel wird ein Modell eines elektrischen Schaltkreises untersucht, bei dem die Schaltfunktion direkt von Zustand und Steuerung abhängt.
Dieses Beispiel lässt sich mit Hilfe eines Euler-Multiplikators weitestgehend analytisch lösen, genauer gesagt auf ein einfaches Nullstellenproblem
zurückführen.
Die notwendigen Bedingungen für diese Art von Optimalsteuerungsproblemen werden in dieser Arbeit gründlich analysiert und basierend auf dem Buch
von Vinter (2000) hergeleitet, wobei neue Beweise für zwei Lemmata von Du Bois-Raymond angegeben werden. Auch die Herleitung der Eulerschen
Gleichung gelingt Frau Fischer unter einer abgeschwächten Voraussetzung als im Buch von Vinter.
Verglichen mit den oben genannten Arbeiten von Oberle und Oberle und Rosendahl werden die dort getroffenen Annahmen bzgl. hinreichender Glattheit
der Modellfunktionen in dieser Diplomarbeit genauer spezifiziert, um das Minimum-Prinzip in der Formulierung von Vinter anwenden zu können. Im Fall
singulärer Teilbögen werden glatte Hilfsprobleme mit Zustandsbeschränkungen abgeleitet. Diese können durch totale Differentiation der Schaltfunktion
nach der Zeit und Substitution der rechten Seite der Differentialgleichungen vermieden werden; man erhält ein glattes Hilfsproblem mit einer gemischten
Beschränkung.
Die notwendigen Bedingungen führen im Allgemeinen auf Mehrpunkt-Randwertprobleme, die nur noch numerisch gel$ouml;st werden können. Hierzu bietet sich
die bewährte Mehrzielmethode an. Frau Fischer verwendete eine auf Hiltmann (1993) zurückgehende Implementierung, die auf früheren Implementierungen
von Bulirsch, Deuflhard und Oberle aufbaut. Auf Grund der oft geringen Ausdehnung der Konvergenzeinzugsgebiete der Mehrzielmethode mussten
Homotopieverfahren angewandt werden. Dieses Vorgehen ist typisch bei der Lösung von nichtlinearen Randwertproblemen mit Hilfe der Mehrzielmethode
und stellt einen gewissen Nachteil gegenüber direkten Verfahren dar, der aber zur Lösung der Problemstellungen dieser Diplomarbeit in Kauf zu
nehmen war, um präzise numerische Resultate hinsichtlich Schaltstruktur und Schaltpunkte zu bekommen.
Studium: 1. Mathematik mit Nebenfach Informatik und 2. Wirtschaftsmathematik, Universität Bayreuth
Vorbemerkung. Die Aufgabenstellung entstand in Kooperation mit der Firma inuTech GmbH, Nürnberg,
die einen kommerziellen FEM-Löser für partielle Differentialgleichungen vertreibt,
basierend auf einer C++ Klassenbibliothek zur Entwicklung numerischer Software.
Inhaltsangabe.
In dieser Arbeit wurde ein Verfahren zur Identifizierung des Diffusionskoeffizienten in parabolischen partiellen Differentialgleichungen untersucht.
Dabei wurden die zu bestimmende, ortsabhängige Parameterfunktion als Steuerung interpretiert und Methoden der Optimalen Steuerung angewandt,
um diese Funktion zu erhalten.
Ausgehend von einem Steuerung-Zustand-Operator wurden im Funktionenraum notwendige Optimalitätsbedingungen aufgestellt. Zu ihrer
Überprüfung müssen für eine gegebene Steuerung zwei parabolische Differentialgleichungen gel$ouml;st werden, die Zustandsgleichung
und die Adjungiertengleichung. Für die numerische Lösung dieser PDEs wurde die C++-Klassenbibliothek DIFFPACK verwendet,
die hierfür außerordentlich gute Dienste leistet. Die Implementierung des Lösers ist sehr nahe an der mathematischen schwachen
Formulierung, so dass hier keine zusätzliche Arbeit anfällt. Auch die Anbindung der Optimierungsroutinen stellt keine große
Schwierigkeit dar.
Die Kandidaten für eine Optimalsteuerung wurden mit einem Gradienten-Projektions-Verfahren bestimmt. Dieses weist den bekannten Nachteil
der langsamen Konvergenzgeschwindigkeit auf. Als Abhilfe wurden Konjugierte-Gradienten-Verfahren oder Quasi-Newton-Verfahren vorgeschlagen.
Eine Schwierigkeit bei der Bestimmung des Gradienten sind hier insbesondere auch numerische Fehler, gehen doch die Ableitung des Zustandes
und die Ableitung der Adjungierten in die Berechnung ein. Da beide nur als FEM-Approximationen vorhanden sind und ihre Ableitungen deshalb
an den Elementgrenzen unstetig sind, muss eine Glättung erfolgen. Hinzu kommen noch Fehler, die bei der numerischen Approximation des
Zeitintegrals unvermeidlich sind. Diese kann man jedoch durch ein hinreichend gutes Verfahren begrenzen.
Die Implementierung des Verfahrens wurde an verschiedenen Testbeispielen mit bekannten analytischen Lösungen verifiziert, und man sieht,
dass bei vertretbarer Rechenzeit zum Teil sehr gute Ergebnisse erhalten werden können.
Das Hauptproblem bei dem beschriebenen Ansatz ist jedoch, dass der Gradient des unregularisierten Zielfunktionals bei lokalen Extrema des Zustandes
Nullstellen besitzt. Hier kann mit einer passend gewählten Regularisierung Abhilfe geschaffen werden. Die in dieser Arbeit untersuchte
Regularisierung mit Hilfe der Norm der Steuerung ist jedoch nur eingeschränkt nützlich. Wesentlich bessere Resultate könnten mittels
einer Regularisierung mit der Seminorm, also einer Bestrafung der Größe der ersten Ableitung der Steuerung erzielt werden. Untersuchungen
dazu wären eine interessante Fortsetzung dieser Arbeit. Reizvoll wäre auch eine Erweiterung auf quasilineare Probleme, bei denen der
Diffusionskoeffizient vom Zustand abhängt.
Ein weiterer Punkt, der in Zukunft Aufmerksamkeit verdient, ist die Untersuchung von Zustandsbeschränkungen, die mathematisch sehr anspruchsvoll
ist. Auch effiziente Techniken zur Verringerung des Speicheraufwands - wie beschrieben muss zur Berechnung der Adjungierten die Lösung der
Zustandsgleichung gespeichert werden - sind eine interessante Erweiterung, genau wie die Verwendung adaptiver Gitter, um die Lösung der PDEs
genauer und schneller berechnen zu können.
Studium: Technomathematik, Universität Bayreuth
Inhaltsangabe.
Software zur numerischen Lösung partieller Differentialgleichungen wird mittlerweile in den Natur-, Ingenieur- und
Wirtschaftswissenschaften so häfig benötigt, dass eine Vielzahl von Firmen leistungsf$auml;hige und gut zu bedienende
Software kommerziell anbietet. Sie unterscheidet sich u.a. auch dadurch, dass sie mehr oder weniger flexibel auf
verschiedene Aufgabenstellungen mit partiellen Differentialgleichungen anwendbar ist. Die von der Firma inuTech GmbH,
Nürnberg, vertriebene Software DIFFPACK basiert auf einer C++ Klassenbibliothek zur Entwicklung numerischer Software
und bietet damit ein Höchstmaß an Flexibilität, erfordert jedoch vom Nutzer Kenntnisse in objektorientierter Programmierung.
Eine Vielzahl von bereits vorgefertigten Beispielen erleichtert allerdings den Einstieg.
Wie bei vielen praktischen mathematischen Aufgabenstellungen ist deren numerische Lösung oft nur der erste Schritt.
Danach will man häfig Freiheiten im Modell dahingehend auszunutzen, dass die Lösung der zugrundeliegenden mathematischen Aufgabe
nach gewissen Kriterien optimiert wird. Damit ist man bei Optimierungsaufgabenstellungen mit partiellen Differentialgleichungen
angelangt, also bei der Optimierung oder optimalen Steuerung von (dynamischen) Systemen, bei denen wesentliche Nebenbedingungen
durch partielle Rand- oder Anfangs-Randwertprobleme gegeben sind. Insbesondere das Gebiet der Optimalen Steuerung,
bei dem die Freiheit in optimal einzustellenden Funktionen liegt, die in die Differentialgleichungen oder die Randbedingungen eingehen,
ist eines der derzeit schwierigsten und hochaktuellen Gebiete der Angewandten Mathematik, das obendrein noch von großem wirtschaftlichen
Nutzen ist.
Die Diplomarbeit von Herrn Tomety liefert einen Beitrag zu diesem Gebiet, mit dem erstmalig das Softwarepaket DIFFPACK
bei der Lösung von Optimalsteuerungsproblemen mit partiellen Gleichungen zum Einsatz kommt.
Zunächst einmal sei bemerkt, dass es im Wesentlichen zwei Methoden zur numerischen Lösung von Optimalsteuerungsaufgaben mit
partiellen Differentialgleichungen gibt: 1.) Erst Optimieren, dann Diskretisieren; 2.) Erst Diskretisieren, dann Optimieren;
vgl. auch die Diplomarbeiten von Michael Perner und Stefan Wendl. In der Diplomarbeit von Herrn Tomety wird wie bei der
Diplomarbeit von Wendl nach der ersten Methode, auch adjungierten-basierte Methode genannt, vorgegangen. Diese Methode hat
Vorteile hinsichtlich Genauigkeit und Sicherheit der Lösung, insbesondere wegen der Möglichkeit der Überprüfung notwendiger
Optimalitätsbedingungen; sie ist überdies effizient hinsichtlich Rechenzeiten. Ihr Nachteil ist die hohe Hürde mathematischer
Kenntnisse, die man mitbringen muss. Diese liegt insbesondere in der Herleitung der sogenannten adjungierten Gleichung,
einer weiteren partiellen Differentialgleichungsaufgabe, deren Lösung die effiziente Berechnung des Gradienten der zu optimierenden
Zielfunktion nach den Optimierungsvariablen erlaubt. Dagegen ist die zweite Methode hinsichtlich Mensch-Maschine-Kommunikation
deutlich effizienter, dafür aber weniger sicher. Bei Problemen in zwei oder drei Raumdimensionen kommt man zudem schnell
an die Grenze des heute Rechenbaren.
Neben der Verwendung von DIFFPACK zur Lösung der partiellen Differentialgleichungen wird hier im Vergleich zur Diplomarbeit
von Wendl ein konjugiertes Gradientenverfahren nach Hager und Zhang eingesetzt. In der Beispielsammlung werden auch semi-lineare
Probleme, wie bei Perner und Wendl ausschließlich elliptische gel$ouml;st.
Nach einigen funktionalanalytischen Grundlagen wird die Theorie der Optimalen Steuerung von (semi-linearen) elliptischen
Differentialgleichungen zusammengefasst sowie auf diverse Optimierungsverfahren zu deren Lösung eingegangen, das
Gradienten-Projektionsverfahren, das CG-Verfahren nach Hager und Zhang sowie das CG-Projektionsverfahren, das von Herrn Tomety
entwickelt wurde, um die Vorteile der beiden zuvor genannten Verfahren zu vereinen. Eine Einführung in die Implementierung
von Finite-Element-Methoden mit DIFFPACK basierend auf schwachen Formulierungen der partiellen Aufgabenstellungen und
umfangreiche numerische Testrechnungen, die die Leistungsf$auml;higkeit des CG-Projektionsverfahrens belegen, beschließen diese Diplomarbeit.
Studium: Mathematik, U Bayreuth
Ohne die Vorbereitung durch die über drei Semester gehende Vorlesung Optimal Control of Partial Differential
Equations, die den Stand der Forschung auf diesem Gebiet nach dem Buch Optimale Steuerung bei partiellen Differentialgleichungen
von Prof. Fredi Tröltzsch, TU Berlin, darstellte, wäre diese, über das Übliche hinausgehende
Diplomarbeit nicht machbar gewesen, insbesondere da das für praktische Problemstellungen wichtige Teilgebiet der Optimalen Steuerung
bei partiellen Differentialgleichungen mit punktweisen Zustandsbeschränkungen nur andeutungsweise behandelt wurde.
Damit aber jeder der beiden Diplomanden sein eigenes Profil herausarbeiten konnte, sollten sie sich
auf zwei der drei wesentlichen Regularisierungsmethoden konzentrieren, die Moreau-Yosida-
und die Lavrentiev-Regularisierung. Insgesamt sollte aber eine gemeinsame Arbeit erstellt werden,
die die gemeinsam erstellten Teile und die individuellen Teile enthalten.
Ziel war es an den state of the art auf dem Gebiet der Zustandsbeschränkungen heranzuführen.
Inhaltsangabe.
Die Arbeit gliedert sich in 15 Kapitel, die ihrerseits in VII Teilen zusammengefasst sind.
Teil I stellt die Grundlagen bereit, wobei Dopplungen mit Tröltzschs Buch
weitgehend vermieden werden.
Zunächst werden die behandelten Modellprobleme dargestellt. Hier beschränken sich die Autoren
auf semilineare elliptische Probleme mit verteilten Steuerungen und Randsteuerungen, wobei erstere
aus Gründen der Beschränkung des Umfangs und der noch bestehenden Lücken bei Randsteuerungen
im Vordergrund stehen. Entscheidend bei den Modellproblemen ist die Einbeziehung
von gemischten Steuerungs-Zustandsbeschränkungen und (reinen) Zustandsbeschränkungen.
Der besseren Lesbarkeit wegen wird ein grundlegender Satz über die Existenz einer global optimalen Steuerung
für die drei behandelten Modellvarianten vorangestellt und auch bewiesen, da die dazu notwendigen Beweisideen
grundlegend für das Verständnis von Optimalsteuerungsaufgaben (mit partiellen Differentialgleichungen) sind.
In Teil II wird die Existenz von Lagrangemultiplikatoren diskutiert und Regularitätsaussagen sowie notwendige Bedingungen
erster Ordnung vorgestellt. Behandelt werden, wie oben bereits gesagt, gemischte Steuerungs-Zustandsbeschränkungen
und (reine) Zustandsbeschränkungen. Da diese Ergebnisse aus der Literatur bekannt sind, werden die Beweise nicht rekapituliert -
das hätte die Dimension der Arbeit auch gesprengt.
In Teil III werden dann für zustandsbeschränkte Optimalsteuerungsprobleme mit verteilter Steuerung die Lavrentiev-Regularisierung
(Michael Frey) und die Moreau-Yosida-Regularisierung (Simon Bechmann) ausführlich, auch mit den notwendigen Beweisen dargestellt und
diskutiert. Diese Regularisierungtechniken werden notwendig, um die ``unangenehmen'' Eigenschaften der zu den Zustandsbeschränkungen
gehörenden Lagrangeparameter weitgehend ``glatt zu bügeln'' und erfolgversprechende numerische Methoden zur expliziten Lösung
solcher Probleme zu ermöglichen.
Die Lavrentiev-Regularisierung (Frey) überführt das rein zustandsbeschränkte Problem in ein gemischt-steuerungs-zustandsbeschränktes Problem,
das von einem Parameter abhängt, der im Grenzfall gegen Null gehen muss, um (numerisch) eine Lösung des ursprünglichen Problems
zu erhalten. Das restringierte Problem bleibt also erhalten, der Lagrangeparameter wird aber regulärer.
Bei der Moreau-Yosida-Regularisierung (Bechmann) formuliert man dagegen ein unrestringiertes Problem durch Erweiterung des Zielfunktionals
mithilfe eines quadratischen Strafterms hinsichtlich der Verletzung der Zustandsbeschränkung. Hier muss im Grenzfall der Parameter
gegen unendlich gehen - mit allen damit verbundenen Schwierigkeiten - und definiert den sogenannten primal-dualen Pfad der parametrisierten unrestringierten Optimalsteuerungsprobleme.
Teil IV ist einer bestimmten, sehr wichtigen Klasse numerischer Lösungsverfahren gewidmet, der primal-dualen Mengenstrategie, die
global konvergiert und lokal superlinear konvergent ist. Diese Methode ist noch relativ jung, gehört zu den indirekten,
also auf notwendigen Bedingungen beruhenden Verfahren und wird in der aktuellen Literatur weitgehend bevorzugt (gegenüber z.B.
Inneren-Punkte-Methoden). Damit besteht auch gute Vergleichbarkeit der numerischen Resultate mit jenen aus der Literatur.
Individuell wurden die beiden Regularisierungsmethoden mit der primal-dualen Mengenstrategie verbunden.
In den Teilen V und VI werden schließlich die numerischen Experimente mit den beiden Regularisierungsmethoden dargestellt
und die beiden Methoden verglichen. Das Ergebnis: unentschieden, sowohl hinsichtlich guter numerischer Eigenschaften (Gitterunanhängigleit: beweisbar bei der Lavrentiev-Regularisierung - aber (leider) nur bei Abwesenheit expliziter Steuerungsbeschränkungen - bisher
nur numerisch beobachtbar bei der Moreau-Yosida-Regularisierung; superlineare Konvergenz), als auch hinichtlich noch vorhandener Defizite
(fehlende Konvergenzaussagen, aber praktische Wirksamkeit z.B. bei semilinearen Problemen, Frage nach optimalen Update-Strategien bzgl.
der Parameter). Bei letzterem hat die Lavrentiev-Regularisierung Vorteile.
Im Ausblick (Teil VII) werden Probleme mit Randsteuerungen skizziert - in der Arbeit selbst wird aber bereits immer wieder erwähnt,
wenn Ergebnisse für verteilte Steuerungen auf Randsteuerungen übertragbar sind - sowie auf ein drittes, ganz neue Konzept zur Regularisierung mithilfe sogenannter virtueller Steuerungen kurz eingegangen.
Simon Bechmann:
Studium: Lehramt für Gymnasien und Diplom, Mathematik, Physik, U Bayreuth
Michael Frey:
Studium: Lehramt für Gymnasien und Diplom, Mathematik, Physik, U Bayreuth
Zusammenfassung.
Diese Diplomarbeit bearbeitet die Problemstellung der optimalen Positionierung der Gelenkpunkte einer Fahrwerkachse zum Einstellen der kinematischen Kennwerte und somit der gewünschten fahrdynamischen Eigenschaften. Dazu wird die Response-Surface-Methode angewendet, um den Zusammenhang zwischen der Ausrichtung der Gelenkpunkte und den kinematischen Kenngrößen durch ein Ersatzmodell darzustellen und mit anschließender Optimierung eine optimale Achskonfiguration zu finden. Dabei werden die wichtigsten Einflussfaktoren auf die Qualität des Ersatzmodells, die ideale Versuchsmethodik (Design of Computer Experiments) sowie verschiedene Ansätze zur Erstellung eines Ersatzmodells und die Verwendung eines geeigneten Optimierungsalgorithmus untersucht.
Mit den steigenden Anforderungen bei der Entwicklung neuer Pkw-Fahrwerke vergrößerte sich in den letzten Jahren der Einsatz
an computergestützten Simulationswerkzeugen. Die virtuelle Produktentwicklung wurde in den Entwicklungsprozess integriert, bei dem alle Aspekte betrachtet werden, die für das Fahrverhalten relevant sind. Die Simulation bietet die Möglichkeit, neue Konzeptideen sowie bereits vorhandene Achssysteme zu validieren und zu verbessern.
Im Rahmen der virtuellen Produktentwicklung eines Fahrwerks werden zunächst die charakteristischen fahrdynamischen Eigenschaften des Fahrzeugs definiert. Diese setzen sich in der Regel aus den Eigenschaften des Vorgängermodells unter Einbeziehung von Verbesserungspotentialen und marktstrategischen Motiven zusammen. Aus diesen Eigenschaften werden Zielwerte für Kinematik, Elastokinematik und Lastverhalten des Fahrwerks abgeleitet, welche die Basis für die Geometrieauslegung des Achssystems sind und die Fahrdynamik im Wesentlichen beeinflussen. Die Randbedingungen ergeben sich aus den bauraumtechnischen Vorgaben des Entwicklungsingenieurs sowie aus den strategischen Überlegungen, wie beispielsweise die Verwendung von Gleichteilen, um Entwicklungsarbeit und -kosten einzusparen.
Um ein Fahrwerk den Anforderungen entsprechend zu konstruieren, muss der Entwicklungsingenieur die veränderbaren Designparameter so wählen, dass ein oder mehrere Antwortgrößen einen gewissen Zielwert erreichen oder sich innerhalb eines vordefinierten Intervalls befinden. Dieser Prozess beruhte bisher häufig auf Erfahrungswerten und Trial-and-Error-Methoden. Das Problem, ein geeignetes Design einer Achskinematik zu finden, lässt sich als mathematisches Optimierungsproblem formulieren.
Der Funktionszusammenhang, in dem Designparameter und Antwortgrößen stehen, lassen sich mit verschiedenen Analysetools berechnen. Diese Analysetools beinhalten oftmals keine explizite Funktion zur Berechnung der Antwortgrößen und werden daher im Folgenden als ``Black Box'' bezeichnet. Da eine Optimierung unter Umständen sehr viele Aufrufe benötigt und eine Berechnung sehr lange dauern kann, liegt es nahe, Analyse und Optimierung zu trennen. Mittels geeignet gewählter und ausgewerteter Samplepunkte soll im Designraum ein mathematisches Ersatzmodell erstellt werden, das anstelle der ursprünglichen Funktion eine Approximation der wahren Antwortgröße liefert. So kann der Funktionswert auch an Stellen ermittelt werden, die nicht vorher mittels eines aufwändigen Berechnungsaufrufes einer Black Box bestimmt wurden. Dies hat den Vorteil, dass während der Optimierung kein Aufruf des Analysetools mehr erfolgen muss. Des Weiteren lässt sich so auf wechselnde Optimalitätskriterien und Nebenbedingungen schnell reagieren. Der Entwicklungsingenieur kann nach einem Optimierungsprozess sehr leicht Einfluss auf sein gewünschtes Ergebnis nehmen, indem er beispielsweise Nebenbedingungen lockert oder verschärft und eine erneute Optimierung durchführt.
Diese deutlich schnellere und robustere Möglichkeit der multidisziplinären Designoptimierung wird als Response-Surface-Methode (RSM) bezeichnet. Äquivalente Begriffe in der Literatur sind Metamodellierung und Surrogate Modelling. Ein weiterer Vorteil dieser Methode ist, dass sie Aufschluss über den gesamten Designraum liefert. In der Literatur lassen sich mehrere sequentielle Methoden finden, die diesen Vorteil nicht beinhalten. Diese Methoden suchen lediglich in einem verkleinerten Definitionsbereich nach einem optimalen Design und verschieben diesen Bereich nach jedem Schritt in Richtung Optimum. Dabei wird iterativ zwischen Funktionsauswertungen der Black-Box-Funktion und Ersatzmodellbildung gewechselt. Oftmals sind
für den Entwickler allerdings genau diese Einblicke in den gesamten Designraum entscheidend, um Funktionszusammenhänge zu überschauen und Einsparpotentiale zu erkennen.
Die Vorgehensweise mittels der Response-Surface-Methode lässt sich im Wesentlichen in fünf Schritte unterteilen, die sich mit unterschiedlichen mathematischen Verfahren realisieren lassen:
Zum Abschluss der Arbeit wird anhand der Ergebnisse ein Fazit über Vorteile und mögliche Probleme dieser Vorgehensweise sowie ein Ausblick und Weiterentwicklungsmöglichkeiten gezogen. Unterstützt werden die Ergebnisse durch Beispiele aus der Praxis, die an jeweils passender Stelle in der Arbeit angeführt werden.
Studium: Technomathematik, U Bayreuth
Inhaltsangabe.
In our days, we act from the assumption that the greenhouse effect is a due to anthropogenic release of CO2
into the atmosphere. Hence, one possible way to retard the greenhouse effect is reducing the CO2 release
by injecting it as an aqueous phase into deep geological formations with regard to a long-term storage. Those storage
processes can be simulated with reactive transport modelling.
Reactive transport modelling is an interdisciplinary part of mathematical modelling. Applications can be found in several
domains especially in earth sciences where coupled physical, chemical and biological processes appear within advective-diffusive transport. On the one hand, those models are very powerful because they can describe real phenomena
on a high level. On the other hand, the complexity makes it hard to explain the numerical behaviour. As a consequence,
many efforts have been put in the improvement of power and performance of numerical approximations.
In this Diploma thesis we present a fully coupled non-linear reactive-transport system which models an advective and
diffusive transport process coupled with a chemical equilibrium system modelled by a non-linear system of equations.
Studium: Technomathematik, U Bayreuth
Zusammenfassung:
Reactive transport modelling is a basic tool to model chemical reactions andflow processes in porous media. A totally
reduced multi-species reactive transport model including kinetic and equilibrium reactions is presented. A structured
numerical formulation is developed and different numerical approaches are proposed. Domain decomposition methods offer
the possibility to split large problems into smaller subproblems that can be treated in parallel. The class of Schwarz-type
domain decomposition methods that have proved to be high-performing algorithms in many fields of applications is presented
with a special emphasis on the geometrical viewpoint. Numerical issues for the realisation of geometrical domain decomposition methods and transmission conditions in the context of finite volumes are discussed. We propose and validate numerically a hybrid finite volume scheme for advection-diffusion processes that is particularly well-suited for the use
in a domain decomposition context. Optimised Schwarz waveform relaxation methods are studied in detail on a theoretical and numerical level for a two species coupled reactive transport system with linear and nonlinear coupling terms. Wellposedness and convergence results are developed and the influence of the coupling term on the convergence behaviour of the Schwarz algorithm is studied. Finally, we apply a Schwarz waveform relaxation method on the presented multi-species reactive transport system.
Kommentar zum Studium in einer Email vom 9.11.2008: Nach meinem Studium bereue ich es nicht, mich bewusst
für Technomathematik und nicht für reine Mathematik entschieden zu haben. Mein besseres Verständnis bei Anwendungsfragen, das ich unter anderem in den Ingenieurwissenschaften erhalten habe, hilft mir in meinem neuen Umfeld enorm. Desweiteren habe ich die Erfahrung gemacht, dass die Industrie und Forschung händeringend nach Mathematikern sucht, die eben dieses Verständnis mitbringen.
Und in seiner Email vom 6.2.2012: Nachdem ich dreieinhalb Jahre Frankreich und Paris auskosten konnte, hat es mich wieder nach Deutschland zurückgezogen. Ich habe deswegen frühzeitig nach Jobs Ausschau gehalten und habe auch eine interessante Stelle gefunden: Seit Dezember arbeite ich als Projektmanager Forschung und Entwicklung im Energiesektor und beschäftige mich jetzt mit der numerischen Modellierung und Simulation von Strömungs- und
Diffusionsvorgängen. Auch hier kann ich wieder meinen "Joker" als Allroundtalent ausspielen, den ich während
des Technomathematikstudiums erhalten habe.
Ziel der Arbeit war es, für Optimalsteuerungsprobleme mit (semi-)linearen parabolischen partiellen Differentialgleichungen eine sogenannte direkte (adjungiertenfreie) Methode zu entwickeln, die DIFFPACK
mit zwei sehr leistungsfähigen Lösern für große endlichdimensionale, restringierte, nichtlineare
Optimierungsprobleme koppelt. Beide Verfahren sind Innere-Punkte-Methoden und eignen sich besonders gut für
nichtlineare Optimierungsprobleme mit einer großen Anzahl von Optimierungsvariablen und Nebenbedingungen.
Zum einen ist dies das Softwarepaket IPOPT (Interior Point Optimizer) von A. Wächter und L. Biegler,
Carnegie Mellon University (2003). IPOPT basiert auf einem primal-dualen Innere-Punkte-Algorithmus mit Filter-Line-Search.
Zum anderen ist dies das Softwarepaket SCPIP (Sequential Convex Programming Interior Points) von C. Zillober
und K. Schittkowski, Universität Bayreuth (2005). SCPIP kombiniert ein Innere-Punkte-Verfahren mit der Methode
der beweglichen Asymptoten und sequentieller konvexer Optimierung.
Zusammenfassung.
Nach einer ausführlichen Einleitung und der Bereitstellung des benötigten Hintergrundwissens
zu schwachen Formulierungen von Anfangs-Randwertaufgaben für (semi-)lineare parabolische Differentialgleichungen
werden die verwendeten Diskretisierungsverfahren vorgestellt (Kapitel 1 -4). Herr Loos geht nach der
Rothe-Methode vor, semidiskretisiert also die parabolische Differentialgleichung erst nach der Zeit. Hierfür wird das bekannte Zweischichtschema
nach der $\theta$-Regel verwendet, das ja bekanntlich sowohl das explizite, als auch das
implizite Euler-Verfahren und das Crank-Nicolson-Schema einschließt. Die Ortsdiskretisierung der in jedem Zeitschritt
zu lösenden stationären elliptischen Probleme erfolgt dann mithilfe von Finite-Element-Methoden. Letztendlich
resultiert diese Diskretisierung in der Anforderung der Lösung eines sehr großen - je nach Aufgabenstellung - (nicht-)linearen Gleichungssystems.
Herr Loos beschränkt sich in seiner Arbeit auf die aus praktischer Sicht wichtige Klasse von Optimalsteurungsproblemen
mit Randsteuerungen. Optimierungsvariable sind demnach lediglich die diskreten Werte der Steuerungen auf dem Rand
des Definitionsbereiches des Problems. Die partiellen Differentialgleichungen werden dann mithilfe der oben genannten
Diskretisierungsmethoden und mit Unterstützung durch die Klassenbibliothek DIFFPACK numerisch gelöst.
Von DIFFPACK werden dann die beiden in Konkurrenz stehenden Innere-Punkte-Verfahren aufgerufen. Die Berechnung
der Gradienten erfolgt (aufwändig) mithilfe von Finiten Differenzen. (Hier könnte als Fortführung der Arbeit
von Herrn Loos einmal der Einsatz von Methoden des automatischen Differenzierens getestet werden.)
Den Kern des theoretischen und informatischen Teils der Arbeit bilden dann Kapitel 5 mit einer sehr ausführlichen
Darstellung der beiden Optimierungslöser IPOPT und SCPIP sowie Kapitel 6 mit der Darstellung der Implementierung der eingesetzten Diskretisierungsverfahren mithilfe von DIFFPACK.
In Kapitel 7 erfolgt dann der Vergleich der Optimierungsverfahren anhand von fünf Testbeispielen, die sowohl
ein- wie auch zweidimensionale Ortsbereiche bzw. lineare und nichtlineare Randbedingungen aufweisen. Bei einigen
Beispielen sind analytische Lösungen bekannt, bei anderen nur Referenzlösungen aus der Literatur (Mittelmann, Tröltzsch, Rund, Wachsmuth u. a.).
Als Ergebnis ergibt sich eine eindeutige Überlegenheit des Verfahrens IPOPT hinsichtlich Schnelligkeit
in Relation zur Güte der Approximation, wobei für ein Beispiel keine Übereinstimmung der in dieser Arbeit
berechneten Lösung mit der in der Literatur publizierten Lösung nachgewiesen werden konnte. Hier besteht weitgehend
Unklarheit über das ``Warum?''.
Dass sich bei diesem Vergleich IPOPT gegenüber SCPIP überlegen zeigt, könnte an der speziellen
Struktur der entstehenden endlichdimensionalen Optimierungsprobleme liegen: Bei der in der Diplomarbeit von Herrn Loos
verwendeten Vorgehensweise geht alle Information in das Zielfunktional ein, aber keinerlei Information in die Nebenbedingungen. Damit hält er die Zahl der Optimierungsvariablen zwar klein, verhindert so aber möglicherweise,
dass SCPIP seine Überlegenheit bei einer Vielzahl von Nebenbedingungen ausspielen kann. (Auch hier wäre
eine Fortsetzung der Diplomarbeit von Herrn Loos denkbar, bei der die diskretisierten partiellen Gleichungen als Nebenbedingungen eingehen, auch wenn dadurch die Zahl der Optimierungsvariablen aufgebläht wird.)
Insgesamt kann man feststellen, dass (wegen der Glättungseigenschaft parabolischer Gleichungen) bereits
relativ grobe Diskretisierungen für eine erstaunlich genaue Approximation der optimalen Steuerung und des
Zielfunktionalwertes ausreichen. Auch das Optimierungsverfahren SCPIP liefert mit Ausnahmes eines Beispiels
ebenfalls korrekte Ergebnisse. Ein Grund hierfür ist in der Arbeit angegeben.
Damit wird der prinzipielle Nachteil Direkter Methoden, die fehlende näherungsweise Überprüfung der notwendigen Optimalitätsbedingungen im Funktionenraum, durch die deutlich geringeren Forderungen an Vorkenntnissen
und die dadurch bedingte deutlich einfachere Handhabung bei allerdings hohem Rechenaufwand wegen der Approximation
der Gradienten aufgewogen. Zusammenfassend sieht man jedoch, dass der Rechenaufwand bei feiner Diskretisierung
selbst für diese relativ einfachen akademischen Beispiele enorm steigt - und daher gegen den geringen Aufwand
für die Ausbildung eines Anwenders dieser Methode verrechnet werden muss. Derzeit kommt man unabhängig vom verwendeten Verfahren mit Blick auf anspruchsvolle Anwendungsprobleme noch immer sehr schnell an die Grenzen der
Rechenbarkeit, sei es wegen des Aufwandes zur Aufstellung der adjungierten Gleichungen bei den sogenannten indirekten Methoden oder beim Rechen- und Speicheraufwand bei den direkten Methoden.
Studium: Mathematik (NF Informatik), U Bayreuth
Die Transkription des unendlich-dimensionalen Optimalsteuerungsproblems auf ein Problem der nichtlinearen
Programmierung erfolgt mithilfe der Modellierungssprache AMPL, die die effiziente automatische Differentiation
der diskretisierten partiellen Differentialgleichung gewährleistet. Das große resultierende nichtlineare Programm wird dann mit der Inneren-Punkt-Methode IPOPT von Wächter und Biegler gelöst.
Die numerischen Resultate anhand von akademischen Beispielproblemen, die allesamt eine analytische Lösung
besitzen, belegen, dass die Kombination Rechtecks bzw. Sehnentrapezregel mit der Methode von Crank-Nicolson
die besten Ergebnisse liefert. Die Kombination der Methode von Crank-Nicolson mit der Regel von Simpson
ist nicht zu empfehlen. Zusätzlich wird mithilfe der diskreten Adjungierten, die von IPOPT
geschätzt werden können, die Güte der Approximation der notwendigen Bedingungen validiert,
um die Zuverlässigkeit des hier verwendeten Zugangs im Gegensatz zum Zugang First optimize, then discretize zu erhöhen.
Leider lässt sich nicht feststellen, welcher Integrationsmethode zur numerischen Lösung der
kontinuierlichen adjungierten partiellen Gleichung die Schätzung der diskreten Adjungierten in IPOPT
entspricht, um neue Resultate von Hager bzgl. der korrekten Wahl der Integrationsverfahren für die
Zustands- und die Adjungiertengleichungen bzw. bzgl. der Vertauschbarkeit der Operatoren optimize
und discretize von Vexler anwenden zu können.
Studium: Mathematik mit Nebenfach Informatik, U Bayreuth
Zusammenfassung.
Sobald eine mechanische Konstruktion einer zyklischen, zeitlich veränderlichen Belastung unterworfen ist,
muss zur Sicherung der Stabilität des Bauteils eine sogenannte Modalanalyse durchgeführt werden.
Dabei werden die Eigenfrequenzen der Konstruktion berechnet. Liegt die anregende Kreisfrequenz unterhalb
der kleinsten Eigenfrequenz, ist eine statische Belastungsanalyse ausreichend. Wird jedoch die kleinste Eigenfrequenz
exakt getroffen oder überschritten, können zerstörerische Schwingungen am Bauteil auftreten.
Die statische Finite-Element-Analyse, mithilfe derer die partiellen Differentialgleichungen der Kontinuumsmechanik
näherungsweise gelöst werden, stellt im Wesentlichen bereits alle benötigten Informationen bereit, um das
erforderliche Eigenwertproblem zur Bestimmung der Eigenfrequenzen zu lösen. Da die Matrizen i.Allg. sehr groß
sind, muss man spezielle Eigenwertlöser für große algebraische Eigenwertprobleme verwenden.
Konkret zu lösen ist ein verallgemeinertes Eigenwertproblem, in das die symmetrischen Steifigkeits- und Massenmatrizen
der Finite-Element-Analyse eingehen. Die Massenmatrix ist abhängig vom verwendeten Finite-Element-Typ und muss i.Allg.
durch numerische Quadratur berechnet werden. Durch eine Cholesky-Zerlegung der Steifigkeitsmatrix und einer
anschließenden Koordinatentransformation lässt sich dann das verallgemeinerte Eigenwertproblem
auf ein sehr großes symmetrisches Standard-Eigenwertproblem transformieren.
Zur Lösung dieses Eigenwertproblems bietet sich die Klasse der Lanczos-Verfahren an, die auf Arbeiten
von Cornelius Lanczos (1893-1974; 84), einemösterreichisch-ungarischen Mathematiker und Physiker,
aus dem Jahre 1950 zurückgehen und die bis in die heutige Zeit immer wieder modifiziert und verbessert wurden.
Sie gehören der Klasse der Krylov-Unterraum-Methoden an (nach Arbeiten von Alexei Krylov (1863-1945; 82)
aus dem Jahre 1931, einem russischen Marineingenieur und angewandten Mathematiker). Dabei wird sukzessive
durch Matrix-Vektor-Multiplikationen mit der unveränderten Ausgangsmatrix eine Folge von orthogonalen Vektoren erzeugt,
mit denen sich eine zur Ausgangsmatrix ähnliche Tridiagonalmatrix aufbauen lässt. Deren Eigenwerte lassen sich
bekanntlich durch Sturmsche Ketten effizient und höchstgenau berechnen. Wesentlich bei dem Verfahren
insbesondere mit Blick auf große Matrizen ist, dass bei sorgfältiger Re-Orthogonalisierung der i.Allg. durch
Rundungsfehler verlorengegangenen Orthogonalität der Krylov-Vektoren bereits ein deutlich vorzeitiges Ende
der endlichen Folge von Tridiagonalmatrizen ausreichend genaue Approximationen der kleinsten Eigenwerte liefert,
weit vor der Zahl, die der Dimension der Matrizen entspricht.
Dieses Verfahren wurde in C implementiert, wobei insbesondere aus Kompatibilitäts- und Effizienzgründen
spezielle im Finite-Element-Löser Z88 verwendete Speicherstrukturen für dünnbesetzte Matrizen
zur Anwendung kommen mussten. Neben einem Standardbeispiel der FEM-Analyse, dem Schraubenschlüssel, wurden
auch konkrete Bauteile des Rennwagens FR8 Chromo des Elephant-Racing-Teams der Universität Bayreuth untersucht.
Zur Absicherung des entwickelten Verfahrens wurden kleinere Probleme (Dimension ca. 5600) mit dem Eigenwertlöser
aus MATLAB verglichen. Die größten untersuchten Probleme waren von der Dimension ca. 68000.
Studium: Technomathematik, U Bayreuth
Hintergrund, Aufgabenstellung und Zusammenfassung.
Die Entwicklung von Energie- und Wärmespeichern gewinnt zunehmend an Bedeutung, insbesondere da in vielen industriellen
Prozessen Abwärme als unvermeidbares Nebenprodukt auftritt, welches nicht immer an Ort und Stelle genutzt werden kann.
Gleichzeitig mögen andere technische Verfahren gerade diese Wärme benötigen, wo aber eine Nahwärmeleitung zu unrentabel
wäre. Hier bietet sich der Transport der überschüssigen Abwärme mithilfe mobiler Speicher an.
Die Speicherung der thermischen Energie kann zum Beispiel in sogenannten Latentwärmespeichern erfolgen, die den Vorteil haben,
auf der Straße transportierbar zu sein. Die Funktion dieser Speicher beruht hauptsächlich auf der Bindung und Freisetzung
der Phasenänderungsenergie beim Schmelzen bzw. Erstarren des Speichermediums. Bewährt haben sich hier zum Beispiel Parafine.
Diese sind in einem isolierten zylindrischen Rohr eingeschlossen, durch das mittig ein Wärmeträgerrohr fließt und durch
welches erhitztes Wasser geführt wird.
Nach einer ausführlichen Einleitung in die ingenieurtechnischen Hintergründe der mobilen Wärmespeicherung wird nach den Grundlagen
der Thermodynamik das mathematische Modell entwickelt. Grundlage des Modells ist natürlich die aus Symmetriegründen
zweidimensionale Wärmeleitungsgleichung, hier in Zylinderkoordinaten. Neben der Wärmeleitung im sogenannten Phasenübergangsmaterial
müssen aber auch Konvektionsaspekte im Wärmeträgermaterial berücksichtigt werden, hier durch die eindimensionale Konvektionsgleichung,
ebenfalls in Zylinderkoordinaten. Der Übergang zwischen Innen- und Außenrohr wird durch Newtonsche Randbedingungen beschrieben:
Der Temperaturgradient in radialer Richtung ist proportional zur Temperaturdifferenz der beiden Medien. Homogene Neumannsche Randbedingungen
(Isolation) am Außenrohr, eine Dirichletsche Randbedingung am Einlass des Innenrohrs und eine weitere homogene Neumannsche Randbedingung
am Auslass des Innenrohr komplettieren das Grundmodell.
Wesentliches Element zur Beschreibung des Phasenübergangs im Phasenübergangsmaterial ist eine zusätzliche Stefan-Bedingung im Inneren des Außenrohrs, da Temperatur und innere Energie phasenabhängig sind. Denn bis zum Zeitpunkt, an dem der Phasenübergang abgeschlossen ist
und die Temperatur des Stoffes weiter steigen kann, wird die Temperatur in Form von latenter Wärme im Innern des Mediums gespeichert.
Die Wärmeleitungsgleichung gilt zwar jeweils in den einzelnen Phasen, nicht jedoch an der Phasengrenze. Die Kopplung der beiden Bereiche
erfolgt dann durch die oben genannte Stefan-Bedingung.
Diese bewegliche Phasengrenze muss natürlich bei der numerischen Diskretisierung, hier mithilfe Finiter Volumenmethoden berücksichtigt werden.
In der Diplomarbeit von Frau Vasold wird eine sogenannte Enthalpie-Methode mit festen Gittern, entnommen aus der Literatur, umgesetzt.
Das nach Diskretisierung entstehende nichtlineare Gleichungssystem wird mit einem gedämpften Newtonverfahren gelöst.
Umfangreiche Simulationsrechnungen zur Berechnung des Temperaturverlaufs im Speichermedium und der Bewegung der Phasengrenze sowie
Parameterstudien zur Abschätzung geometrischer und betriebstechnischer Parameter beschließen die Arbeit, die in einem nachfolgenden
Ausblick noch die Notwendigkeit der Erweiterung des Modells hinsichtlich freier Konvektion im Speichermedium erörtert.
Ohne Zweifel bietet diese Problemstellung überdies noch vielfältige weitere Mäglichkeiten sowohl der ingenieurwissenschaftlichen
als auch der mathematischen Forschung, zu denen Frau Vasold mit ihrer Diplomarbeit den Weg bereitet hat.
Studium: Technomathematik, U Bayreuth
In der Diplomarbeit von Herrn Witzgall sollte ein entscheidender Teilaspekt näher untersucht werden,
die instationäre aerothermische Aufheizung des Flugzeugsrumpfs, genauer des bei hohen Geschwindigkeiten
unerlässlichen Hitzeschutzschildes. Auf der Basis eines Anfang der 1990er Jahre an der Technischen
Universität München im SFB 255 unter Federführung von Prof. G. Sachs, dem ehemaligen Inhaber
des Lehrstuhls für Flugsystemdynamik, entwickelten Modells für die Unterstufe eines zweistufigen
Raumtransportersystems, dem sogenannten Sänger II, und einer Reihe von an diesem Lehrstuhl bearbeiteten Dissertationsprojekten (R. Baier, M. Dinkelmann, M. Wächter) sollte in dieser Diplomarbeit das gesamte
komplexe mathematische Modell in kompakter Form und mit allen Daten zusammengestellt und Flugbahnen
für den Hyperschallbereich berechnet werden.
Mathematisch handelt es sich dabei um eine extrem anspruchsvolle Aufgabe aus der Optimalen Steuerung
von gekoppelten dynamischen Systemen aus gewöhnlichen und einer quasilinearen parabolischen
Gleichung. Während die gewöhnlichen Differentialgleichungen die Dynamik des Fluges
beschreiben - hier eines Fluges entlang eines Großkreises in einer vertikalen Ebene -
modelliert die partielle Differentialgleichung die Aufheizung des Flugzeuges aufgrund der
hohen Geschwindigkeiten. Wie üblich in der Flugbahnoptimierung gehen die Nebenbedingungen
für die Flugdynamik einher mit einer Reihe von Steuerungs- und Zustandsbeschränkungen.
Entscheidend für die Komplexität der hier vorliegenden Aufgabenstellung ist jedoch
die durch die Aufheizung induzierte neue Art von Zustandsbeschränkung an die partielle Variable,
die Temperatur des Hitzeschutzschildes. Dadurch dass nur die gewöhnlichen Zustandsvariablen
über die nichtlinearen Randbedingungen der parabolischen Gleichung in die Aufheizungsbegrenzung
eingehen, kann die Einhaltung einer Höchsttemperatur nur indirekt durch die Steuerungen des Flugzeugs beeinflusst werden. Die Zustandsbeschränkung an die partielle Zustandsvariable
koppelt demzufolge erst das gewöhnliche System einseitig mit der partiellen Gleichung.
Die Komplexität der Aufgabe erlaubt nur numerische Berechnungen. In der Tat haben
durch diese Aufgabe inspirierte aktuelle Forschungen zu "extrem einfachen"
akademischen Aufgaben, die gerade noch physikalisch sinnvoll interpretierbar sind und eine
vergleichbare Kopplungsstruktur wie das Hyperschallproblem haben, gezeigt, dass die Kopplung von
gewöhnlichen und partiellen Differentialgleichungen unerwartete versteckte Schwierigkeiten
in den Optimalitätsbedingungen nach sich zieht, die dann selbst für dieses sogenannte
"hypersonische Raketenauto" nur die Anwendung der Methode "First discretize,
then optimize" zulassen. Diese Methode wurde dann auch hier verwendet. Nach Semidiskretisierung der partiellen Gleichung mithilfe einer Finite-Volumen-Methode wird damit das gekoppelte
gewöhnlich-partielle Optimalsteuerungsproblem zunächst in ein großes gewöhnliches
Optimalsteuerungsproblem transformiert und dann mithilfe eines Direkten Kollokationsverfahrens
nach O. Stryk in ein nichtlineares restringiertes Optimierungsproblem überführt, das letztendlich mit einem Sparse-SQP-Verfahren nach P. Gill numerisch gelöst wird.
Herr Witzgall hat im ersten Kapitel das gesamte Modell in kompakter Form (auf 32 Seiten!) zusammengestellt. Dazu mussten verschiedene Literaturquellen zu Rate gezogen, Fehler korrigiert
und zum Teil Daten aus den Quellcodes rekonstruiert werden.
Herr Witzgall hat sodann eine saubere Implementierung und Kommentierung, die nahezu einer
Neuprogrammierung des verschachtelten und undokumentierten Quellcodes gleich kam, durchgeführt
und anschließend in einem wichtigen Spezialfall optimale Flugbahnen für einen
treibstoffminimalen Reichweitenflug über 9000 km berechnet. Die numerischen Resultate wurden zudem eingehend diskutiert und in einem kritischen Ausblick bewertet.
Die Arbeit ist geradezu idealtypisch für eine Diplomarbeit in Technomathematik, wo
mathematische, informatische und ingenieurwissenschaftliche Fähigkeiten zusammenfließen müssen,
um dieses komplexe Problem mit modernen Methoden der numerischen Mathematik zu lösen.
Studium: Technomathematik, U Bayreuth
Inhaltsangabe.
Nach einer kurzen Zusammenfassung der Ergebnisse der für die Arbeit benötigten Optimalitätssysteme beschreibt Herr Heller zunächst die alternierende Schwarz-Methode
von H.A. Schwarz aus dem Jahre 1870. Diese Methode wurde seinerzeit entwickelt, um das Dirichlet-Prinzip
auf allgemeinere Gebiete zu übertragen; sie wurde ursprünglich nur als Beweistechnik ersonnen,
eignet sich jedoch auch als sequentielles numerisches Verfahren und erlaubt darüber hinaus,
durch eine einfache Modifikation eine parallele Variante herzuleiten. Ihre Konvergenzeigenschaften
werden aus der Literatur zitiert. Bei einer geringen Anzahl von Teilgebieten stimmen die Iterierten
bei alternierender und paralleler Schwarz-Methode in vielen Schritten überein, so dass
aus theoretischer Sicht eine Parallelisierung mit vielen Teilgebieten reizvoll scheint.
Danach werden verschiedene diskrete Varianten der Schwarzschen Methode beschrieben: die multiplikative,
die additive und die restringiert additive Schwarz-Method. Sie alle basieren auf algebraischen Umformungen
der nach Diskretisierung resultierenden linearen Gleichungssysteme unter Verwendung von geeigneten Restriktionsmatrizen zur Partitionierung der Lösungsvektoren. Analogien zu den kontinuierlichen
Schwarz-Methoden werden aufgezeigt. Da die additive Schwarz-Methode zwar parallelisiert werden kann,
im Allgemeinen jedoch nicht konvergiert, wird letztendlich auch noch die restringiert additive Schwarz-Methode
vorgestellt, deren Konvergenzeigenschaften in der Literatur nachgewiesen wurden.
Bereits in seiner Analyse der Ergebnisse aus der Literatur zeigt Herr Heller auf, dass die klassischen Schwarz-Methoden mit zu vielen Einschränkungen und zu geringer Effizienz zu kämpfen haben,
um sich für die Praxis zu empfehlen. Dahingegen liefern die optimierten Schwarz-Methoden aus neuerer Zeit
durchaus sinnvolle Algorithmen für den praktischen Einsatz. Die besten Verfahren konvergieren
sogar nach J-Schritten, wenn J die Zahl der Teilgebiete der Zerlegung bezeichnet; sie werden
damit zu direkten Lösern. Ihre Einbeziehung in die Diplomarbeit hätte allerdings den zeitlichen Rahmen
gesprengt.
Bis hierher besteht nun aber durchaus noch die Hoffnung, dass die parallele kontinuierliche Schwarz-Methode
einen Gesamtiterationsschritt (d.h. eine Lösung auf allen Teilgebieten) aufgrund der Parallelisierung schneller berechnet als die alternierende kontinuierliche Schwarz-Methode. Erst im Verlauf der numerischen Experimente zeigt sich, dass wegen ineffizienten Implementierungsmöglichkeiten die Gesamtschritte
in der parallelen Methode deutlich länger rechnen und zudem noch schlechtere Konvergenzeigenschaften
zeigen. Zusätzlich erkennt man, dass der bei Verwendung eines Black-Box-Finite-Element-Lösern entstehende Overhead durch mehrfache Berechnung weitgehend gleicher Probleme (z.B. wegen der erneuten Triangulierung der immer gleichen Teilgebiete) nicht zu vermeiden ist.
Das logistische Testbeispiel offenbart wegen seiner Nicht-Linearität eine Besonderheit, die
bei der Verwendung von COMSOL (auch ohne Verwendung einer Schwarz-Methode) zur Lösung des Optimalitätssystems zu einem falschen Ergebnis führt, da der Steuerungsterm für die standardmäßig gewählte Nulllösung als Startwert wegfällt. Hier muss man also
eine geeignete Startlösung vorgeben und ein gewisses Maß an Vorwissen einbringen.
Die klassische alternierende Schwarzmethode zeigt die erwartete langsame Konvergenz. Die parallele Implementierung offenbart darüber hinaus noch weitere Schwachstellen: Neben der mühseligen Implementierung für mehrere Teilgebiete ist der enorme Anstieg der benötigten Menge an Daten
und Dateien und die sogar noch schlechtere Konvergenz bei mehr als zwei Teilgebieten von großem Nachteil.
Auch die Tatsache, dass auf jedem Prozessor ein eigener COMSOL-Prozess gestartet werden muss,
dass zudem Instabilitäten beim Aufruf von COMSOL zu verschwendeten Iterationen führen,
dass bei hohen Iterationen der Algorithmus oft zusammenbricht und keine Ergebnisse liefert,
all diese Punkte charakterisieren die kontinuierliche parallele Schwarz-Methode als wenig sinnvoll und
sogar der direkten Lösung des Optimalitätssystems unterlegen.
Bei einem erneuten Versuch, die Optimalitätssysteme von elliptischen Optimalsteuerungsproblemen
mit Hilfe von Gebietszerlegungen zu lösen, wird man an den optimierten Schwarzmethoden nicht vorbeikommen.
Ob diese dann aber ihrerseits nicht Mehrgitterverfahren unterlegen sind, ist fraglich. Einige Ergebnisse
in der Literatur legen diesen Schluss sogar nahe.
Schließlich sei noch bemerkt, dass eine für Parallelverarbeitung geeignetere Version von COMSOL demnächst auf den Markt kommen soll.
Studium: Technomathematik, U Bayreuth
Insbesondere geht es bei uns, obwohl wir zum Ingenieurwesen gehören, weniger um bloße Anwendung bestehender Verfahren,
sondern um die Entwicklung neuer Methoden (bei mir und aktuell: Mehrskalenmodellierung), was als Mathematiker natürlich sehr interessant ist.
Dass ich mich als leidenschaftlicher Programmierer in unserem Fortran-Code (FEAP) austoben kann, im Gegensatz zur Verwendung primär geschlossener Systeme
wie Abaqus, Ansys, etc., ist auch toll. Damit kommen alle drei Disziplinen der Technomathematik zum Einsatz: Mathematik, Ingenieurwissenschaften und Informatik.
Aufgabenstellung. Herr Kleier sollte in seiner Diplomarbeit ein Computerprogramm entwickeln,
mit dem sich Optimalsteuerungsprobleme für parabolische partielle Differentialgleichungen lösen lassen.
Insbesondere sollte das objektorientierte Software-Packet Diffpack der inuTech GmbH mit den weltweit besten Lösern
für nichtlineare Programme, die im akademischen Bereich frei zugänglich sind, zu einem direkten Löser
für solche Aufgabenstellungen kombiniert werden.
Inhaltsangabe. Nach einer Einleitung mit einer beispielhaften Problemformulierung und einer knappen Übersicht
über die verschiedenen Lösungsstrategien für Optimalsteuerungsprobleme bei partiellen Differentialgleichungen
stellt Herr Kleier in Kapitel 2 die funktionalanalytischen Grundlagen zur numerischen Lösung von partiellen
Differentialgleichungen zusammen: Sobolev-Räume und schwache Formulierungen der Aufgabenstellungen sowie Aussagen über Existenz und Eindeutigkeit von Lösungen von parabolischen partiellen Differentialgleichungen.
Kapitel 3 und 4 sind den numerischen Methoden gewidmet, die zur Lösung von parabolischen Optimalsteuerungsaufgaben
nach der Methode First discretize, then optimize zusammengeführt werden müssen: Finite-Element-Löser
und Verfahren zur Lösung von nichtlinearen Programmen. Zu letzteren gibt Herr Kleier eine knappe, aber umfangreiche
Übersicht über die gängigsten Methoden und Techniken, die zur numerischen Lösung der
zu erwartenden großen nichtlinearen Programme in Frage kommen können: Liniensuch- und Trust-Region-Verfahren,
Kostenfunktionen und Filtermethoden, SQP- und Innere-Punkte-Verfahren sowie Mma- und SCP-Verfahren. Die verwendeten Optimierungsalgorithmen gehören zweifelsohne zum besten, was derzeit auf dem Markt frei zugänglich ist:
Worhp von Büskens und Gerdts, Nlpip von Sachsenberg, Ipfilter von Silva, M. Ulbrich, S. Ulbrich und Vicente,
Ipopt von Wächter und Biegler sowie Scpip von Zillober. In Kapitel 5 wird dann dargelegt, wie die für
die Optimierung benötigten Gradienten mit Methoden der Sensitivitätsanalyse möglichst effizient berechnet werden können: Bei linearen Differentialgleichungen wird die von Herrn Kleier gewählte Methode hinsichtlich ihrer Komplexität mit der im Allg. effizienteren adjungierten-basierten Methode verglichen, zu deren Einsatz man allerdings
enorme mathematische Vorkenntnisse benötigt, die man bei einen industriellen Einsatz, auf den in der Diplomarbeit
abgezielt werden sollte, im Allg. weder erwarten, noch aus Kostengründen vertreten kann. In Kapitel 6 wird dann schließlich beschrieben, wie die Hessematrix durch Quasi-Newton-Updates approximiert wird. Zwei Methoden werden
verglichen: DFP- und BFGS-Verfahren. Die Impementierung des Software-Packets, insbesondere der Aufbau des Lösers
Diffpack der Firma inuTech ist dann Gegenstand von Kapitel 7. Ein Vergleich der Löser für die nichtlinearen Programme anhand verschiedener Testbeispiele beschließt dann die Arbeit: Die Verfahren Nlpip und Worhp
benötigen meist wesentlich geringere Rechenzeiten als Scpip und Ipopt. Die Unterschiede zwischen den beiden
Testsiegern sind gering; beide Verfahren beruhen auf ähnlichen Ideen. Scpip erzielt zwar genaue Resultate,
braucht aber sehr lange. Hier scheint das Stopp-Kriterium noch verbesserungswürdig zu sein. Das Verfahren Ipfilter konnte aus Zeitgründen nicht mehr in den Vergleich aufgenommen werden, da es zwingend die Bereitstellung von Quasi-Newton-Updates für die Hessematrix erfordert, deren effiziente Implementierung ziemlich kompliziert ist.
Studium: Technomathematik, U Bayreuth
Aufgabenstellung.
Im Red Bull Air Race fliegen Piloten mit kleinen, leichten und schnellen Flugzeugen einen vorgegebenen Kurs nach.
Dieser ist durch farbige Pylonen markiert. Die Farben wiederum definieren die Richtung und die Lage, in welcher ein Pilot
das entsprechend markierte Tor zu passieren hat. Verletzt ein Pilot diese Vorgaben erhält er Strafpunkte.
Wie soll er nun das Flugverhalten zwischen den Pylonen wählen, um den vorgegebenen Parcours möglichst schnell
zu bewältigen?
Das Problem der optimalen Steuerung kleiner, wendiger Flugzeuge wurde zuerst am Lehrstuhl für Flugsystemdynamik
der Technischen Universität München untersucht. Dort hat man mittels Simulink ein Modell implementiert und
schrittweise erweitert. Es wurden auch optimale Bahnen mithilfe eines am Lehrstuhl von Dr.-Ing. Florian Fisch
implementierten direkten Mehrzielverfahrens berechnet. Diese Vorgehensweise nennt man heute "First discretize,
then optimize".
Die Frage stellte sich nun nach einer alternativen Methode: Kann man diese Ergebnisse mit heutigen Hochleistungslösern für restringierte nichtlineare Optimierungsprobleme unter Verwendung von Methoden der Automatischen Differentiation
noch verbessern? Speziell sollte in dieser Diplomarbeit das Verfahren IpOpt in Verwendung mit der Modellierungssprache AMPL
eingesetzt werden. Letzteres ermöglicht die effiziente Berechnung des Gradienten des Zielfunktionals und der Restrinktionen nach den Optimierungsvariablen.
Dieser Fragestellung sollte in der Diplomarbeit von Frau Kleinhenz untersucht werden.
Zusammenfassung.
Den Rechnungen lag ein kompliziertes Punkt-Masse-Modell zur Verfügung, bei dem verschiedene Modellkomponenten
in verschiedenen Koordinatensystemen beschrieben werden müssen. Zum Einsatz kamen dabei: 1.) Das Erdfeste
Koordinatensystem mit Ursprung im Erdmittelpunkt und positiver x-Achse in Richtung Schnittpunkt von Äquator
und Null-Meridian zur Positionsbeschreibung des Flugzeugs. 2.) Das Körperfeste Koordinatensystem mit Ursprung
in einem Flugzeugreferenzpunkt, z.B. dem Massenschwerpunkt, und positiver x-Achse in Richtung Flugzeugnase
sowie positive y-Achse in Richtung des rechten Flügels. 3.) Das aerodynamische Koordinatensystem, dessen Ursprung
ebenfalls in diesem Referenzpunkt liegt, dessen x-Achse aber in Richtung der aerodynamischen Geschwindigkeit zeigt.
Die y-Achse weist ebenfalls nach rechts. In diesem Koordinatensystem können die aerodynamischen Kräfte
besonders gut dargestellt werden. 4.) Das North-East-Down (NED)-Koordinatensystem. Dieses Koordinatensystem hat
seinen Ursprung, wie die vorhergehenden auch, im Referenzpunkt des Flugzeugs. Die Ausrichtung der x-Achse verläuft
parallel zur lokalen Geoid-Oberfläche und zeigt zum geographischen Nordpol. Auch die y-Achse ist parallel zur Geoid-Oberfläche mit Richtung gegen Osten. Die z-Achse zeigt senkrecht nach unten auf die Geoid-Oberfläche. Es wird verwendet, um die geografische Lage des Flugzeugs zu bestimmen. 5.) Und schließlich das Bahnachsensystem.
Es besitzt seinen Ursprung ebenfalls im Referenzpunkt des Flugzeugs. Die Ausrichtung der x-Achse ist kollinear
und richtungsgleich mit der kinematischen Geschwindigkeit. Die z-Achse zeigt in positiver Richtung senkrecht zur kinematischen Geschwindigkeit nach unten. Senkrecht auf der xz-Ebene steht die y-Achse, die nach rechts zeigend ein
Rechtssystem mit den beiden anderen Achsen bildet.
Man muss nun beachten, dass Größen, die geschickterweise in passenden Koordinatensystemen beschrieben werden,
nicht direkt miteinander verrechnet werden dürfen. Hierzu werden Drehungen um bestimmte Achsen mit passenden Winkeln verwendet. Dadurch wird das zugrundliegende Modell hochgradig nichtlinear und ziemlich kompliziert.
Ein Großteil der Arbeit ist der genauen Darstellung dieses Modells gewidmet.
Auch diese hier untersuchte Methode zur Bahnoptimierung lieferte Ergebnisse - im Allgemeinen handelte es sich hier
um Bahnen, die den bereits bekannten Bahnen aus München ähnlich war. An Teilen der Trajektorie wurden weitergehende Untersuchungen durchgeführt. Zum einen gab es verschiedene Herangehensweisen an die Optimierungsmethode, zum anderen konnte die Diskretisierung bzgl. Verfahren und (konstanter) Schrittweitenwahl verändert werden. Adaptive Schrittweiten wie bei der direkten Mehrzielmethode sind hier wegen der Verwendung der Automatischen Differentiation nicht möglich, zumindest nicht ohne Spezialkenntnisse im Automatischen Differenzieren. Die
berechneten Ergebnisse wurden verglichen. Auffallend war, dass nicht jede Optimierung ein plausibles Ergebnis lieferte,
wenn überhaupt eines berechnet werden konnte.
Als Resultat muss man festhaten, dass die Verwendung von AMPL und IpOpt bei diesem hochgradig nichtlinearen Optimalsteuerungsproblem nicht die erwünschten Resultate lieferte, wie sie mit einer konventionellen direkten Methode unter Verwendung adaptiver Hochleistungsintegrationsverfahren erzielt werden können. Dabei stellte sich heraus,
das eine Optimierung des Gesamtkurses nicht möglich war, sondern nur suboptimale Kursstücke von Tor zu Tor
mit dieser Kombination AMPL/IpOpt berechenbar waren. Wesentlicher Hinderungsgrund dafür war, dass die Behandlung
der freien Zeit von Tor zu Tor mit entsprechenden Übergangsbedingungen mithilfe der Standardtransformation
auf eine normierte Zeit zu einer Vervielfachung der parallel zu lösenden Differentialgleichungen geführt
hätte, überdies hätte diese Transformation weitere sehr sensitive Nichtlinearitäten nach sich gezogen.
Mit der direkten Mehrzielmethode lassen sich diese Aufgabenstellungen in natürlicher Weise als Mehrstufenprobleme
lösen. Dies ist zwar auch prinzipiell mit der Kombination AMP/IpOpt denkbar, verlängert dann aber das
Integrationsintervall und damit die Zahl der Optimierungsvariable. Schließlich ist die Implementierung solch komplexer
Aufgabenstellungen der Optimalen Steuerungen mit einem Optimierungslöser, der für NLP-Probleme gedacht ist,
extrem aufwändig und schwerfällig.
Studium: Wirtschaftsmathematik, U Bayreuth
Aufgabenstellung (wegen der interessanten Aufgabenstellung etwas ausführlicher).
"Der Weltraum - unendliche Weiten." So beginnt die erfolgreiche TV-Serie Star Trek. Wer würde bei dieser Vorstellung
auf die Idee kommen, dass es auch im All bereits zu Müllproblemen kommt. Es gibt sogar ein Programm der NASA,
das für die Überwachung des Weltraumschrotts verantwortlich ist und die Flugbahnen der Trümmerteile
berechnet. Das Orbital Debris Program spricht von ungefähr 19.000 bekannten Objekten mit einer Größe
von mehr als zehn Zentimetern, die die Erde umkreisen, von geschätzten 500.000 mit Durchmessern zwischen einem
und zehn Zentimetern, und die Zahl der noch kleineren Teilchen soll die zehn Millionen Grenze überschreiten.
Dabei handelt es sich beispielsweise um ausgediente Satelliten, abgeworfene Raketenstufen, von Astronauten verlorene Werkzeuge, Schrauben und Trümmer aus Explosionen. Mit einer Durchschnittsgeschwindigkeit von ca. 10 km/s
besitzen selbst kleinste Teilchen eine enorme Energie und können bei einem Zusammenstoß mit funktionsfähigen Satelliten oder der Internationalen Raumstation großen Schaden verursachen.
Erst im Juli dieses Jahres berichtete Welt-Online von einem möglicherweise notwendigen Ausweichmanöver der ISS.
Um Raumschiffe oder Satelliten vor einem Einschlag zu schützen, wären dicke Ummantellungen aus Aluminium, Kevlar
und Keramikgewebe notwendig. Jedoch ergaben Tests, dass es mit vertretbaren technischen Mitteln wirtschaftlich nicht
möglich ist, einen solchen Schutz vor Teilen von über einem Zentimeter Größe zu gewährleisten.
Doch nicht nur die Kollision im Orbit stellt eine Gefahr dar. Die unkontrollierten Trümmer können auch
auf die Erde herabstürzen. Zwar verglüht dabei in der Regel der Großteil des Flugkörpers,
jedoch können Gegenstände aus Beryllium, Titan oder Stahl der Hitze teilweise widerstehen und auf der
Erdoberfläche einschlagen. Im September 2011 stürzte der busgroße Forschungssatellit UARS über
dem Nordpazifik ab. Das größte Teil, das die Erde erreichte, soll dabei knapp 140 Kilo schwer gewesen sein.
Am Morgen des 25. Oktobers 2011 stürzte der deutsche Satellit "Rosat", ein ehemaliger Röntgensatellit,
unkontrolliert auf die Erde. Dabei war im Vorfeld unklar, ob und wo Trümmerteile auf der Erdoberfläche auftreffen
werden. Auch wenn die Wahrscheinlichkeit eines Einschlags in bewohntem Gebiet nur gering ist, stellt dies ein Sicherheitsrisiko dar.
Die geplante Deutsche Orbitale Servicing Mission (DEOS) hat das Ziel, mögliche Lösungen der bestehenden Probleme
zu erforschen. Den Ansatz der Technologiedemonstrationsmission bilden zwei Satelliten, von denen einer das taumelnde Ziel,
also den ausgedienten Satelliten, und der andere den aktiven Service-Satelliten simuliert. In einer Orbithöhe
von 600 km sollen verschiedene Experimente die Phasen einer Servicemission nachstellen.
Die beiden primären Ziele der DEOS-Mission wurden in definiert als:
Das zerstörungsfreie Einfangen eines taumelnden unkooperativen Satelliten durch einen Service-Satelliten
mit integriertem Manipulator.
Die Entsorgung des gekoppelten Satellitenverbundes durch gezielten Einschuss in einen vorher bestimmten Wiedereintrittskorridor, wobei der Satellitenverbund verglühen soll.
Zusammenfassung.
Die waage Aufgabenstellung erforderte den Einstieg in die Erarbeitung eines detaillierten Modells. Wie üblich bei
der Modellierung in der Luft- und Raumfahrt muss man verschiedene Modellkomponenten in verschiedenen Koordinatensystemen
modellieren. Zum Einsatz kommen das Earth-Centered-Inertial-, das Local-Vertical-Local-Horizontal- und
das Body-Fixed-Koordinatensystem. In diesen Koordinatensystemen werden die Bewegungsgleichungen eines sich
bewegenden Objektes beschrieben, zunächst der Einfachheit halber in einem lokalen Koordinatensystem,
letztendlich müssen aber Geschwindigkeit und Beschleunigung in einem Inertialsystem angegeben werden.
Die grundlegenden Gleichungen der Relativposition der beiden Satelliten zueinander basieren auf dem eingeschränkten Keplerschen Zweikörperproblem. Diese führen nach nach einigen Vereinfachungen auf die Clohessy-Wiltshire-Gleichungen, die in den 1960er Jahren entwickelt wurden, um Rendezvous-Manöver im All zu analysieren.
Mit diesen Gleichungen kann die Position des Satelliten beschrieben werden. Zur Beschreibung der Orientierung werden die Eulerschen Elemente aus Eulers Arbeit aus dem Jahre 1775 herangezogen, die den Einstieg in die Verwendung von Quaternionen
zur Darstellung von Rotationen liefern. Quaternionen wurden Sir William Hamilton im Jahre 1843 als Erweiterung der komplexen
Zahlen entwickelt. Über die Eulerschen Kreiselgleichungen gelangt man schließlich zu einem vollständigen
Modell zur Beschreibung der Positionierung und Orientierung der beiden sich bewegenden Satelliten.
Ferner muss die Kollision des Service-Satelliten mit seinem Ziel verhindern.
Durch Vorgabe von Optimierungszielen ergibt sich letztendlich ein komplexes Optimalsteuerungsproblem für ein System
von gewöhliche Differentialgleichungen der Dimension 20 (!) mit sechs Steuervariablen. Letztere gehen je nach
Zielfunktional linear oder quadratisch ein. Die Kollisionsvermeidungsnebenbedingung stellt eine Zustandsbeschränkung dar.
Dieses Optimalsteuerungsproblem wird in der Modellierungssprache AMPL implementiert und mit Hilfe des
Inneren-Punkte-Verfahrens "IpOpt" gelöst. Es werden mehrere Beispielrechnungen bis hin zum Einfangen eines taumelnden
Zielsatelliten präsentiert. Zur besseren Veranschaulichung der Ergebnisse wird zum Schluss ein dreidimensionales Modell
und damit eine Animation der Berechnungen in Blender-3D erstellt. Die Animationen kann man nachfolgend dowmloaden und sich anschauen.
Studium: Technomathematik, U Bayreuth
Zu dieser Aufgabenstellung und verwandten Themengebieten gibt es eine Reihe von Arbeiten von Ledzewicz, Maurer
und Schättler, die die Basis für diese Masterarbeit bildeten.
Zusammenfassung.
Die Grundlage der Angiogenese-Forschung wurde Anfang der 1970er Jahre durch den Mediziner Judah Folkman gelegt:
... solid tumors are far more dependent upon new capillary sprouts than we had previously believed.
In the absence of neovascularization, most solid tumors stop growing when they are 2 to 3 mm in size.
Man stellte fest, dass das Wachstum von Blugefäßen rund um gewisse Tumore durch vom Tumor ausgesonderte
Wachstumsfaktoren angeregt wird. An diesem Punkt setzen dann auch Anti-Angiogenese-Medikamente an.
Hahnfeldt u.a. haben mathematische Modelle entwickelt, bei dem das Tumorvolumen durch Wachstumsgesetze beschrieben wird,
das dem des logistischen Wachstums ähnlich ist, dem sogenannten Gompertzschen Wachstumsgesetz. Die dabei auftretende
(vaskuläre) Trägerkapazität wird ebenfalls als zeitabhängige Größe modelliert, die u.a.
durch Anti-Angiogenese-Medikamente gesteuert werden kann. Im Modell treten noch weitere Funktionen auf, die
durch die Analyse einer parabolischen Differentialgleichung spezifiziert werden können. Diese beschreibt
den Transportprozess für die die Angiogenese stimmulierenden Botenstoffe. Unter der Annahme der Stationarität
dieses Transportprozesses und der Kugelsymmetrie des Tumors lässt sich die partielle Gleichung auf eine gewöhnliche
Differentialgleichung und zwar auf eine modifizierte Besselsche Differentialgleichung der Ordnung 1/2
zurückführen, die man analytisch lösen kann. Diese Lösung legt dann die Form der noch offenen Modellfunktionen nahe.
Dieses auf Hahnfeldt u.a. zurückgehende Modell wird im Rahmen der Masterarbeit weiter verfolgt.
(Es gibt dadurch inspiriert noch andere empirische Modellfunktionen, die aber nicht weiter verfolgt werden.)
Letztendlich erhält man ein gewöhnliches Differentialgleichungssystem für das Tumorvolumen und die Trägerkapazität.
Mithilfe einer qualitativen Analyse stellt man fest, dass das System bei einer bestimmten Parameterrelation
einen einzigen asymptotisch stabilen Gleichgewichtspunkt auf der Winkelhalbierenden des Phasenraums und keine Grenzzyklen besitzt. Ist diese Parameterrelation nicht erfüllt, nähern sich die Trajektorien dem Ursprung des Phasenraumes asymptotisch, jedoch ist der Ursprung kein zulässiger Gleichgewichtspunkt. Fernert erkennt man, dass man durch Angiogenese-Hemmer stets den Gleichgewichtspunkt erreichen kann.
Es liegt daher nahe, mithilfe eines Optimalsteuerungsproblems zu versuchen, das Tumorvolumen durch eine
Anti-Angiogenese-Therapie in endlicher Zeit zu minimieren, wobei die akkumulierte Medikamentendosis
wegen der Nebenbedingungen und aus Kostengründen beschränkt werden muss. Man erhält ein Optimalsteuerungsproblem,
in das die Steuerung linear eingeht. Damit können bang-bang und singuläre Steuerungen auftreten. Eine genaue Analyse
zeigt, dass singuläre Steuerungen nur auf einer schleifenförmigen Kurve im Phasenraum auftreten können;
sie sind überdies Feedback-Steuerungen, hängen also nur vom Zustand ab. Damit können mögliche Schaltstrukturen vollständig in Abhängigkeit des Startwertes des Zustands bestimmt werden. Trotz der relativen Komplexität des Modells
gelingt hier also die Synthese der optimalen Trajektorien. Darunter versteht man die Angabe der optimalen Steuerung
in Abhängigkeit vom augenblicklichen Zustand.
Numerische Rechnungen mithilfe eines Innere-Punkte-Lösers (IPOPT), angesteuert über die Modellierungssprache AMPL, verifizieren die analytischen Ergebnisse für diverse optimale Schaltstrukturen. Da hinreichende Bedingungen außerhalb der Reichweite (einer Masterarbeit) liegen, müsste man genauer stets von Kandidaten für eine Optimallösung sprechen.
Ein interessanter Fall, dass die singuläre Schleifenkurve vor Ende der Medikamentenhöchstdosis mit einem Teilstück
mit maximal zulässiger Dosis verlassen werden kann, wird numerisch durch hoch aufgelöste Rechnungen verifiziert und
bestätigt die analytischen Rechnungen von Ledzewicz u.a.
Zusätzlich werden nun noch suboptimale Lösungen berechnet, bei denen nur (stückweise) konstante Medikamentendosen zugelassen werden, die im Rahmen einer Therapie einfacher zu verabreichen sind. Zum Beispiel kann man eine einzige
konstante Dosis über einem einzigen offenen Zeitintervall optimal bestimmen, bis die akkumulierte
Medikamentenhöchstdosis verbraucht ist. Hierbei muss man im Allgemeinen noch eine Phase ohne Medikamentengabe nachschalten, während der das Tumorvolumen aufgrund der asymptotischen Stabilität des noch nicht erreichten Gleichgewichtspunktes fällt, bis die Winkelhalbierende des Phasenraumes erreicht wird. Oder man verteilt
nach Ledzewicz u.a. die gesamte Medikamentengabe als konstante Dosis auf das optimale Zeitintervall
aus der Optimallösung des optimalen Steuerungsproblems. Auch hier muss man eine Phase ohne Medikamentenabgabe nachschalten, um den Gleichgewichtspunkt zu erreichen. Bei all diesen suboptimalen Lösungen unterliegen die Zeitpunkte,
in denen das Medikament verabreicht oder nicht mehr verabreicht wird, neben der Höhe der Dosis der Optimierung.
Bei diesen Ansätzen ist also die Zeitdauer der Medikamentengabe offen.
Alternativ kann man aber auch optimale Tagesdosen bis zum Erreichen des Gleichgewichtspunktes berechnen.
Schließlich kann man noch die Höhe der Medikamentendosen über einer festen (geringen) Anzahl von Zeitintervallen variabler Länge optimieren.
Klar ist, dass durch die Einschränkung der Freiheitsgrade bei all diesen Optimierungsansätzen stets nur
suboptimale Lösungen gegenüber dem Ausgangsproblem erhalten werden können. Die Ergebnisse zeigen jedoch,
dass man einfacher zu realisierende Therapien erhält und nur unwesentlich gegenüber dem Optimum zurückbleibt;
die Abweichungen sind sicherlich weit unterhalb der Modellgüte.
Bemerkung: In der Literatur gibt es bereits Modelle für eine Kombinationstherapie aus Anti-Angiogenese und Chemotherapie,
auch Radiotherapie wurde bereits einbezogen. Zu ersterem gibt es auch analytische und numerische Resultate, zu letzterem liegen erste Ansätze vor. Auch pharmakokinetische Ansätze wurden bereits berücksichtigt. Es handelt sich also
hierbei um ein aktuelles Problem aus einem interessanten Forschungsgebiet, wo Medizin auf Mathematik trifft.
Studium: Mathematik mit Nebenfach Physik nach Lehramt für Gymansien, Master, U Bayreuth
Ziel der Arbeit von Frau Frewer war es, solche Probleme mit modernen direkten Methoden, hier einer Kombination der Modellierungssoftware AMPL und dem Innere-Punkte-Löser IPOPT, zu lösen und dann a posteriori die notwendigen Bedingungen, insbesondere
die des Minimumprinzips näherungsweise zu verifizieren und mit den Ergebnissen aus der Literatur zu vergleichen.
Diese Methode hat sich in der Vergangenheit bei den meisten Aufgabenstellungen als gegenüber der Mehrzielmethode überlegen
herausgestellt. Die Hoffnung war nun, den Lösungsprozess zeitlich auch bei solch komplizierten Problemstellungen
zu verkürzen, bei deutlich reduzierten theoretischen und numerischen Anforderungen an den Anwender.
Während beim Van-der-Pol-Oszillator auf diese Weise optimale Lösungen berechnet werden konnten und auch eine Verbesserung
der Lösung über eine Nachiteration als Schaltpunktoptimierungsproblem gelang, konnten mit der Kombination AMPL/IPOPT
keine Näherungen für das Scherwindproblem berechnet werden. Über die Gründe kann man nur spekulieren,
das Modell ist aber auch extrem diffizil, enthält mehrere nichtglatte Modellfunktionen und beschreibt ein Flugmanöver
nahe am Absturz, dessen Schwierigkeiten für den Piloten sich auch im numerischen Verhalten widerspiegeln können.
Studium: Mathematik mit Nebenfach Physik, Diplom, U Bochum und U Bayreuth
In ihrer Masterarbeit sollte nun noch ein Beitrag zur Optimierung mit direkten Verfahren hinzukommen.
Die Aufgabe knüpft an eine kürzlich erschienene Arbeit von A. Rund und K. Chudej an, in der
ein vereinfachtesörtlich eindimensionales Modell für eine Gegenstromkonfiguration der Gasströme
im Anoden- bzw. Kathodenkanal optimiert wurde. In der Zelle entsteht eine kontrollierte Knallgasreaktion und
Freisetzung von Energie, die dann zu einer umweltfreundlichen Stromproduktion genutzt werden kann. Brennstoff kann
zum Beispiel Methan sein, aus dem aufgrund der hohen Temperaturen in der Zelle Wasserstoff gewonnen werden kann.
Ziel der Optimierung sind schnelle Lastwechsel und die Begrenzung von Temperaturschwankungen, die die Zelle zerstören können.
In der Arbeit von Rund und Chudej wurde nach der Methode First discretize, then optimize nach Semi-Diskretisierung im Ort (Linienmethode)
ein zeitadaptives implizites Mehrschrittverfahren variabler Ordnung verwendet. Die Optimierung erfolgte mit dem MATLAB NLP-Löser fmincon,
der in sich mehrere Löser vereint, u.a. ein SQP- und ein Innere-Punkte-Verfahren. Nachteilig ist die Verwendung von numerischer Differentiation
zur Berechnung des Gradienten nach den Optimierungsvariablen, hier sind es allerdings "nur" die zeitabhängigen Randsteuerungen. Das Verfahren
von Rund und Chudej löst also im Diskreten das reduzierte Zielfunktional.
Im Gegensatz dazu sollte Frau Kerler eine Voll-Diskretisierung durchführen und das diskretisierte, sehr große
endlich-dimensionale Optimierungsproblem mit der bewährten Kombination aus der Modellierungssprache AMPL und
dem Innere-Punkt-Löser IPOPT von Wächter und Biegler lösen. Dieser Zugang behandelt also Zustände und Steuerungen gleichberechtigt. Hierbei liefert AMPL die für die Optimierung benötigten Ableitungen erster und sogar zweiter Ordnung per Automatischer Differentiation, also exakt (!), und sollte, so die Erwartung, eine vergleichbare Approximationsgüte wie ein
adjungiertenbasiertes Verfahren liefern, ohne jedoch die dafür erforderlichen tiefen Kenntnisse der zugehörigen Theorie
einbringen zu müssen.
Zusammenfassung.
Im Gegensatz zu der Methode von Rund und Chudej muss man wegen der Automatischen Differentiation
auf Adaptivität verzichten. Da alle Variablen in Ortsrichtung sehr glatt sind, kann man auf Adaptivität
bzgl. der Ortsvariablen in der Tat verzichten. Wegen der sehr unterschiedlichen Zeitskalen verschiedener Zustandsvariablen ist allerdings Adaptivität in Zeitrichtung unverzichtbar. Bei Lastwechseln weiß man aber, wo man
die Zeitschrittweite feiner wählen muss. Frau Kerler führt dazu ein logaritmisch skaliertes Gitter ein, ähnlich wie in der Dissertation von K. Sternberg.
Die hyperbolischen Gleichungen müssen im Ort mit Up-Wind-Verfahren diskretisiert werden, um auch im Diskreten
die Erhaltungsgrößen einzuhalten. Wegen der beteiligten Wärmeleitungsgleichung ist dasörtlich
semi-diskretisierte differential-algebraische Gleichungssystem steif, sodass die Zeitintegration die Anwendung
eines impliziten Verfahrens, hier des impliziten Eulerverfahrens, erfordert. Im Gegensatz zu dem Zugang von Rund und Chudej
sind jetzt Trajektorien in festen Ortspunkten (im Sinne der Linienmethode) keine absolut stetigen Funktionen mehr.
Damit wird die Wahl konsistenter Anfangswerte im gesamten Ort-Zeit-Zylinder zu einer schwierigen Aufgabe.
Frau Kerler löst dieses Problem unter Verwendung des Zustandslösers von Rund und der Berechnung
stationärer Lösungen.
Verschiedene Zielfunktionale können jetzt versucht werden zu optimieren, insbesondere können dabei auch
erstmalig Zustandsbeschränkungen einbezogen werden. Es stellt sich heraus, dass gewisse Aufgabenstellungen
erfolgreich behandelt werden können, andere nicht. Problematisch ist die Minimierung des $L^2$-Abstandes
der Temperatur im Elektrolyten der Brennstoffzelle von einer Zielvorgabe, um diese auf möglichst konstantem Wert
zu halten. Inverse Probleme mit der Wärmeleitungsgleichung sind aber wegen des glättenden Einfluss
dieser Zustandsvariable extrem schlecht konditioniert. Stattdessen wurde die Zellspannung nach einem Lastwechsel
an den neuen stationären Wert herangeführt. Für diese Aufgabenstellung konnte dann eine
Zustandsbeschränkung an die Temperatur im Elektrolyten in das Optimalsteuerungsproblem eingebracht werden.
Die für die Praxis wichtigere Beschränkung des Gradienten dieser Temperatur gelang leider nicht.
Über den Grund kann man nur spekulieren, wahrscheinlich reicht die Genauigkeit nicht mehr, um
aus der Finiten-Differenzen-Approximation noch eine für die Optimierung ausreichende Genauigkeit des Gradienten
zu gewinnen. Stattdessen konnte aber die absolute punktweise Differenz zwischen den Temperaturen im Anoden- und Kathodengasstrom
beschränkt werden, die ja unmittelbare Auswirkungen auf den Temperaturgradienten im Elektrolyten haben sollte.
Bei einem praktischen Problem dieser gigantischen Grössenordnung (23 zeit- und ortsabhängige und
18 "nur" zeitabhängige Variablen) kann man naturgemäß keine "schöne" mathematische Theorie
(Existenz, Eindeutigkeit - und das bei stark nichtlinearen Quelltermen) mehr machen. Allerdings hat Rund in seiner
Dissertation gezeigt, dass auch die Methode First optimze, then discretize zumindest bei demörtlich
eindimensionalen Modell gangbar ist. Diese Methode erfordert allerdings tiefe Kenntnisse der Theorie der Optimalen Steuerung
mit partiellen Differentialgleichungen - hier tritt genau gesagt ein System aus mehreren hyperbolischen,
einer elliptischen, etlichen gewöhnlichen Differentialgleichungen und algebraischen Gleichungen auf, in die
zum Teil noch Integralterme eingehen. Direkte oder First-discretize-then-optimze-Verfahren bieten dabei schon
eine wichtige Erleichterung für den Praktiker. Die Rechenzeiten belaufen sich dafür aber auf beachtliche
(mehr als) 30 Stunden für die numerische Lösung der endlich-dimensionalen, restringierten Optimierungsverfahren
mit über 30000 Variablen. In der offenen Literatur wurde über Optimalsteuerungsprobleme dieser Größenordnung bisher nicht berichtet. Entscheidend bei direkten Verfahren ist aber der im Allgemeinen
geringere Einsatz von "Humankapital", obwohl man an einem guten Verständnis für die technischen Abläufe
bei diesem Brennstoffzellentyp nicht vorbeikommt.
Studium: Mathematik mit Nebenfach Informatik, Master, U Bayreuth
Herr Meyerholz sollte sich diesen Themenkomplex einmal ansehen und die Literatur nach den verschiedenen Lösungsansätzen
durchforsten, diese gegenüberstellen und exemplarisch anhand von Beispielen mitökonomischem Hintergrund numerisch testen.
Zusammenfassung.
H. Halkin hatte bereits 1974 festgestellt, dass die Transversalitätsbedingung, eine Bedingung im berühmten Maximumprinzip
von Pontrjagin u.a., welches die entscheidende notwendige Bedingung der Optimalsteuerungstheorie bei gewöhnlichen
Differentialgleichungen ist, im Allg. nicht gelten muss. Zudem wird in der Regel bei Optimalsteuerungsproblemen über infinitem
Zeithorizont nicht festgelegt, welchen Integraltyp man meint. V. Lykina (2010, BTU Cottbus) hat in ihrer Dissertation Beispiele angegeben,
wo (uneigentliches) Riemann- und Lebesque-Integral zu verschiedenen Optimallösungen führt oder wo das Optimalsteuerungsproblem
mit einem Integraltyp eine Lösung besitzt, mit dem anderen Integraltyp aber nicht. Bekanntlich gilt über endlichem Horizont
die Gleichheit von Riemann- und Lebesque-Integral, wenn der Integrand Riemann-integrierbar ist. Dies muss aber für einen unendlichen Horizont nicht gelten.
Weitere Fallstricke sind unendliche Zielfunktionalswerte, die entweder nach einer Modifikation des Problems oder gar anderen Optimalitätsbegriffen verlangen. Fazit: Die Überprüfung von Lösungskandidaten auf Optimalität ist alles andere
als eine triviale Aufgabe.
Da in den meisten Optimalsteuerungsproblemen dieser Art aus der Ökonomie in den Integralfunktionalen die für diese Problemklasse typischen Diskontierungsfaktoren auftreten, wurde auf Vorschlag von S. Pickenhain und Lykina eine neue,
größere Funktionenklasse vorgeschlagen: gewichtete Sobolew-Räume für die Zustände und gewichte
Lebesque-Räume für die Steuerungen. Dazu konnte Pickenhain auch ein Maximumprinzip beweisen. Leider ist auch dieser Ansatz
kein Allheilmittel, auch wenn er mit mathematischen Mitteln inhärente Defizite in den Modellen ausgleicht. In vielen Modellen
der Ökonomie treten nämlich lineare Differentialgleichungen auf, die exponentielles Wachstum beschreiben,
das jedoch de facto nirgens existiert, zumindest nicht langfristig.
Das heißt, man stellt fest, dass die zugrundeliegenden Modelle unvollständig sind und nicht alle Informationen beinhalten,
die in der Modellierung hätten berücksichtigt werden müssen. So kann man Wachstum durch Zustandsbeschränkungen
begrenzen. Man ändert durch eine solche "Majorantenmethode" natürlich die ursprüngliche Aufgabenstellung ab.
Bei autonomen Problemen spielen auch Gleichgewichtslösungen eine Rolle, auf die man versucht hinzusteuern, um dann
möglichst lange auf ihnen zu bleiben: Turnpike-Methode (Turnpike = Autobahn). Tritt die Zeit explizit nur im Diskontierungsfaktor
auf, kann man die Variablen des Optimalsteuerungsproblems transformieren, um den nicht-autonomen Diskontierungsfaktor zu eliminieren.
Die Hamiltonfunktion geht über in die sogenannte Momentanwert-Hamiltonfunktion. Aber auch diese Methode funktioniert nicht in allen Fällen.
Des Weiteren kann man bei bestimmten Problemklassen das infinite Intervall auf ein endliches transformieren (Pickenhain, Wenzke,
BTU Cottbus). Einige weitere Lösungsansätze verwenden einen anderen Integralbegriff, das Henstock-Kurzweil-Integral,
oder die Dualitätstheorie (beides: Lykina), die es erlaubt, sogar hinreichende Bedingungen zu überprüfen.
Die beiden letzten Ansätze sind nicht mehr in der Diplomarbeit behandelt worden.
Die in der Diplomarbeit behandelten Aufgabenstellungen betreffen neben einem Fischfangproblem (Carlson, Haurie, Leizarowitz, 1991),
bei dem Nachhaltigkeit eine Rolle spielt, insbesondere verschiedene Fassungen des linearen Ramsey-Modells (1928), das beschreibt, wie eine Volkswirtschaft
nachhaltig sparen soll, um den Wohlstand zu sichern und eines Ressource-Allocationsproblems, diese beide jeweils auch in der nach der Majorantenmethode
modifizierten Form).
Aus einer laufenden Dissertation von Jana Kouris, RWTH Aachen, stammt dann noch ein Problem, bei dem ein zweiseitiger Markt (Internetauktionsportal) modelliert
wird. Dieses Problem geht auf Minggchun und Edison (2007) zurück. Hier gelingt es Lösungskandidaten sowohl durch Steuerung auf den Gleichgewichtspunkt,
als auch durch Fortsetzung zu bestimmen.
Fazit: Der Stein der Weisen wurde (noch?) nicht gefunden. Als erstes sollte man sich beiökonomischen Aufgabenstellungen
aber ansehen, ob alle Informationen im Modell enthalten sind, inbesondere ob die Verwendung linearer Diffrentialgleichungen
wirklich geeignet ist, da diese exponentielles Wachstum nach sich ziehen. Ebenso ist zu hinterfragen, ob ein unendlicher
Zeithorizont wirklich adäquat ist oder ob man in der Realität nicht doch ``auf Sicht'' optimiert, selbst wenn man Nachhaltigkeit
verfolgt und nicht auf kurzfristigen Gewinn aus ist. Wenn man sich des Modells sicher ist, sollte man verschiedene Ansätze testen,
auch auf die Gefahr hin, verschiedene Lösungskandidaten zu bekommen. Diese sind dann nach den verschiedenen Optimalitätsbegriffen
in der einschlägigen Literatur zu bewerten.
Studium: Wirtschaftsmathematik, Diplom, U Bayreuth
Es zeigte sich, dass in diesem Preprint noch ein Fehler steckte, der die notwendige Transversalitätsbedingung
zur Bestimmung der minimalen Endzeit $t_f$ betraf. Dieser sollte korrigiert werden und die Lösungen sollten
im Gegensatz zur ursprünglichen Arbeit von Kunisch und Wachsmuth mit einem direkten Verfahren (first discretize,
then optimize) numerisch gelöst werden. A posteriori sollten dann die notwendigen Bedingungen
anhand der diskreten Lösungen verifiziert werden. Dies kann nur gelingen, wenn der verwendete Nichtlineare
Optimierungslöser auch diskrete Schätzungen für die adjungierten Variablen liefert. Die in mehreren
Diplomarbeiten bewährte Kombination aus dem Modellierungstool AMPL, das automatische Differentiation
für die genaue und effiziente Berechnung des Gradienten des Zielfunktionals nach den Optimierungsvariablen erlaubt,
und aus dem Innere-Punkte-Löser IPOPT erfüllt diese Voraussetzungen und ist stets dann verwendbar, wenn sich
die Größe des resultierenden nichtlinearen Programms in moderaten Grenzen hält.
Zusammenfassung.
Zunächst einmal werden die notwendigen Optimalitätsbedingungen erster Ordnung für dieses
Optimalsteuerungsproblem mit der (hyperbolischen) Wellengleichung hergeleitet. Dazu wird zunächst die Existenz
einer schwachen Lösung des Anfangs-Randwertproblems für die Wellengleichung und deren Wohlgestelltheit bewiesen.
Für hinreichend glatte Anfangsdaten erhält man - nicht unerwartet - höhere Regularität.
Das Optimalsteuerungsproblem mit der Wellengleichung als Nebenbedingung ist dann lösbar, wenn das System steuerbar ist.
Als nächstes wird über ein bzgl. der Endbedingungen penaltisiertes und bzgl. der freien Endzeit regularisiertes
Problem die Existenz von Lagrangemultiplikatoren sichergestellt. Auch dieses Problem besitzt eine Lösung,
für das Konvergenz gegen das ursprüngliche Problem nachgewiesen wird, wenn man den Regularisierungs-
bzw. Penaltisierungsparameter gegen Null treibt.
Die funktionentheoretischen Hilfsmittel für diese sehr tiefliegenden Untersuchungen unterscheiden sich
von jenen, die bei elliptischen und parabolischen Differentialgleichungen zum Einsatz kommmen. Herr Wurst konnte hier
jedoch weitgehend auf die Orginalarbeit zurückgreifen, hat dies allerdings in seiner Diplomarbeit weitaus detaillierter
ausführen können, als dies unter den beschränkten Seitenzahlen einer wissenschaftlichen Publikation möglich ist.
Besonderes Augenmerk galt dabei der Projektionsformel der oben genannten ``unüblichen'' Steuerungsbeschränkung
sowie der Richtigstellung der Transversalitätsbedingung. Es zeigt sich, dass die Steuerung von höherer
Regularität ist. Bei der Transversalitätsbedingung wird ein Parallelschluss zur Steuerungstheorie mit
gewöhnlichen Differentialgleichungen gewagt, u.a. wird numerisch nachgewiesen, dass eine geeignet definierte
Hamiltonfunktion im Optimum identisch Null ist, wie es typisch für autonome Optimalsteuerungsprobleme bei
gewöhnlichen Differentialgleichungen ist.
Die Verifizierung der wesentlichen notwendigen Bedingungen anhand dreier Testbeispiele beschließt dann den Teil der
Arbeit, der sich auf den Report von Kunisch und Wachsmuth stützt. Die optimalen Steuerungen haben dabei bang-bang
Charakter, jedoch nicht im bekannten üblichen Sinn wie bei Box-Beschränkungen, wo die optimale Steuerung
zwischen den zulässigen Extremwerten hin- und herspringen kann. Aber auch hier lässt sich eine (nur von der Zeit
abhängige) Schaltfunktion angeben, deren Nullstellen eine sprunghafte Änderung der Gestalt der optimalen Steuerung
determinieren. Die Rolle der Schaltfunktion übernimmt hier, wie bei den meisten Optimalsteuerungsproblemen mit
partiellen Differentialgleichungen üblich, ein Lagrangeparameter.
In Erweiterung der ursprünglichen Problemstellung gelingt es Herrn Wurst obendrein noch singuläre Steuerungen,
genauer bang-singuläre Steuerungen numerisch nachzuweisen, bei denen die Schaltfunktion identisch verschwindet,
die optimale Steuerung dann also aus dem Inneren des zulässigen Steuerbarkeitsbereiches ist und als Feedbacksteuerung
dargestellt werden kann. Bei diesen Problemen muss die Endzeit allerdings vorgegeben werden. Die singuläre Steuerung
steuert die (instationäre) Wellengleichung auf einen stationären Gleichgewichtspunkt.
Sowohl zeitminimale Optimalsteuerungsprobleme als auch Probleme mit singulären Steuerungen sind, obwohl bei
Optimalsteuerungsproblemen mit gewöhnlichen Differentialgleichungen an der Tagesordnung, bei Optimalsteuerungsproblemen
mit partiellen Differentialgleichungen noch kaum untersucht worden.
Studium: Technomathematik, Diplom, U Bayreuth
In der Robotik werden im Allg. zuvor virtuell berechnete Punkt-zu-Punkt-Bahnen, die z.B. auch aus einer
Optimierung herrühren können, in diskrete Punkte zerlegt, die ihrerseits wiederum von der roboterinternen Software
in geeigneter Weise verbunden werden, um sie dann in der Realität abzufahren. Hierbei kann z.B. ein weiterer
Optimierungsprozess zur Anwendung kommen. Um die Bahnen energieeffizient abzufahren, sollte man die Maximalbeschleunigung minimieren.
Alternativ kann man aber auch, um möglichst materialschonend zu fahren, den maximalen Ruck minimieren.
Mathematisch führen beide Aufgabenstellungen auf Optimalsteuerungsprobleme für gewöhnliche Differentialgleichungen.
Die Untersuchung der Minimierung der maximalen Beschleunigung wurde höchstaktuell in einer Arbeit von Kaya und Noakes
im renommierten SIAM Journal on Control and Optimization (2013) publiziert. Diese Arbeit bildet die Grundlage der Diplomarbeit von Herrn Bauerfeind.
Sie sollte im Detail verstanden und ausgearbeitet werden. Insbesondere sollte untersucht werden, ob die Ideen von Kaya und Noakes gegebenenfalls
auch auf die Minimierung des Maximalrucks übertragen werden können.
Zusammenfassung.
Nach Einleitung, Zielsetzung und Vorgehensweise werden in Kapitel 3 die Ergebnisse aus der Arbeit von Kaya und Noakes
zusammengefasst und bereits im Hinblick auf ihre Verallgemeinerung auf die Minimierung des Maximalrucks dargestellt.
Die Stationen sind: Umformulierung des Ausgangsproblems als zustandsbeschränktes Optimalsteurungsproblem für
gewöhnliche Differentialgleichungen und Aufstellung der notwendigen Bedingungen mithilfe der formalen
Lagrangetechnik. Man beachte, dass in Kaya, Noakes im Unterschied zur Vorgehensweise zur Diplomarbeit von Herrn Bauerfeind ein Minimumprinzip verwendet wurde. Beides resultiert im gleichen System von notwendigen Bedingungen.
Kandidaten für optimale Lösungen können bang-bang oder singulär sein. Auch wenn Herrn Bauerfeinds
Vorgehensweise "nur" formal gesehen werden darf, liefert die Vorgehensweise von Kayas und Noakes deren Rechtfertigung, die deswegen hier nicht nochmals
wiederholt werden muss.
Eine Analyse der notwendigen Bedingungen ergibt Folgendes: Für beliebig viele Interpolationsknoten kann im nichtsingulären Fall das Optimalsteuerungsproblem auf ein endlich dimensionales Optimierungsproblem zurückgeführt werden, welches mit Standardsoftware numerisch gelöst werden kann. Dieses liefert Koeffizienten, mit denen die Optimallösung analytisch dargestellt werden kann. Hierzu ist es notwendig, dass die optimale
Steuerung explizit angegeben werden kann. Dies ist durch die Existenz von Stammfunktionen gewisser Integrale
gesichert. Im $\mathbb{R}^1$ sind die Interpolationskurven stückweise quadratisch bzgl. ihres Parametrisierungsparameters und ihre Beschleunigung weist einen konstanten Betrag auf. Im $\mathbb{R}^n$ mit $n \ge 2$
ist es, obwohl die Norm der Beschleunigung konstant ist, nicht nur möglich, dass die Interpolationskurve nicht stückweise quadratisch bzgl. ihres Parametrisierungsparameters ist, sondern sogar nicht einmal polynomial.
Bei vier Interpolationsknoten kann man a priori entscheiden, ob der singuläre Fall vorliegt oder nicht.
Im singulären Fall setzt sich die interpolierende Kurve dann aus zwei quadratischen Polynomen zusammen,
deren Koeffizienten analytisch berechnet werden können. Eine Verallgemeinerung auf mehr als vier Interpolationsknoten macht wegen des exponentiell wachsenden Aufwands bei den durchzuführenden Fallunterscheidungen
keinen Sinn.
Anhand einiger ausgesuchter Beispiele werden alle möglichen Fälle durchgespielt. Offen bleibt dabei, ob
gefundene Kandidaten tatsächlich optimal sind, insbesondere kann man bei den numerisch berechneten Optimallösungen
über das zugehörige endlich dimensionale Optimierungsproblem nicht sicher sein, ob nicht doch singuläre Lösungen evtl. bessere Lösungen liefern können.
In Kapitel 4 wird jetzt die Verallgemeinerung auf die Berechnung von Interpolationskurven mit minimalem Maximalruck
behandelt. Die zugehörigen Optimalitätsbedingungen werden wieder mittels formaler Lagrangetechnik hergeleitet.
Auch wenn sich einige Ergebnisse aus Kapitel 3 übertragen lassen, verhindert die Nichtexistenz gewisser
Stammfunktionen, dass die Optimalsteuerung wieder explizit angeben kann und sich daher das Optimalsteuerungsproblem
auf ein endlich dimensionales Optimierungsproblem für gewisse Variablen in den analytischen Lösungsformeln vereinfachen lassen kann. Auch die separate Untersuchung von Problemen mit singulärem Extremalenbogen im Fall
von vier Interpolationsknoten ist nicht durchführbar. Somit bleibt als "bequeme" Alternative nur,
das zur Aufgabenstellung zugehörige Optimalsteuerung durch Diskretisierung auf ein nichtlineares, restringiertes Optimierungsproblem zu transformieren und dann numerisch zu lösen.
Anhang eines numerischen Beispiels mit vier Knoten und dessen Resultaten zu den beiden Optimalsteuerungsansätzen
wird die zuvor erzielte mathematische Analyse veranschaulicht.
Kapitel 6 gibt dann neben einer Zusammenfassung noch einen Ausblick, insbesondere auf die Problematik einer
geeigneten Parametrisierung der Interpolationskurven, die in den in der Arbeit untersuchten Beispielen stets
äquidistant gewählt wurde. Diese beeinflusst selbstverständlich die Optimierung. Ebenso werden Zusatzinformationen nötig, will man geschlossene Kurven berechnen.
Studium: Diplom, Mathematik mit Nebenfach Informatik, U Bayreuth
Da es nicht möglich ist, den Weltraumschrott vollständig zu katalogisieren, stellen mögliche unvorhersehbare Kollisionen eine Gefahr
für die aktiven Satelliten dar. Am 10. Februar 2009 kam es zum ersten bekannt gewordenen Zusammenstoß eines aktiven Satelliten
mit einem ausgedienten Objekt. Der russische Satellit Kosmos 2251, seit 1993 im All und dann ab 1999 außer Betrieb, kollidierte mit dem
Kommunikationssatelliten Iridium 33 der US-Firma Iridium Satellite. Bei dem Zusammenstoß wurden beide Satelliten zerstört.
Somit stellt sich die Frage, wie sich Unfälle dieser Art in der Zukunft vermeiden lassen. Eine Maßnahme, die zum Erfolg führen könnte,
besteht darin, einen Service-Satelliten in eine stabile Umlaufbahn zu befördern, mit dem Ziel Weltraummüll zu erkennen und zu entsorgen.
Nach erfolgreicher Identifizierung eines zu entsorgenden Objekts durch die Sensorik des Satelliten wird ein Anflugmanöver eingeleitet
und an das Objekt angedockt. Ein solches Manöver stellt ein sehr kompliziertes Zusammenspiel aus Methoden der Mathematik und Informatik dar.
Im Rahmen dieser Arbeit wird ein vereinfachtes Szenario betrachtet. Im Kernpunkt bedeutet dies, dass ein steuerbarer Service-Satellit
an einen nicht kooperierenden Ziel-Satelliten andocken soll. Nicht kooperierend bezeichnet hierbei, dass sich der Ziel-Satellit
in Bewegung befindet, selbiger aber nicht aktiv gesteuert werden kann. Seine Geometrie und Dynamik sind allerdings bekannt.
Dieses Modell ist eine Anlehnung an die Deutsche Orbitale-Servicing-Mission (DEOS) des Deutschen Zentrums für Luft- und Raumfahrt (DLR).
Erst kürzlich hat das DLR einen entsprechenden Auftrag an die Firma Astrium GmbH vergeben. DEOS bezeichnet eine Technologie-Demonstrations-
Mission, bei welcher der Service-Satellit sowie der Ziel-Satellit gekoppelt in einen niedrigen Erdorbit gebracht werden. Anschließend werden
die Satelliten separiert. Nun soll der Service- Satellit den nunmehr nicht kooperierenden Target-Satelliten einfangen, und man lässt
den Satellitenverbund kontrolliert beim Wiedereintritt in die Erdatmosphähre verglühen.
Ziele.
Ziel dieser Arbeit ist es, eine Regelung für ein Andockmanöver eines Service-Satelliten an einen nicht kooperienden Ziel-Satelliten zu entwerfen.
Der Problemansatz dabei ist insbesondere, dass Störungen und Modellungenauigkeiten in einer vorab berechneten optimalen Bahn durch Feedbackregelung
auszugleichen sind. Die hergeleitete Regelung soll in verschiedenen Szenarien getestet werden und auf wichtige regelungstheoretische Begriffe untersucht
werden. Des weiteren soll der Einfluss der Regelungsparameter auf den Erfolg der Regelung dargestellt werden. Darüber hinaus soll durch Ermitteln
des Einzugbereichs des Reglers eine Methodik entwickelt werden, mit der man entscheiden kann, ob bei einer gegeben Konstellation der beiden Satelliten
ein Andockversuch überhaupt durchgeführt werden kann. Das für die Regelung notwendige Modell, das die Bewegung der beiden Satelliten im Raum
beschreibt, wurde bereits in einer vorhergehenden Diplomarbeit hergeleitet (Johannes Michael, 2011). Anhand dieses Modells lässt sich eine optimale Steuerung
des Service-Satelliten für ein Anflugmanöver berechnen.
Zusammenfassung.
Nach einem Grundlagenkapitel zu Beginn der Arbeit wird das verwendete Modell im dritten Kapitel eingehend beschrieben. Das Grundlagenkapitel beinhaltet
die Definition eines kontinuierlichen Systems als ein mathematisches Modell der Realität, sowie wichtige regelungstheoretische Begriffe, mit dem Ziel
der Analyse eines solchen Systems. Ebenfalls werden Grundlagen der Wahrscheinlichkeitslehre sowie der Statistik eingeführt, die bei der Entwicklung
des stochastischen Teils der Regelung relevant sind. Nun wurden für die Berechnung der optimalen Steuerung mit dem ursprünglichen Modell gewisse ideale,
nicht der Realität entsprechenden Voraussetzungen gemacht. So nimmt man zum einen an, dass das mathematische Modell die Wirklichkeit fehlerfrei darstellt,
und zum anderen, dass die aktuelle Position, Geschwindigkeit und Orientierung der Satelliten jederzeit ohne Einfluss von Messrauschen messbar sind.
Da diese Punkte in der Realität nicht gegeben sind, ergibt sich bereits bei Start des Anflugmanövers eine Abweichung von der Referenztrajektorie.
Um dies zu verhindern, wird in Kapitel 4 eine Modifizierung des Modells mit stochastischen Größen vorgenommen. Somit werden der Modellierungsfehler
sowie das Messrauschen mit in das Modell aufgenommen. Unter Berücksichtigung der stochastischen Eigenschaften dieser Störgrößen wird eine
aus zwei Komponenten bestehende Regelung entlang der Referenztrajektorie entwickelt. In der ersten Komponente wird eine lineare Zustandsrückführung
berechnet, während in der zweiten Komponente der aktuelle Systemzustand aus den verrauschten Messwerten geschätzt wird. Zur Schätzung wird ein Kalmanfilter verwendet, wobei in dieser Arbeit zwei Filter-Varianten vorgestellt werden. Es erfolgt noch eine Betrachtung der Stabilität
der implementierten Regelung und eine Erreichbarkeitsanalyse. Unter Erreichbarkeitsanalyse versteht man hierbei bei gegebener Position des Service-Satelliten
die Berechnung eines Raum-Kegels, so dass ein Anflugmanöver möglich ist wenn sich der Ziel-Satellit innerhalb dieses Kegels befindet.
Anschließend werden die Ergebnisse bei Anwendung der hergeleiteten Regelung präsentiert. Zunächst werden verschiedene Beispielszenarien vorgestellt. Bei der Ergebnisanalyse wird zunächst der stabilisierende Effekt des Reglers untersucht. Daraufhin erfolgt eine Untersuchung des modifizierten
Systems auf Steuerbarkeit sowie Beobachtbarkeit hin und ein Vergleich der beiden Filtervarianten. Auch die Ergebnisse der Erreichbarkeitsanalyse werden
vorgestellt. Nach einer Sensitivitätsanalyse der Regelparameter wird auf eine Einschränkung der Regelung eingegangen. Abschließend wird
ein Fazit gegeben sowie ein Ausblick auf mögliche Weiterführungen der Arbeit.
Die Diplomarbeit entstand in Zusammenarbeit mit Prof. Matthias Gerdts, Lehrstuhl für Ingenieurmathematik der Universität der Bundeswehr, München.
Studium: Diplom, Techhnomathematik, U Bayreuth
Als Voraussetzung brachte Frau Pfab Kenntnisse aus der einschlägigen Vorlesung des Betreuers,
Optimale Steuerung mit partiellen Differentialgleichungen, mit.
Studium: Mathematik mit Nebenfach Informatik, Master und Lehramt für Gymnasien, U Bayreuth
Zusammenfassung.
Zu Beginn der Arbeit wird eine kurze Einführung in die adjungierten Gleichungen und in OpenFOAM, einem freiem Programm zur Stömungssimulation, gegeben. Die adjungierten Gleichungen werden in der Regel zur optimalen Steuerung von partiellen Differentialgleichungen und zur Geometrieoptimierung benutzt. OpenFOAM ist ein Strömungslöser, welcher freien Zugang zum Sourcecode zulässt. Dies hat den Vorteil, dass alle vorhandenen Solver vom Benutzer verändert und erweitert werden können.
Bevor die Adjungierte der Eulerschen Gleichung hergeleitet wird, werden einige Zwischenschritte vollzogen. Es wird die adjungierte Gleichung der Wärmeleitungsgleichung berechnet und in OpenFOAM implementiert. Da diese Gleichung selbstadjungiert ist, dass heißt, dass die Ausgangs- und die adjungierte Gleichung von derselben Form sind, kann hier das spätere Vorgehen an einem einfachen Beispiel vorgestellt werden. Im nächsten Schritt wird eine einfache hyberbolische Gleichung, die eindimensionale Advektionsgleichung, betrachtet. Ein Löser dieser Gleichung wird in OpenFOAM implementiert.
Der Hauptteil der Masterarbeit beschäftigt sich mit der Herleitung der adjungierten Eulergleichung im Zwei- und Dreidimensionalen für verschiedene Zielfunktionale zur Geometrie- oder Effizenzoptimierung. Schwierigkeiten stellen vor allem die Herleitung der adjungierten Randbedingungen dar. Diese sind, abhängig von den eingeführten adjungierten Parametern, gegeben durch unterbestimmte Gleichungssysteme. Bei der Implementierung müssen diese mit den numerischen Randbedingungen verknüpft werden. Die Herleitung der adjungierten Gleichung und deren Randbedingung erfolgt mit dem formalen Lagrangeprinzip.
Vor der Implementierung werden einige theoretische Aspekte der Eulergleichung und deren Adjungierten beleuchtet. Die Eulergleichung stellt eine hyperbolische partielle Differentialgleichung in Erhaltungsform dar. Damit sind für den Strömungslöser einige Punkte vorgegeben. Ziel ist es, für die adjungierte Gleichung diese Punkte zu übernehmen, was aufgrund der Form der Gleichung einige Schwierigkeiten beinhaltet. Besonders problematisch ist die Implementierung eines Solvers für hyperbolische Gleichungen in OpenFOAM. Für die Lösung der Gleichungen muss eine spezielle Diskretisierung angewandt werden.
Die Masterarbeit entstand in Zusammenarbeit mit Siemens Corporate Technology in München.
Studium: Techhnomathematik, Master, U Bayreuth
Studium: Diplom, Technomathematik, U Bayreuth
Frau Hiemenz-Müller beschäftigt sich in ihrer Diplomarbeit mit der Modellierung des US-amerikanischen Kokain-Konsums
in den Jahren 1967-1992; für diesen Zeitraum liegen Daten vor. Anhand eines Kompartimentmodells werden die Drogenabhängigen
in zwei Klassen eingeteilt, den sogenannten light users (Gelegenheitskonsumenten) und den heavy users (Vielkonsumenten).
Das benutzte Kompartimentmodell ist nichtlinear aufgrund der Modellierung des Einstiegs in den Drogenkonsum und der abschreckenden Wirkung
von (dahinvegetierenden) Vielkonsumenten.
Zunächst wird die Gleichgewichtslösung für $t \to \infty$ ohne äußere Einwirkung untersucht. Dabei werden
von Frau Hiemenz-Müller die im Buch von Grass, Caulkins, Feichtinger, Tragler und Behrens: Optimal Control of Nonlinear Processes -
With Applications in Drugs, Corruption, and Terror, Springer, 2008, angegebenen Rechnungen detailiert nachgeprüft. Das Modell verzeichnet einen
Gleichgewichtspunkt im ersten Quadranten, der ein asymptotisch stabiler Strudelpunkt ist.
Anschließend wird das Kompartimentmodell um zwei Steuerungen erweitert. Eine Steuerung modelliert Präventionsmaßnahmen,
eine andere Therapiemaßnahmen. Beide unterliegen einer gemeinsamen Budgetbeschränkung. Minimiert wird der Barwert des
Gesamtkostenstroms.
Im Gegensatz zu dem oben genannten Buch bzw. den zugrundeliegenden Originalartikeln wird von Frau Hiemenz-Müller eine direkte
Diskretisierungsmethode mit Hilfe von AMPL (Modellierungssprache, automatische Differentiation) und IPOPT (Innere-Punkt-Löser) benutzt.
Dazu vergleicht sie ihre numerischen Ergebnisse für fünf verschiedene Diskretisierungsvarianten der Differentialgleichungsnebenbedingungen
für verschiedene Schrittweiten und für (verschieden lange) stückweise konstante Steuerungen sowie verschiedene (endliche) Zeithorizonte.
Abschließend wird eine aufwändige Sensitivitätsanalyse der optimalen Lösungen durchgeführt und mithilfe einer Vielzahl
von Abbildungen für die 12 verschiedenen Modellparameter analysiert. Damit lassen sich erstmals auch die Auswirkungen der aus realen Daten
geschätzten Parameter auf die vorhergesagten Lösungen bewerten.
Studium: Diplom, Mathematik, U Bayreuth
Zusammenfassung.
Da bei dieser Arbeit die Numerik und Implementierung im Vordergrund stehen, wird im Kapitel 2 die gut verstandene Theorie
linear-quadratischer elliptischer Optimalsteuerungsprobleme mit allgemeinem Differentialoperator zweiter Ordnung
und beliebigen Randbedingungen sowie verteilten und Randsteuerungen "nur" als Road Map von der Analyse der
Existenz und Eindeutigkeit einer schwachen Lösung des allgemeinen elliptischen Randwertproblems über die
Existenz und Eindeutigkeit einer Optimallösung bis hin zur zentralen notwendigen und hier auch hinreichenden
Optimalitätsbedingung skizziert, die den Ausgangspunkt für die numerische Berechnung der Optimallösung bildet.
Kapitel 3 ist dann der Beschreibung der Finiten-Elemente-Methode gewidmet. Das Optimalitätssystem besteht ja aus
zwei über die Steuerungsgesetze gekoppelte elliptische partiellen Differentialgleichungen. Auch hier werden
nur die Hauptideen der Finite-Element-Methode skizziert. Für ein erstes solch umfassendes Software-Werkzeug von der Problemformulierung in schwacher Form bis hin zur Visualisierung der Optimallösung hat sich Herr Jakob auf feste Triangulierungen
zweidimensionaler Rechtecksgebiete beschränkt. Fehlerschätzer und adaptive Gitter werden nicht behandelt -
sie hätten den Rahmen einer Masterarbeit gesprengt - und sind einer Fortentwicklung vorgehalten; dafür werden Literaturverweise angegeben.
Der nächste Schritt, die Optimierungsiteration, wird in Kapitel 4 dargestellt. Es bieten sich für einen ersten
Zugang die beiden einfachsten Verfahren an, das bedingte Gradientenverfahren und das Gradienten-Projektionsverfahren;
die leistungsfähige primal-duale Aktive-Mengen-Strategie wird der Vollständigkeit wegen noch zusätzlich skizziert,
auch wenn dieses Verfahren hier (noch) keine Anwendung findet. Implementiert wird letztendlich das bedingte Gradientenverfahren.
Das Herzstück der Arbeit sind dann die praktische Umsetzung mitilfe der kommerziellen C++-Programmbibliothek
Diffpack, einem der Bestseller der Firma inuTech, der darauf aufbauende Codegenerator und die graphische Benutzeroberfläche,
beschrieben in den Kapiteln 5-7. Anhand eines Standardbeispiels aus der Literatur, von dem eine analytische Lösung bekannt ist,
wird der Codegenerator validiert.
Herr Jakob hat sich mit dieser Arbeit große Verdienste erworben. Erstmalige konnte Herr Jakob für eine bestimmte Klasse
von Optimalsteuerungsproblemen mit partiellen Differentialgleichungen ein kommerzielles Software-Werkzeug erstellen, dass es auch
Anwendern mit geringem Hintergrundwissen erlaubt, auf diesem schwierigen Gebiet solche Aufgabenstellungen numerisch zu lösen.
Daher darf man nicht ins die Waagschale werfen, dass Herr Jakob sich "nur" auf die wichtige Klasse allgemeiner elliptischer Randwertprobleme mit Dirichlet-, Neumann- und/oder Robin-Randbedingungen beschränkt, denn jede partielle Differentialgleichung ist in ihr eigenes Forschungsgebiet eingebettet und erfordert speziell zugeschnittene Löser. Die Beschränkung auf quadratische Zielfunktionale ist keine wesentliche Einschränkung, da sich die Problemstellungen leicht auf allgemeinere Zielfunktionale erweitern lassen sollten. Allerdings sind dann die Optimalitätsbedingungen "nur" noch notwendig.
Mit Diffpack liegt dem von Herrn Jakob entwickelten Software-Werkzeug ein leistungsfähiger moderner Finite-Element-Löser zugrunde, der ohne Zweifel das Potential besitzt, Herrn Jakobs Codegenerator auf allgemeinere Gebiete als die hier zugelassenen zweidimensionalen Rechteckgebiete zu verallgemeinern. Die Implementierung des bedingten Gradientenverfahrens ist aus Gründen
der Vereinfachung für diese Machbarkeitsstudie gewählt worden. Bei einer Weiterentwicklung würde man sich als Benutzer
sicherlich eine Auswahl der in der Arbeit beschriebenen Optimierungsmethoden wünschen.
Die entwickelte ansprechende Benutzeroberfläche erlaubt eine Eingabe der Daten sehr nahe an der mathematischen Formulierung, sodass ein Benutzer schnell Parameterstudien und auch Tests z.B. bzgl. Iterationszahl, Fehlerschranke und Gittergenauigkeit durchführen kann.
Die Machbarkeitsstudie von Herrn Jakob bietet also noch reichlich Potential für eine kommerzielle Weiterentwicklung in der Firma inuTech.
Studium: Master, Technomathematik, U Bayreuth
Zusammenfassung.
Frau Reis entwickelt zunächst mithilfe der Technischen Mechanik ein mathematisches Modell
zur Beschreibung der Aufgabenstellung. Es stellt sich heraus, dass dies auf endlichdimensionale Optimierungsprobleme
unter Nebenbedingungen in Form von Gleichungen und Ungleichungen führt. Dabei bietet sich eine Vielzahl von Modellen
mit unterschiedlichen Eigenschaften an. Diese werden mit verschiedenen Optimierungslösern einer bekannten Softwarebibliothek
NLopt gelöst. Diverse Testergebnisse geben Hinweise für die praktische Umsetzung.
Studium: Diplom, Technomathematik, U Bayreuth
Die vorliegende Masterarbeit bietet dem Leser einen Einblick in die mathematische Betrachtung dieser Krankheit und deren Bekämpfung mittels der
am häufigsten verwendeten Behandlungsmethode, der Chemotherapie. Nachdem zu Beginn die dazugehörigen biologischen Hintergründe erläutert werden,
folgt die Herleitung eines Compartment-Modells, das die Krebsentstehung in mathematischen Gleichungen ausdrückt. Die Untersuchung dieser Gleichungen
führt zu einem Problem aus dem Gebiet der Optimalen Steuerung gewöhnlicher Differentialgleichungen.
Zusammenfassung.
Herr Sandler beschreibt zunächst in für den medizinischen Laien verständlicher Weise die Entstehung von Krebs durch unkontrollierte Zellteilung
und deren Haupttherapie, die Anwendung von Zytostatika, die sich schnell teilende Zellen bekämpfen und für deren Abbau durch körpereigene
Kontrollmechanismen sorgen. Obwohl diese Therapie heute die verbreiteste Therapieform gegen Krebs ist, ist sie nicht unumstritten. Es gibt durchaus
Fachleute, die den Erfolg der Verabreichung von Zytostatika kritisch sehen und deren Anwendung mehr durch das Gewinnstreben von Pharmaunternehmen
als durch Behandlungserfolge angetrieben sehen.
Dem mathematischen Modell zur Beschreibung des Zyklus der Zellteilung liegen in der mathematischen Biologie häufig verwendete Kompartment-Modelle
zugrunde, welche hier auf Arbeiten von Ledzewicz, Schättler und Swierniak (2003--2004) zurückgehen. Zusätzlich wird der Einfluss eines die Zahl
der Krebszellen minimierenden Medikamentes modelliert. Mathematisch erhält man Probleme der Optimalen Steuerung mit Nebenbedingungen in Form gewöhnlicher Differentialgleichungen. Dieses Grundmodell wird dann um die sogenannten pharmakokinetischen und pharmakodynamischen Gleichungen erweitert. die zum einen
den Verlauf der Arzeneimittelkonzentration im Organismus, zum anderen den Einfluss des Arzeneistoffes auf den Organismus beschreiben. Weitere
Modellierungsbausteine beschreiben die Resistenzbildung gegen den Arzeneistoff und den Einfluss verschiedener Steuerungen aufgrund der Verwendung
von Kombinationspräparaten. Den Abschluss der Modellierung bildet ein Ausblick auf alternative Modelle.
Nach einer Zusammenfassung des Maximumprinzips der Optimalsteuerungstheorie unter dem besonderen Blickwinkel von Problemen, bei denen die Steuerungen
linear in das Modell eingehen, also sowohl bang-bang als auch singuläre Steuerungen auftreten können, werden die beiden wichtigen weiteren notwendigen
Bedingungen, die verallgemeinerte Legendre-Clebsch-Bedingung von Kelley, Kopp und Moyer sowie die analoge Bedingung für vektorwertige Steuerungen von Goh
vorgestellt. Ausgehend von einer Analyse der Hamilton-Jacobi-Bellman-Gleichung werden dann - außergewöhnlich für eine Masterarbeit -
hinreichende Bedingungen für Optimalität für reine bang-bang-Lösungen hergeleitet, die auf Noble und Schättler (2002) zurückgehen.
Vorläuferarbeiten zu dem Gebiet der hinreichenden Bedingungen bei bang-bang und singulären Steuerungen sind alle erst in jüngerer Zeit gefunden worden (Osmolovski, Dmitruk, Mauer, Vossen, Aronna u.a.), ohne bisher einen zufriedenstellenden Abschluss für allgemeinere Fälle wie bang-singulär-bang
gefunden zu haben.
Diese komplizierte Theorie wird dann auf die beiden Zwei- und Drei-Kompartmentmodelle angewendet, bei denen nachgewiesen werden kann, dass singuläre
Steuerungen nicht optimal sein können. Also müssen optimale Steuerungen rein bang-bang sein und für diese Probleme stehen nicht nur notwendige,
sondern auch eine hinreichende Bedingung zur Verfügung.
Praktisches Fazit: Eine Medikamentengabe unterhalb der zulässigen Maximaldosis ist nicht optimal. Dies entspricht auch der praktischen Verabreichung
von Zytostatika. Dennoch darf man nicht verschweigen, dass es noch einen weiten Weg zu erforschen gibt, bis solch relativ einfache mathematischen Modelle realitätsnäher erweitert und deren inhärente Parameter auf den Patienten bezogen bestimmt werden können.
Numerische Lösungen werden abschließend mit einer bewährten direkten Methode, der Kombination des Innere-Punkte-Verfahrens IPOPT
und der Modellierungssprache AMPL, berechnet und diskutiert.
Studium: Master, Technomathematik, U Bayreuth
Zusammenfassung.
In dieser Masterarbeit wird eine parabolische Differentialgleichung mit punktweise integraler
Zustandsbeschränkung behandelt. Nach dem Beweis der Existenz und Eindeutigkeit einer Lösung, werden
notwendige Bedingungen bestimmt. Hierbei führt die Lagrangesche Multiplikatorenregel
auf ein erstes Optimalitätssystem mit einem adjungierten Zustand aus dem Raum der $L^2(Q)$-Funktionen.
In Anlehnung an einen Report von Bonnans und Jaisson [F. Bonnans, P. Jaisson: Optimal control of a parabolic equation
with time-dependent state constraints. Rapport de Recherche RR, 6784, 2008] wird ein alternatives Optimalitätssystem formuliert.
Der Schlüssel für die Herleitung dieses Systems liegt in der Anwendung eines Darstellungssatzes
für lineare und stetige Funktionale auf dem Raum der stetigen Funktionen. Hierbei kann man das Maß
aus dem Dualraum von $C([0, T])$ mit einer Funktion beschränkter Variation identifizieren,
und über eine spezielle Integrationsregel für Riemann-Stieltjes Integrale das Integral
$\int_0^T f(t) d\mu(t) als gewöhnliches Lebesgueintegral darstellen. Ausgehend von dem so erhaltenen
alternativen Optimalitätssystem, kann man die Stetigkeit der Steuerung und des Lagrangemultiplikators
zur Zustandsbeschränkung beweisen. Diese Technik wird in dem Report von Bonnans und Jaisson zum ersten Mal
für Optimalsteuerungsprobleme mit partiellen Differentialgleichungen und Zustandsbeschränkungen angewendet,
hat jedoch Parallelen zur Habilitation von Maurer [H. Maurer: Optimale Steuerprozesse mit Zustandsbeschränkungen.
Habilitation, Universität Würzburg, 1976; siehe auch: H. Maurer: On the minimum principle for optimal control problems
with state constraints. Schriftenreihe des Rechenzentrums der Universität Münster, 41, 1979].
Das Verfahren ist also, obwohl bei gewöhnlichen Optimalsteuerungsproblem wohlbekannt, in der Community der
Optimierer mit partiellen Optimalsteuerungsproblemen weithin unbekannt. Deshalb liegt sicherlich noch viel Potential
in diesem Zugang für weitere Analysen. Insbesondere ist eine Verallgemeinerung der Technik auf andere Klassen
von Optimierungsproblemen mit partiellen Differentialgleichungen oder die Betrachtung mehrerer Zustandsbeschränkungen
hochinteressant.
Der Ursprung dieses Verfahrens geht sogar bis in das Jahr 1963 zurück: [A.E. Bryson, W.F. Denham
und S.E. Dreyfus: Optimal programming problems with inequality constraints I: Necessary conditions for extremal solutions.
AIAA Journal, 1(11):2544-2550, 1963]. Durch dieses nur formal gültige Verfahren kann das Optimalitätssystem leicht hergeleitet
werden. Seine mathematische Rechtfertigung findet man in der oben genannten Habilitation von Maurer. Vergleiche auch die Dissertation
von Frey [M. Frey: Shape calculus applied to state-constrained elliptic optimal control problems. Universität Bayreuth, 2012],
wo dieses Verfahren auch auf elliptische Optimalsteuerungsprobleme mit einer verteilten Steuerung und einer Zustandsbeschränkung
inkl. (fast) aller notwendiger Beweise übertragen konnte. Auch dort gelang u.a. der Beweis neuer notwendiger Bedingungen
mit höherer Regularität.
In der Masterarbeit von Andreas Schmidt wird unter der Annahme, dass die Zustandsbeschränkung auf einem Intervall aktiv ist,
das Problem in Teilintervalle zerlegt. Die Zustandsbeschränkung auf der aktiven Menge wird dann in ein äquivalentes Randwertproblem
umgeschrieben und an die Lagrangefunktion angekoppelt. Durch Ableiten dieser Funktion kann man dann das alternative Optimalitätssystem
nach Bonnans und Jaisson ebenfalls bestimmen.
Bei der Optimalsteuerung gewöhnlicher Differentialgleichungen ist dieses Verfahren von Bryson et. al. gut untersucht und
gilt bei den Anwendern als Standardverfahren. Eine allgemeine Analyse für partielle Differentialgleichungen ist aber schwierig,
da die zeitliche und die räumliche Regularität stets miteinander gekoppelt sind.
Abschließend wird dann noch ein Algorithmus zur Schaltpunktsuche entwickelt und analysiert, wie er bei gewöhnlichen Optimalsteuerungsproblemen
mittlerweile häufig angewendet wird. Erste Anwendungen bei partiellen Optimalsteuerungsproblemen findet man in der Arbeit von
von Pesch, Bechmann und Wurst [H.J. Pesch, S. Bechmann und J.-E. Wurst: Bang-Bang and Singular Controls in Optimal Control Problems
with Partial Differential Equations. In: Proc. of the 51st IEEE Conference on Decision and Control. Maui, Hawaii, USA, 2012.]
Für den Schaltpunktsuch-Algorithmus muss allerdings eine weitergehende Untersuchung der Konvergenz und Stabilität des Verfahrens
noch offen bleiben. Die numerischen Untersuchungen lassen jedoch vermuten, dass die Konvergenz quadratisch verläuft.
Bereits nach zwei Iterationen ändert sich der Fehler nicht mehr wesentlich. Eine bessere Zielfunktion oder eine andere Interpolation
für die Berechnung der Unstetigkeit bietet hier viel Raum für weitere Experimente und Analysen. Weiterhin wurden nur sehr einfache
Diskretisierungen für die Herleitung des Optimalitätssystems für die Schaltpunktsuche gewählt. Komplexere Verfahren könnten hier
bessere Ergebnisse liefern, erhöhen jedoch den Rechenaufwand für das Ableiten der Lagrangefunktion enorm. Symbolische Rechenpakete
wie MAPLE ermöglichen hier eine automatische Berechnung, wodurch die Herleitung wesentlich vereinfacht wird.
Numerische Resultate für die lineare Wärmeleitungsgleichung mit einer im Ort integralen, in der Zeit punktweisen Zustandsbeschränkung
runden die Arbeit ab und weisen die Mächtigkeit der Methode experimentell nach. Dieses abstrakte Problem findet sein anwendungstechnisches
Pendant in einem Problem des Laser Cusings, bei dem mittels Aufschmelzung von Metallstäuben Schicht für Schicht filigrane metallische Objekte
von individuellen Zahnimplantaten bis hin zu Automotoren für Kleinserien produziert werden können. Dabei steht diese Art von
Zustandsbeschränkung für eine ausreichende Erhitzung des Materials über den Schmelzpunkt. Typisch für solche Aufgabenstellungen
sind verteilte Steuerungen mit festem Ortsprofil, die (punktweise) nur von der Zeit abhängen, wie z.B. der Einflussbereich eines zu steuernden Lasers,
dessen Amplitude, seine Intensität, und dessen Einflussbreich jedoch zeitlich veränderlich sind.
Die in dieser Masterarbeit aufgezeichnete Brücke zwischen gewöhnlichen und partiellen Optimalsteuerungsproblemen gerade bei
Zustandsbeschränkungen sollte noch viel Potential für zukünftige Forschungen bieten; siehe auch die oben zitierte
Dissertation von Frey.
Studium: Master, Technomathematik, U Bayreuth
Aufgabenstellung und Ziel.
In dieser Masterarbeit sollte das Thema der Optimalen Steuerung der Navier-Stokes-Gleichungen behandelt werden.
Der Schwierigkeitsgrad dieses speziellen Optimalsteuerungsproblems für partielle Differentialgleichungen geht über
diejenigen Problemstellungen hinaus, die gewöhnlicherweise in einer Vorlesung über Optimale Steuerung mit
partiellen Differentialgleichungen behandelt werden. Damit ist diese Aufgabenstellung eine Herausforderung.
Als "akademisches" Beispiel sollte der sogenannte forward facing steps in Theorie und Numerik behandelt werden,
bei dem ein Fluid über eine Treppenstufe hinabfließt. Aus der Setzstufe der Treppenstufe sollte dann Fluid
ausgeblasen bzw. angesaugt werden, um nach der Stufe eine möglichst laminare Strömung zu erhalten.
Dieses akademische Beispiel ist ein sehr vereinfachter Prototyp für das Ansaugen bzw. Ausblasen von Luft
aus Flugzeugtragflächen, um eine möglichst laminare und damit wirbel- und reibungsfreie Umströmmung
der Tragflächen zu erhalten. Keinesfalls Zukunftsmusik, sondern im Fokus aktueller Entwicklungen.
Ziel ist dabei natürlich Kerosin zu sparen.
Zusammenfassung.
Die (nichtlinearen parabolischen) Navier-Stokes-Gleichungen sind ein Modell für Strömungsvorgänge von Fluiden (Gasen oder Flüssigkeiten);
sie bestehen aus der (vektoriellen) Impulsgleichung und der (skalaren) Kontinuitätsgleichung, ergänzt um Anfangs-
und Randbedingungen, je nach Aufgabenstellung. Dieses System wird zunächst hergeleitet. Sodann werden verschiedene
Spezialfälle (zäher und viskoser Grenzfall, die linearisierten Gleichungen von Stokes, ebene und stationäre Strömungen)
angeführt. Als tragendes Beispiel der Arbeit wird der forward facing step beschrieben.
Danach werden die bekannten theoretischen Resultate zur Existenz und Eindeutigkeit aus der Literatur zusammengestellt. Die Existenz
klassischer Lösungen ist bis heute nicht in vollem Umfang geklärt. Unter entsprechenden Voraussetzungen liegen
für den zweidimensionalen Fall Existenzresultate für klassische Lösungen vor.
Für den Zweck der Optimalen Steuerung werden jedoch schwache Lösungen benötigt. Diese sind auch klassische Lösungen,
sofern sie denn überhaupt existieren. Die schwachen Lösungen werden als abstrakte Funktionen der Zeit mit Bildern in einen divergenzfreien
Ortsvektorraum verstanden, die Navier-Stokes-Gleichung also als Gleichung in diesem Funktionenraum geschrieben.
Damit verschwindet die Kontinuitätsgleichung aus dieser Gleichung; sie ist in den Raum inkorporiert. Bildet man nun
den Abschluss der $C^\infty$-Funktionen in diesem Raum, erhält man sogenannte divergenzfreie $L^p$- und Sobolewräume.
Auch der Druck kann jetzt aus der Gleichung im Funktionenraum eliminiert werden.
Danach werden die wichtigsten Resultate zur Existenz und Eindeutigkeit von schwachen Lösungen aus der Literatur
dargestellt. Da man in drei Raumdimensionen bisher noch keine Eindeutigkeit nachweisen konnte (eines der noch
offenen sechs Millenniumsprobleme des Clay Institute in Cambridge, Massachusetts), beschränkte sich Herr Seitz
auf den zweidimensionalen Fall, allerdings mit Blick auf Steuerungsprobleme auf die inhomogene Gleichung mit homogenen
und inhomogenen Randbedingungen und auch deren linearisierte Versionen. Für diese lassen sich die Regularität der
Lösungen und die Steuerungszustandsoperatoren und deren Differenzierbarkeit noch mit vertretbarem Aufwand angeben.
Damit sind alle nötigen Vorarbeiten getan, um im folgenden Kapitel die Herangehensweise zum Nachweis der Existenz von Lösungen
der Navier-Stokes-Optimalsteuerungsprobleme und zur Herleitung ihrer notwendigen Bedingungen auf die schwierigen Gleichungen
von Navier-Stokes zu übertragen. Es werden beide Fälle, verteilte und Randsteuerungen, theoretisch behandelt. Mit der Analyse
des forward facing steps wird dieses Kapitel beendet.
Danach folgt dann eine Beschreibung des für die Navier-Stokes-Gleichungen geeigneten Differenzenverfahrens auf sogenannten
staggered grids. Man beachte, dass "naive" Disketisierungen im Allg. zu unphysikalischen Oszillationen führen.
Zusätzlich wird auch ein kurzer Ausblick auf geeignete Finite-Elemente-Verfahren gegeben. Da eine eigene Implementierung den
Rahmen einer Masterarbeit sprengen würde und auch Angesichts der vorhandenen exzellenten Software unsinnig wäre, wurde hier
das kommerzielle Softwaretool COMSOL Multiphysics verwendet. Mit diesem Werkzeug werden dann die Navier-Stokes-Gleichungen und
deren linearisierte Variante, die Stokes-Gleichungen, numerisch gelöst.
Herr Seitz entscheidet sich zur numerischen Lösung der verteilten Steuerungsprobleme mit homogenen bzw. inhomogenen Randbedingungen
für eine gradienten-basierte Methode, im Gegensatz zum one shot approach, bei dem das komplette gekoppelte Optimalitätssystem
numerisch angegangen wird. Untersucht werden Abstiegsverfahren, wobei der Gradient des reduzierten Funktionals über die adjungierte Gleichung
berechnet wird, sowie projezierte Gradientenverfahren und ein nichtlineares CG-Verfahren. Das erste und das letzte der drei Verfahren werden
dann zur Lösung der stationären Stokes-Gleichung mit verteilter Steuerung mithilfe von COMSOL Multiphysics verwendet.
Die Steuerungsbeschränkungen werden dabei penaltisiert. Numerische Ergebnisse für den forward facing step runden die Arbeit ab.
Auch noch das ursprünglich geplante (physikalisch sinnvollere) Randsteuerungsproblem zu lösen hätte den Rahmen dieser Masterarbeit
mit ihrem umfangreichen theoretischen Teil gesprengt.
In einem Ausblick wird noch auf Literaturergebnisse für die physikalisch sinnvollere Randsteuerung sowie instationäre
Probleme verwiesen. Auch Verfahren zweiter Ordnung wurden bereits eingesetzt (Hinze, Kunisch; 2001, 2004). Die Literatur
zur Optimalen Steuerung der Navier-Stokes-Gleichungen oder ihrer Verwandten ist mittlerweile sehr umfangreich.
Studium: Master, Technomathematik, U Bayreuth
Ziel der Arbeit war ferner, insbesondere das in dem Preprint verwendete exponentielle Wachstum durch das (realistischere) logistische Wachstum
zu ersetzen und das $L^2$-Zielfunktional durch eines vom $L^1$-Typ zu ersetzen, welches im Allgemeinen die Realität ebenfalls
besser trifft, auch wenn die Theorie deutlich schwieriger wird. Die diversen Modellvarianten sollten dann numerisch nach der Methode
First discretize, then optimize mit der Kombination AMPL/IPOPT gelöst und anschließend näherungsweise mit dem Minimumprinzip
der Optimalsteuerungstheorie verifiziert werden, in dem die numerischen Approximationen für Zustandsvariable und adjungierte Variablen
in die analytischen Steuergesetze eingesetzt und mit den Approximationen für die Steuervariablen verglichen werden.
Inhalt:
In der Masterarbeit von Herrn Thäter werden Modelle vorgestellt, die die Ausbreitung von Krankheiten beschreiben, die von Mensch zu Mensch
durch Tröpfchen- oder Schmiereninfektion übertragen werden und gegen die geimpft werden kann. Auf diese Modelle wird die Theorie
der Optimalen Steuerung numerisch angewandt und mit analytischen Hilfsmitteln verifiziert. Ausgehend von der stark vereinfachenden Annahme
des exponentiellen Bevölkerungswachstums (und einem zum Zeitpunkt der Ausgabe der Masterarbeit noch nicht veröffentlichten Artikel
von Biswas, Paiva und de Pinho) werden die Modelle um logistisches Wachstum erweitert, das von dem belgischen Mathematiker Verhulst (1845)
als zutreffendere Beschreibung des Bevölkerungswachstums veröffentlicht wurde. Auf beide Wachstumsmodelle, zusammen mit einem Kompartimentmodell,
wird die Theorie der optimalen Steuerung mit verschiedenartigen Beschränkungen an die Zustands- und Steuervariablen angewandt.
Die Steuervariable tritt in allen Modellen linear in den Nebenbedingungen auf, im Zielfunktional wird aber zum einen eine quadratische und
zum anderen eine lineare Steuerung betrachtet. Die optimalen Steuergesetze werden analytisch aus der Hamiltonfunktion mithilfe der
Karush-Kuhn-Tucker-Bedingungen aus der nichtlinearen Optimierung und dem Lagrange-Formalismus hergeleitet. Im Falle der linear im Zielfunktional
auftretenden Steuerung werden notwendige Bedingungen an die Optimalität des Steuergesetzes überprüft, bei quadratisch im Zielfunktional
auftretenden Steuerungen dazu noch eine weitere notwendige Bedingung zweiter Ordnung. Neben der Herleitung der Steuergesetze werden die numerischen
und analytischen Ergebnisse diskutiert und ein Bezug zur angewendeten Impfroutine hergestellt. Am Ende gibt es noch einen kurzen Ausblick
auf die Optimierung bezüglich eines zeitabhängigen Zielfunktionals, in dem die entstehenden Kosten über den Betrachtungszeitraum abgezinst werden.
Neben den in der Arbeit von Biswas, Paiva und de Pinho untersuchten Modellvarianten zu exponentiellem Wachstum werden in der Masterarbeit
von Herrn Thäter insbesondere die folgenden weiteren neuen Modellvarianten untersucht. Dabei ist die Gesamtzahl der verfügbaren Vakzine
entweder unbeschränkt oder beschränkt, je nachdem welche zusätzlichen Beschränkungen noch einbezogen werden und dies in Kombination
sinnvoll ist. Im Einzelnen sind die Modellvarianten charakterisiert durch:
1) Exponentielles Wachstum und bzgl. Steuerung quadratisches Zielfunktional (geeignet bei schlechter medizinischer Infrastruktur) mit
(zum Teil bereits bei Biswas et. al. behandelt):
2) Logistisches Wachstum und bzgl. Steuerung quadratisches Zielfunktional:
3) Logistisches Wachstum und bzgl. einer modifizierten Steuerung lineares Zielfunktional (geeignet bei guter medizinischer Infrastruktur):
4) Exponentielles Wachstum und bzgl. Steuerung quadratisches Zielfunktional, aber mit Abzinsungsterm, um zukünftige Kosten geringer zu gewichten.
Studium: Master, Mathematik (NF Informatik), U Bayreuth
Aufgabenstellung und Ziel.
Mit dieser Masterarbeit sollten zwei Masterarbeiten auf dem Gebiet der Mathematischen Modellierung und Optimalen Steuerung mit Anwendungen
auf Krebstherapien fortgesetzt werden, die am Lehrstuhl für Ingenieurmathematik behandelt worden sind: Eleonora Feist (2012),
Manuel Sandler (2014). Basierend auf einem aktuellen Artikel von Ledzewicz, d'Onofrio und Schättler aus dem Jahre 2013 sollte
ein Modell untersucht werden, bei dem zwei Therapieformen kombiniert werden, Strahlentherapie und Antiangiogenese. Mit der letztgenannten
Therapie wird durch geeignete Medikamente die Bildung des tumoreigenen Blutsystems unterbunden; siehe auch die Masterarbeit Feist.
Eine Kombination dieser Therapie mit Chemotherapien wurde bereits früher untersucht (Schättler, Ledzewicz, Maurer, 2009),
wie auch eine Kombination aus Chemo- und Immuntherapie (Schättler, Ledzewicz, Mosalman, 2013). Alle hier genannten Arbeiten
sind im Literaturverzeichnis der Arbeit von Frau Wagner aufgeführt.
In der erstgenannten Arbeit aus dem Jahre 2013 findet man eine genaue mathematische Analyse des Optimalsteuerungsproblems
für die Kombinationstherapie Bestrahlung/Antiangiogenese. Ziel der Optimierung ist die Minimierung des Tumorvolumens
über einen ebenfalls zu mitzuoptimierenden, also nicht vorgegebenen Therapiezeitraum. Die Arbeit enthält jedoch
keine numerischen Resultate. Diese gilt es in dieser Masterarbeit nachzuliefern bzw. zu versuchen, inwieweit man hier
einen neuen Beitrag liefern kann. Alle diese Problemstellungen sind neben dem wichtigen Anwendungsgebiet auch mathematisch interessant,
da die auftretenden Steuerungen stets linear in Zielfunktion und Nebenbedingungen eingehen, mithin bang-bang und/oder singuläre
Steuerungen auftreten können.
Bei dem hier untersuchten Kombinationstherapiemodell gehen sogar beide Steuerungen linear in Zielfunktion und Nebenbedingungen ein.
Bei Optimalsteuerungsproblemen mit vektorwertigen Steuerungen dieser Art ist theoretisch relativ wenig bekannt, im Gegensatz
zu skalaren Steuerungen, wo auch bzgl. hinreichender Bedingungen in den letzten Jahren bedeutende Fortschritte erzielt werden konnten;
siehe u.a. das neue Buch von Osmolovskii, Maurer: SIAM 2012.
Inhaltsangabe.
Zunächst gibt die Arbeit von Frau Wagner eine sehr lesenswerte populär-wissenschaftliche Einleitung des medizinischen
Hintergrundes über die Funktionsweise von Zellen, die Krebsentstehung und Krebstherapien. Zukunftsmusik ist ohne Zweifel
die Entwicklung einer personenbezogenen Therapie gegen die vielleicht hunderte von Krankheiten, die heute unter der Sammelbezeichnung
Krebs zusammengefasst werden. Und hier setzt die Mathematik mit Modellierung, Analyse, Optimierung und numerischer Lösung an,
sich in die interdisziplinäre Zusammenarbeit von Ärzten, Biologen, Chemikern und Physikern einzubringen. Als Mathematiker
muss man den Anwendungshintergrund (bis zu einem gewissen Grade) verstehen, um die mathematischen Modelle (nachvollziehen bzw.)
(mit-)entwickeln zu können.
Das zu untersuchende zweiteilige Modell, welches hier aus der Literatur entnommen werden konnte, besteht zum einen aus dem schon
in der Masterarbeit von Eleonora Feist (2012) verwendeten Antiangiogenesemodell nach Hahnfeldt, Panigrahy, Folkman u.a. (1999),
welches auf der Gompertzschen Wachstums für das Tumorvolumen und einer zeitabhängigen Trägerkapazität beruht,
zum anderen auf dem sogenannten LQ-Modell nach Ergun, Camphausen und Wein (2003), bei dem die Wahrscheinlichkeiten, mit denen
die durch die Strahlung verursachten Einzel- bzw. Doppelstrangbrüche der DNA auftreten, mittels eines bzgl. der Strahlungsdosisrate
linearen und eines retardiert-integralen quadratischen Terms modelliert werden. Steuerungen sind die Dosis für den Angiogenese-Hemmer
und die Strahlungsdosisrate. Beide gehen linear in Zielfunktional und Differentialgleichungen ein, ein System der Dimension 6.
Die Menge der chemischen Wirkstoffe gegen die Angiogenese wie auch die Auswirkungen der Strahlung müssen dabei über den
``freien'' Therapiezeitraum beschränkt werden. Dies führt auf zwei isoperimetrischen Ungleichungsnebenbedingungen
an die Steuerungen, die man aber auf zwei leichter zu behandelnde Ungleichungsendbedingungen an zwei ``künstlich'' eingeführte
Zustände transformieren kann.
Die Theorie der Optimalen Steuerung, insbesondere das Maximumprinzip werden nun auf dieses spezielle Optimalsteuerungsproblem angewandt.
Wie gesagt, das Auftreten von zwei linear eingehenden Steuerungen bedeutet eine nicht zu unterschätzende Herausforderung
für die mathematische Analyse. In der Arbeit wird der Einfachheit halber zunächst das Minimumprinzip für den skalaren Fall
analysiert. Aber auch dafür liegt die Hauptschwierigkeit bei Optimalsteuerungsproblemen darin, dass es keine allgemein gültige
Methode gibt, Reihenfolge und Typ der Extremalenbögen, ob bang-bang oder singulär, vorab zu bestimmen.
Allerdings gelingt manchmal der Beweis, ob eine singuläre Steuerung überhaupt vorliegen kann (durch Widerspruch zum Maximumprinzip, speziell zur Aussage, dass nicht alle Multiplikatoren gleichzeitig verschwinden dürfen). Nimmt man im Zweifelsfall die
Existenz eines singulären Extremalenbogens an, gelingt es im Allgemeinen, eine Beziehung herzuleiten, der die singuläre Steuerung,
sofern sie denn existiert, genügen muss. Im skalaren Fall ist dies immer eine Feedback-Formel: die singuläre Steuerung hängt
ausschließlich von den Zuständen ab.
Dies gilt für den hier vorliegenden Fall einer vektoriellen Steuerung so nicht. Der Antiangiogenese-Hemmer hängt zusätzlich
noch von der Strahlendosisrate ab, ist aber unabhängig vom Typ der zweiten Steuerung. Genauer: Eine Linearkombination der beiden
Steuerungenhängt ausschließlich von den Zuständen ab, wobei der Koeffizient vor der zweiten Steuerung, der
Strahlendosisrate, von einer der künstlich eingeführten Zustandsvablen abhängt.
Frau Wagner führt diese sehr komplizierten Rechnungen aus; sie stehen im Anhang. Diese finden sich nicht in der Orginalliteratur.
Für diese Rechnungen wird das sogenannte Lie-Klammern-Kalkül verwendet, um überhaupt eine Chance zu haben, die
Ausdrücke fehlerfrei zu berechnen.
Es zeigt sich, dass der Ausdruck für eine mögliche singuläre Steuerung für den Antiangiogenese-Hemmer identisch mit dem Ausdruck ist, den man erhielte, wenn man eine Monotherapie anwendete, also die zweite Steuerung identisch Null setzte.
Schließlich ist nicht auszuschließen, dass auch die Strahlendosisrate singulär werden kann. Wenn also beide Steuerungen gleichzeitig singulär werden, werden diese durch ein (2 mal 2) lineares Gleichungssystem bestimmt, deren Koeffizienten
Lie-Klammern 2. Ordnung enthalten. Wegen der Komplexität der Formeln für die Koeffizienten werden diese numerisch bestimmt.
Schließlich wird noch die Goh-Bedingung, eine weitere notwendige Bedingung für vektorwertige Steuervariablen im Falle
singulärer Teilstücke für mehr als eine Steuervariable, überprüft: Sie ist immer erfüllt, was besagt,
dass eine total singuläre Steuerung über dem gesamten Therapiezeitraum nicht ausgeschlossen ist.
Das abschließende Kapitel zu den numerischen Resultaten mit der bewährten Kombination aus der Modellierungssprache AMPL
und dem Innere-Punkt-Löser IPOPT beschließt die Arbeit. Berechnet werden jeweils die Monotherapie-Lösungen
und die Kombinationstherapie. Bereits in der Monotherapielösung für die reine Strahlentherapie, aber auch in der Kombinationstherapie treten bislang unerklärliche Chattering-Effekte auf, obwohl die singulären Steuerungen von erster Ordnung sind.
(Chattering Effekte können bei skalaren singulären Steuerungen zweiter Ordnung auftreten; siehe das bekannte Beispiel von Fuller.)
Auch die näherungsweise Verifikation der notwendigen Bedingungen mithilfe der Approximationen der Zustands- und adjungierten Variablen, die durch diese First-discretize-then-optimize-Methode erzielt worden sind, gelang nur unbefriedigend.
Das Problem hat sich also als hartnäckiger erwiesen als erwartet. Kein Wunder, dass numerische Resultate bisher noch nicht
publiziert wurden.
Studium: Master, Wirtschaftsmathematik, U Bayreuth
Inhaltsangabe.
Die Arbeit gliedert sich in eine aussagekräftige kurze Einleitung und ein vierseitiges einführendes Kapitel zu AIDS.
Kapitel 3-6 beschäftigt sich in einem ersten Modell mit der speziellen Situation in Nigeria und der dortigen besonderen Rolle
von jungen männlichen Truckern und Prostituierten. Ausgangspunkt ist die Beobachtung, dass die aus Standardmodellen abgeleiteten Vorhersagen
über die Ausbreitung von AIDS in der Gesamtbevölkerung Nigerias nicht mit den Kennzahlen zu HIV übereinstimmen, denn
die tatsächlichen Krankheitszahlen liegen deutlich höher, d.h. schlicht, dass die Standardmodelle zur Beurteilung
(und ihre abgeleiteten Empfehlungen zur Verbesserung der Situation) für Nigeria unzureichend sind. Auf der Suche nach den (möglichen)
wesentlichen Akteuren ist man in Nigeria auf zwei besondere Risiko-Personengruppen gestoßen: Junge männliche Truckerfahrer,
die weite Distanzen im Land überbrücken, und weibliche Prostituierte.
Zunächst wird in Kapitel 3 ein SI-Kompartimentmodell mit den von der Gesamtbevölkerung isolierten Risiko-Personengruppen
aufgestellt und nur heterosexuelle Interaktionen zwischen diesen Klassen betrachtet. Frau Weiß berechnet die Reproduktionsrate
und analysiert sodann deren Stabilität sowie besonders wichtig deren Sensitivität. Eine solche Sensitivitätsanalyse
ist im wirtschaftswissenschaftlichen Kontext als Elastizität (der Reproduktionsrate) bekannt. Anschließend wird diese
Subpopulationen in Kapitel 4 mit der allgemeinen, sexuell aktiven Bevölkerung gekoppelt. Zum einen, da Verluste aus den Kerngruppen
durch Neurekrutierungen aus der allgemeinen Bevölkerung ersetzt werden und sowohl Trucker als auch Prostituierte
nach ihrer Arbeitsniederlegung zur allgemeinen Bevälkerung zählen, zum anderen, weil die Mitglieder beider Kerngruppen auch
Sexualpartner haben, die eben nicht aus diesen Kerngruppe stammen. Unter Ausnutzen der Tatsache, dass in der normalen Bevölkerung
HIV wesentlich geringer verbreitet ist, gelingt es hier, ein aussagekräftiges Modell trotz z.T. nur lückenhafter und grober
Kennzahlen zu erstellen. Dieses kann beschreiben, wie das Vorkommen in der generellen Population durch die Kontrolle der Infektion
in der Kerngruppe reduziert werden kann. Beispielhaft wird die Auswirkung der Benutzung von Kondomen der Risikogruppen auf die
Ausbreitung der Krankheit in der Gesamtbevölkerung (näherungsweise) untersucht. Kapitel 6 fasst die entsprechenden numerischen
Ergebnisse und deren Diskussion zusammen.
Im zweiten Teil der Arbeit, in den Kapitel 7-9, wird ein Modell mit gänzlich anderer Zielrichtung untersucht, welches
die Optimierung der Therapie der Krankheit AIDS zum Ziel hat. Dabei werden wichtige Zellarten des menschlichen Immunsystems
als Kompartimente betrachtet. Ziel einer optimal geführten Kombinationstherapie zweier Medikamente ist hierbei, die Anzahl
der gesunden Zellen im Körper zu maximieren. Die betrachteten Medikamente sind der RT-Inhibitor und der Hemmstoff PI,
welche dafür sorgen, dass die Verbreitung der Infektion im Körper reduziert wird und die Zellen angeregt werden,
statt des ansteckenden einen nicht-ansteckenden Virus hervorzubringen, der ebenfalls im Modell mit eigener Dynamik berücksichtigt
wird. Gleichzeitig sollen die Kosten für Medikamente minimiert werden. Mathematisch führt dieses Modell auf ein optimales
Steuerungsproblem mit zwei Steuerungen. Es wird zunächst numerisch ohne Medikamentengabe simuliert. Dann werden die notwendigen
Bedingungen des Minimumprinzips hergeleitet. Im abschließenden 9. Kapitel werden die numerischen Lösungen, erhalten
über die Modellierungssprache AMPL mithilfe des Hochleistungs-NLP-Lösers IpOpt präsentiert.
Dazu werden detailiert die Diskretisierung und die Erstellung der AMPL Datei besprochen. Aussagekräftige Visualisierungen
und deren zughörige Interpretationen runden die Masterarbeit von Frau Weiß ab. Ergebnis der numerischen Lösung
des optimalen Steuerungsproblems ist eine zeitabhängige Dosierungsempfehlung.
Es sei erwähnt, dass im zugrundeliegenden Preprint keinerlei Aussage zu finden ist, wie die dort gezeigten Bilder entstanden sind;
mindestens ein Parameter im Preprint ist wohl falsch angegeben, da sich die im Preprint befindlichen Abbildungen nur durch Ändern
von Modellparametern ergeben.
Studium: Master, Technomathematik, U Bayreuth
Inhaltsangabe.
Im Verlauf der Arbeit werden daher zunächst Begriffe der Federntechnik erklärt. Anschließend wird auf die mathematischen und technischen Grundlagen der Finite-Elemente-Methode eingegangen. Die beiden unterschiedlichen Herangehensweisen an die die Finite-Elemente-Methode, einmal
aus ingenieurwissenschaftlicher Sicht, einmal aus mathematischer Sicht, werden einander gegenübergestellt. Es wird aufgezeigt, dass die beiden Zugäge
trotz ihrer auf den ersten Blick unterschiedlichen Herangehensweisen in Einklang gebracht werden können. Eine solche Gegenüberstellung findet man
in der Literatur unseres Wissens nicht. Außerdem werden technische Details erörtert, die vor allem für die spätere Anwendung von Bedeutung
sind und das Verständnis der Implementierung erleichtern. Dem folgt die Vorstellung des verwendeten Finite-Elemente-Kerns. Mit dessen Hilfe wird
letztendlich ein entsprechendes Programm erstellt. Durch ausführliche Testreihen werden geeignete Parametereinstellungen für das Programm ermittelt. Anschließend wird es mit Hilfe eines kommerziellen Finite-Elemente-Programms sowie realer, vermessener Federn und Kennlinien validiert.
Abgerundet wird die Arbeit mit einem zusammenfassenden Fazit und einem Ausblick auf weitere offene Themengebiete.
Diese Masterarbeit ist für den Studiengang Technomathematik geradezu prototypisch. Sie umfasst, was diesen Studiengang am Ende kulminierend
in der Masterarbeit ausmachen soll: Ein technisch anspruchsvolles Problem, hier sogar aus einer industriellen Aufgabenstellung, dessen
mathematische Modellierung, der numerischen Lösung des mathematischen Problems mithilfe von hier zur Verfügung stehenden Software-Werkzeugen,
die jedoch zusammengeführt werden mussten, der Implementierung der zulösenden Anwenderprobleme, was ohne gute informatische Kenntnisse
nicht zu machen ist, und schließlich der Rückübersetzung der numerischen Ergebnisse in die Sprache des Ingenieurs, in die man sich als
Technomathematiker/-in einarbeiten können muss.
Studium: Master, Technomathematik, U Bayreuth
Abschluss:
Erste Anstellung: sofort nach Studienabschluss
Position:
Firma:
E-Mail: henner.raetsch"at"freenet.de
von
Christian Reinl
Dass Mathematik häfig als verborgene Schlüsseltechnologie bezeichnet wird, liegt wohl daran, dass
sich Laien nicht vorstellen können, dass man einen so einfach scheinenden Prozess wie das finale
Polieren der Rückseite von Gleitsichtbrillengläsern besser verstehen und optimieren kann, wenn man
mathematische Methoden einsetzt.
Abschluss: November, 2005
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Branche: Universität (TU Darmstadt, Lehrstuhl für Simulation und Systemoptimierung, Fachbereich Informatik)
E-Mail: reinl"at"sim.tu-darmstadt.de
Homepage: Christian Reinl
Sonstiges: Herr Reinl hat 2010 seine Promotion mit einer Dissertation mit dem Titel
Trajektorien- und Aufgabenplanung kooperierender Fahrzeuge: Diskret-kontinuierliche Modellierung und Optimierung
am Lehrstuhl für Simulation und Systemoptimierung Prof. von Stryk,
Fachbereich Informatik, der TU Darmstadt abgeschlossen. Danach arbeitete Herr Dr. Reinl in einem DFG-Projekt zur optimierungsbasierten
Kompensation von Abdrängungen bei fräsenden Industrierobotern.
von
Johannes Reitzenstein
Eine der wichtigen Fragestellungen der Theoretischen Chemie hängt mit der Bestimmung von Sattelpunkten
erster Ordnung auf n-dimensionalen Potentialhyperflächen z = f(x) zusammen.
Dabei sind Sattelpunkte erster Ordnung dadurch definiert, dass in ihnen alle Eigenwerte der Hessematrix von f
bis auf einen positiv sind. Diese Sattelpunkte markieren jene Punkte (Pässe) zwischen zwei (lokalen) Minima von f,
die man überwinden muss, um auf der Potentialfläche von einem Minimum zum anderen zu gelangen (oder von einem
Punkt (x_1,f(x_1)) zu einem anderen Punkt (x_2,f(x_2)), wenn die dort geltenden Funktionswerte
von f kleiner sind als im Sattelpunkt). Die Existenz solcher Sattelpunkte ist durch das sogenannte Mountain-Pass-Theorem
gesichert. Diese Sattelpunkte geben Hinweise auf sogenannte Reaktionspfade, also wie man von einem mit einem (lokalen) Minimum
von f assoziierten, stabilen Molekülzustand zu einem anderen gelangt. Bei der Überquerung dieser "Gebirgspässe"
benötigt man längs des "Reaktionspfades" die geringste Energieanhebung, um von dem einen Molekülzustand zu dem
anderen zu gelangen. Kennt man den Sattelpunkt lassen sich die Übergangsstruktur, also die Konfiguration des Moleküls im
Sattelpunkt und der Mechanismus und die Rate des Übergangs sowie die Reaktionskoordinate bestimmen.
Abschluss: 06/2005
Erste Anstellung: sofort nach Studienabschluss
Position: Analyst im Structuring
Firma: JP Morgan Headquarters, London
Branche: Investmentbank
E-Mail: johannes_reitzenstein"at"yahoo.de
Sonstiges: Johannes Reitzenstein in einer Email am 14.5.2006: "Ich bin sehr zufrieden mit meiner Arbeit.
Es ist sehr interessant und auch herausfordernd in jeder Hinsicht - die Materie, der Markt an sich, das schnelle Umfeld,
mein Team und die Bank, London, und nicht zuletzt die Arbeitszeiten.
Meine Position ist "Analyst" im sog. "Structuring", d.h. wir entwickeln, preisen und handeln komplexe Produkte
im Bereich Währungen und Rohstoffe. Wir modellieren die von den Kunden gewünschten Auszahlungsprofile anhand von
Optionen; die wenigsten davon sind jedoch "Vanilla" Puts und Calls, meistens handelt es sich um kompliziertere
Payoffs oder direkt sog. exotische Optionen.
Noch eine kurze Anmerkung zum Schluss: Wie Sie sich denken können, ist JP Morgan immer an guten Leuten interessiert.
Wenn Ihnen also jemand begegnet, den Sie fuer geeignet halten und der sich für eine solche Laufbahn begeistern könnte,
lassen Sie es mich bitte wissen."
von
Armin Rund
In dieser Diplomarbeit sollte der Einfluss von geneigten, gewellten Bodenkonturen auf den Materialtransport
ebener, stationärer, schleichender Filmströmungen eines inkompressiblen Newtonschen Fluids untersucht
werden. Insbesondere war die interessante Frage zu beantworten, ob es gewellte Bodenkonturen gibt,
die zu einem höheren Materialtransport führen als bei einer geneigten, ebenen Bodenplatte. Letztendlich verbirgt
sich dahinter ein Optimierungsproblem mit partiellen Differentialgleichungen zur Bestimmung einer optimalen
Bodenkontur, das sich jedoch bei vereinfachenden physikalischen Annahmen auf ein Optimalsteuerungsproblem
für ein großes System gewöhnlicher Differentialgleichungen reduzieren löszlig;t.
Abschluss: September, 2005
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
E-Mail: armin.rund"at"uni-graz.at
Alte Homepage: Alte Homepage
Neue Homepage: Aktuelle Homepage
Promotion: Herr Rund promovierte im Jahre 2012 an der Universität Bayreuth mit der Dissertation
Beiträge zur Optimalen Steuerung partiell-differential algebraischer Gleichungen. Betreuer: Prof. Pesch.
Herr Rund strebt eine Hochschullehrerkarriere an und ist zurzeit Postdoc in der Arbeitsgruppe von Prof. Karl Kunisch,
Universität Graz, einem der führenden Wissenschaftler auf dem Gebiet der Optimalen Steuerung mit partiellen Differentialgleichungen.
von
Margarete Utz
Abschluss: 06/2005
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftliche Mitarbeiterin
Firma: Universität Helsinki
Branche: Öffentlicher Dienst
E-Mail: margarete.utz"at"helsinki.fi
Promotion: Frau Utz promovierte im Jahre 2010 an der Universität Helsinki (Helsingin Yliopisto) mit einer Dissertation
zum Thema Individuals On The Move - Body Condition Dependent Dispersal And Quasi-local Competition In Metapopulations
auf dem Gebiet der Theoretischen Biologie/Mathematik.
Sonstiges: Frau Dr. Utz ist derzeit Postdoctoral Researcher, Behavioural Ecology & Self-organization Group and Theoretical Biology, University of Groningen, the Netherlands, und strebt eine Hochschullehrerkarriere an.
Homepage: Homepage an der Universität Groningen
von
Lorenz Vohwinkel
Die Arbeit hat das Ziel, aufzuzeigen, wie Numerische Mathematik als eines der wichtigsten Teilgebiete der Angewandten Mathematik
in den Unterricht am Gymnasium integriert werden kann. Im ersten Kapitel werden einige didaktische Grundprinzipien erläutert.
Die weiteren Kapitel behandeln ausgewählte numerische Verfahren und deren Umsetzung im Unterricht: Dabei wird auf numerischen
Grundlagen, wie die Darstellung von Zahlen am Rechner, Fehler beim numerischen Rechnen und der Begriff des Algorithmus eingegangen.
Weitere Themen sind numerische Verfahren zur Lösung von linearen Gleichungssystemen und nichtlinearen Gleichungen.
Das letzte Kapitel befasst sich mit Interpolation mittels Splines. Der Aufbau aller Kapitel ist zweigeteilt. Zunächst erfolgt
eine vertiefte Einführung der mathematischen Sachverhalte für den Lehrenden. Anschließend wird eine Anleitung für
die Umsetzung der Inhalte im Schulunterricht gegeben.
Dafür wird noch ein Nachfolger für Herrn Vohwinkel gesucht!
Position: Gymnasiallehrer
Branche: Öffentlicher Dienst
E-Mail: lorenzvohwinkel"at"gmx.net
2006
von
Marco Bauer
Abschluss: 11/2006
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche:
E-Mail:
von
Christian Heining
Abschluss: 04/2006
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Lehrstuhl für Technische Mechanik und Strömungsmechnik
Branche: Öffentlicher Dienst
Promotion: Herr Heining wurde im Jahre 2009 zum Dr.-Ing. promoviert.
Titel der Dissertation: Influence of two- and three-dimensional topography on viscous gravity-driven film flow.
Betreuer: Prof. Aksel, Lehrstuhl für Technische Mechanik und Strömungsmechanik, Universität Bayreuth.
E-Mail: christian.heining"at"uni-bayreuth.de
von
Markus Hönick
Abschluss: 10/2006
Erste Anstellung: sofort nach Studienabschluss
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: mhoenick"at"gmx.de
von
Kathrin Hoffmann
Abschluss: 07/2006
Erste Anstellung: sofort nach Studienabschluss
Position: Client-Server-Programmierer
Firma: IREKS GmbH, Kulmbach
Branche: Back- und Braugewerbe
E-Mail: hoffkmann"at"web.de
Parabolische Optimalsteuerungsprobleme mit verteilter Steuerung und hyperbolische Optimalsteuerungsprobleme
von
Nadine Kaiser-Hugel
Parabolische Optimalsteuerungsprobleme mit Randsteuerungen und hyperbolische Optimalsteuerungsprobleme
von
Stephanie Gallardo Yances geb. Vogel
Vorbemerkung. Diese beiden Diplomarbeiten sind Teile einer Gemeinschaftsarbeit. Ziel der Arbeiten war es,
anhand gemeinsamer Beispielklassen von Optimalsteuerungsproblemen, sowohl mit parabolischen, als auch
mit hyperbolischen Anfangsrandwertproblemen als Nebenbedingungen, die auf der vertikalen Linienmethode basierenden Zugänge
über Optimalsteuerungsprobleme mit gewöhnlichen Differentialgleichungen bzw. differential-algebraischen Gleichungen
als Nebenbedingungen bzw. über Methoden der modellprädiktiven Regelung für Anwendungen auf Optimalsteuerungsprobleme bei
partiellen Differentialgleichungen zu vergleichen. Diese sollten gemeinsam entwickelt werden. Jeder der beiden Diplomandinnen
war dann für "ihre" Beispielklassen zuständig. Gemeinsam sollten dann die numerischen Resultate dargestellt werden,
um die jeweiligen Vor- und Nachteile der Methoden herauszuarbeiten. Der besseren Lesbarkeit der Arbeit wegen enthält aber jede
Diplomarbeit auch die Teile der jeweils anderen Kooperationspartnerin.
Abschluss: 12/2006
Erste Anstellung: sofort nach Studienabschluss
Position: Gymnasiallehrerin
Firma: Gymnasium (Ort nicht bekannt)
Branche: Öffentlicher Dienst
E-Mail: kaiser_nadine"at"gmx.de
Abschluss: 12/2006
Erste Anstellung: sofort nach Studienabschluss
Position: Berechnungsingenieurin
Firma: Fossil Power Generation, Siemens AG, Erlangen
Branche:
E-Mail: stephanie.gallardo``at''gmx.de
Sonstiges: Frau Gallardo in ihrer Email vom 13.10.2013: Ich habe vor ein paar Jahren in ein anderes Team
mit dem Namen 'Simulation und Optimierung von dynamischen Prozessen im Kraftwerk' gewechselt und beschäftige
mich momentan wieder mit dem Thema Optimierung, was mir sehr viel Spaß macht. Wir entwickeln unsere Modelle
auf Basis von Modelica und arbeiten überwiegend mit dem Simulationstool Dymola (Simulation) und JModelica (Simulation und Optimierung).
von
Jörg Klatte
Aus "Abstract" und "Summary" der Diplomarbeit:
This thesis studies the effects and limits of unsteady liquid
transport in open capillary channels. Analytical modeling and
numerical computations are present for the capillary flow between
parallel plates.
Within the scope of my diploma thesis, I visited the United States
of America from October 2005 to June 2006. PD Dr. Michael Dreyer
of the Multiphase group at ZARM (Center of Applied Space
Technology and Microgravity, University of Bremen, Germany) intended
this international collaboration with Prof. Steven Collicott and
Prof. Mark Weislogel.
Abschluss: 08/2006
Erste Anstellung: sofort nach Studienabschluss
1. Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bremen, ZARM (Zentrum für angewandte Raumfahrttechnologie und Mikrogravitation)
Branche: Öffentlicher Dienst
E-Mail: klatte"at"zarm.uni-bremen.de
Promotion: Herr Klatte wurde im Jahre 2011 an der Universität Bremen am Zentrum für angewandte Raumfahrttechnologie und Mikrogravitation,
in der Arbeitsgruppe für Mehrphasenströmungen (PD Dr.-Ing. Michael Dreyer) zum Dr.-Ing. promoviert.
Thema: Capillary Flow and Collapse in Wedge-Shaped Channels.
2. Position: Entwicklungsingenieur
Firma: Astrium Space Transportation, Bremen
Branche: Luft- und Raumfahrt
mit linear eingehenden Steuerungen am Beispiel eines Steuerungsproblems aus der Mikroökonomie
von
Matthias Lang
Abschluss: 05/2006
Erste Anstellung: sofort nach Studienabschluss
Position:
Firma: BodeHewitt AG & Co. KG
Branche: Betriebliche Altersversorgung
E-Mail: matthiasglang"at"gmx.de
im Kontext des gymnasialen Mathematikunterrichts
von
Peter Maul
Aufgabenstellung: Die Diskrepanz zwischen allgemeiner Kenntnis in Mathematik und ihrer Bedeutung
für den technologischen Fortschritt ist wohl in keinem anderen Schulfach so groß wie in Mathematik.
Dies wird zudem noch verstärkt durch die allgemein verbreitete Unsitte, mit seiner Unkenntnis in Mathematik
zu kokettieren, und durch veraltete Lehrinhalte an Gymnasien, die seit Jahren scheinbar resistent gegen$uuml;ber
jeder Öffnung zu neuen Inhalten aus den Gebieten der modernen Mathematik sind.
Abschluss: 7/2007
Referendariat: E.T.A.-Hoffmann Gymnasium Bamberg (Seminarschule)
Zweites Staatsexamen: 7/2009
Erste Anstellung: sofort nach Studienabschluss
Position: Studienrat
Schule: Kaiser-Heinrich-Gymnasium Bamberg
E-Mail: maulpeter"at"web.de
Erst Diskretisierung, dann Optimierung
von
Michael Perner
Erst Optimierung, dann Diskretisierung
von
Stefan Wendl
Diese beiden Diplomarbeiten sind Teile einer Gemeinschaftsarbeit von Michael Perner und Stefan Wendl. Ziel war es, anhand
einer gemeinsamen Beispielsammlung von Optimalsteuerungsproblemen bei elliptischen Randwertproblemen zwei Lösungsmethoden
miteinander zu vergleichen. Dazu mussten zunächst die theoretischen Grundlagen der Theorie Optimaler Steuerungen bei partiellen
Differentialgleichungen gemeinsam erarbeitet werden. Jeder der beiden Diplomanden war dann für "sein" Verfahren zuständig.
Gemeinsam sollten dann wieder die numerischen Resultate dargestellt werden, um die jeweiligen Vor- und Nachteile der Methoden
herauszuarbeiten. Der besseren Lesbarkeit der Arbeit wegen enthält aber jede Diplomarbeit auch die Teile des Kooperationspartners.
Abschluss: Oktober 2006
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Technische Universität München, Lehrstuhl für Regelungstechnik
Branche: Öffentlicher Dienst
E-Mail: perner at tum.de
Homepage: http://www.rt.mw.tum.de/de/personen/mitarbeiter/?mid=33
Abschluss: Oktober 2006
Erste Anstellung: Februar 2007
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
E-Mail: stwendl"at"web.de
Homepage an der UBT: http://www.ingmath.uni-bayreuth.de/Wendl
Sonstiges: Herr Wendl hatte u.a. ein Stipendium im Internationalen Doktorandenkolleg
Identifikation, Optimierung und Steuerung
für technische Anwendungen im Rahmen des Elitenetzwerks Bayern inne. Er hat kürzlich an der Fakultät für
Mathematik, Physik und Informatik der Universität Bayreuth eine Dissertation mit dem Thema
On a Prototype of an Optimal Control Problem Governed by Ordinary and Partial Differential Equations eingereicht.
Betreuer: Prof. Pesch.
von
Tobias Ramming
Zentrales Interesse gilt in dieser Diplomarbeit den Anwendungen der Mathematik in den Gebieten, die man im weiteren Sinne im Englischen unter dem
Begriff "Life Sciences" zusammenfasst, also etwa Biologie, Biochemie und anderen Wissenschaften, die sich im engeren oder weiteren Sinn mit dem Leben beschäftigen. Mathematische Modelle haben in diesen Gebieten in den letzten Jahren und Jahrzehnten teilweise zu erheblichen Fortschritten geführt. In der Arbeit wird exemplarisch dargestellt, wie man auf diesen Gebieten zu mathematischen Modellen gelangt und wie die resultierenden dynamischen Systeme mit unterschiedlichen mathematischen Methoden behandelt werden können. Die Arbeit gliedert sich in drei zentrale Bereiche:
Abschluss Diplom: 7/2007
Abschluss Lehramt: 12/2006
Erste Anstellung: 09/2007
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Institut für Mathematik
Branche: Öffentlicher Dienst
E-Mail: Tobias.Ramming"at"uni-bayreuth.de
Homepage: Homepage von Tobias Ramming
Promotion: an der Universität Bayreuth mit der Dissertation
Über Familien sphärisch symmetrischer stationärer Lösungen des Vlasov-Poisson-Systems. Betreuer: Prof. Rein.
Sonstiges: Herr Ramming ist zurzeit Wissenschaftlicher Assistent (Postdoc) am Lehrstuhl für Angewandte und Numerische Analysis
von Prof. Wendland, Mathematisches Institut der Universität Bayreuth.
Analyse, Implementierung und Vergleichstests mit dem primalen Algorithmus
von
Stephan Schott
Analyse, Implementierung und Vergleichstests mit dem dualen Algorithmus
von
Martin Uhl
Vorbemerkung. Diese Diplomarbeit wurde nach dem sogenannten "$Φ$-Modell" angefertigt: Dabei arbeiten zwei Diplomanden
an eine gemeinsamen Thema zusammen, bei dem - wie bei dieser Diplomarbeit - zwei verschiedene, hier sogar "verwandte" Verfahren
gegeneinander in einen Wettstreit treten. Nach einer gemeinsam erarbeiteten oder in Teilen aufgeteilten Einführung in das zu bearbeitende
Gebiet teilt sich der Mittelteil der "gemeinsamen" Arbeit in (mindestens) zwei parallele, individuell zu bearbeitende Äste, in denen z.B.
die verschiedenen Algoritmen analysiert, implementiert und an einer gemeinsamen Beispielsammlung getestet werden. Der Schlussteil,
der den Vergleich der beiden Verfahren und ihre kritische Analyse enthält, muss dann in jedem Fall gemeinsam abgefasst werden,
um einen möglichst objektiven Vergleich der beiden Methoden zu erhalten.
Abschluss: 07/2006
Erste Anstellung: sofort nach Studienabschluss
Position:
Firma: RISK-CONSULTING Prof. Dr. Weyer GmbH, Köln
Branche: Dienstleistung: Aktuarielle Risikobewertung, Gesundheitsmanagement, Database-Marketing
E-Mail: stephan.schott"at"web.de
Abschluss: 07/2006
Erste Anstellung:
1. Position: Consultant
Firma: Dr. Nagler und Company GmbH, Schnaittenbach
Branche: Finanzdienstleister
Zweite Anstellung:
2. Position: Consultant
Firma: KPMG, München, Frankfurt, etc.
Branche: Weltweites Netzwerk von Wirtschaftsprüfungs- und Beratungsunternehmen
Tätigkeit: Unternehmensberater im Bankensektor
E-Mail: uhlson``at''web.de
von
Stefanie Sutter
Abschluss: 12/2006
Erste Anstellung: noch vor Studienabschluss
Position: Softwareingenieurin
Firma: LivingLogic, Bayreuth
Branche: Web Content Management, Web-Marketing und Branchenlösungen für den Mittelstand
E-Mail: steffi-sutter"at"gmx.de
2007
von
Stefan Allescher
Abschluss: 03/2007
Erste Anstellung: unmittelbar nach Studienabschluss und einer großen Reise
Position: Finanzmathematiker
Firma: BayernInvest, München
Branche: Banken (Asset Management)
E-Mail: stefan.allescher"at"gmx.de
von
Nils Altmüller
Abschluss: 07/2007
Erste Anstellung: April 2008
Position: Wissenschaftlicher Mitarbeiter (Doktorand)
Firma: Universität Bayreuth, Arbeitsgruppe Prof. Grüne
Branche: ÖffentlicherDienst
E-Mail: nils.altmueller at gmx.de
Homepage: von Nils Altmüller
Sonstiges: Herr Altmüller wird in Kürze eine Dissertation einreichen.
von
Julia Fischer
Inhaltsangabe.
In dieser Arbeit werden nichtglatte Optimalsteuerungsprobleme untersucht, die auf aktuelle Arbeiten von Oberle (2006) und Oberle,
Rosendahl (2006) zurückgehen. Hierbei weisen die dynamischen Gleichungen Unstetigkeiten an inneren Punkten auf, die von der Vorzeichenverteilung einer
zustandsabhängigen Schaltfunktion bestimmt werden. Zum einen wird ein Problem untersucht, bei dem die Schaltfunktion sowohl von den Zustands-
als auch den Steuervariablen abhängig ist, zum anderen aber auch ein Problem, bei dem die Schaltfunktion rein zustandsabhängig ist.
Unabhängig von der funktionalen Gestalt besitzt die zur Optimalsteuerung bzw. die zur Optimaltrajektorie gehörige Schaltfunktion im einfachen Fall
nur isolierte Nullstellen und impliziert reguläre Extremalenbögen. Interessant ist der zweite Fall, wenn die Schaltfunktion auf einem Teilintervall
identisch verschwindet. Dann können singuläre Teilbögen besonderer Art auftreten. Bis zu den Arbeiten von Oberle (2006) und Oberle und Rosendahl
(2006) waren solche Probleme noch nicht untersucht worden.
1. Abschluss: 06/2006
1. Diplomarbeit: Robuste Schätzung im semiparametrischen Mixture-Modell (bei Prof. Rieder)
2. Abschluss: 03/2007
1. Diplomarbeit: A solution method for nonsmooth optimal control problems and the application on an economic life-cyle model (bei Prof. Pesch)
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Wissenschaftliche Mitarbeiterin (Doktorandin)
Firma: Universität Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
E-Mail: julia.fischer at uni-bayreuth.de
Frau Fischer hat u.a. ein Stipendium nach dem Bayerischen Eliteförderungsgesetz erhalten.
Homepage: von Julia Fischer
Sonstiges: Frau Julia Fischer wurde im Jahre 2010 in Rekordzeit promoviert, parallel zur Geburt ihrer ersten Tochter,
gefördert durch ein Stipendium nach dem Bayerischen Eliteförderungsgesetz.
Thema der Dissertation: Optimal Control Problems Governed by Nonlinear Partial Differential Equations and Inclusions. Betreuer: Prof. Pesch.
Frau Julia Fischer wurde am 28.10.2010 im Beisein des bayerischen Staatsministers für Wissenschaft, Forschung und Kunst, Dr. Wolgang Heubisch,
für ihre Dissertation in der Sparte "Universitäten" der hochrangige Kulturpreis Bayern der E.ON Bayern AG verliehen; siehe den
Bericht des Nordbayerischen Kuriers.
Frau Dr. Fischer hatte zudem im Wintersemester 2010/11 die Vertretungsprofessur für Numerik an der Universität Bayreuth übernommen.
Parameteridentifizierung bei parabolischen partiellen Differentialgleichungen
mittels Optimaler Steuerung
von
Sebastian Götschel
Abschluss: 12/2007
Erste Anstellung: unmittelbar nach Studienabschluss
1. Position: Projektentwickler
Firma: inuTech GmbH, Nürnberg
Branche: Software, Numerische Dienstleistungen,
Entwickler von DIFFPACK zur numerischen Modellierung und Lösung von partiellen Differentialgleichungen
2. Position: Wissenschaftlicher Mitarbeiter
Firma: Computational Medicine-Gruppe, Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB),
Bereich Scientific Computing, Abteilung Numerische Analysis und Modellierung, Berlin-Dahlem
Branche: Öffentlicher Dienst
E-Mail: goetschel at zib.de
Homepage: http://www.zib.de/goetschel/
Sonstiges: Herr Götschel arbeitet derzeit an seiner Dissertation und steht kurz vor dem Abschluss.
mit semi-linearen elliptischen Differentialgleichungen
von
Ekue-sse Situ Tomety
Vorbemerkung. Die Aufgabenstellung soll eine Kooperation mit der Firma inuTech GmbH, Nürnberg, einleiten,
die einen kommerziellen FEM-Löser für partielle Differentialgleichungen vertreibt, basierend auf einer C++ Klassenbibliothek
zur Entwicklung numerischer Software. Die Betreuung der Diplomarbeit erfolgte zusammen mit Herrn Prof. Klaus Schittkowski.
Abschluss: 01/2007
Erste Anstellung: schon vor Studienabschluss
Position: Projektentwickler
Firma: inuTech GmbH, Nürnberg
Branche: Software, Numerische Dienstleistungen,
Entwickler von DIFFPACK zur numerischen Modellierung und Lösung von partiellen Differentialgleichungen
E-Mail: tomety_f"at"yahoo.com
2008
mit punktweisen Zustandsbeschränkungen: Moreau-Yosida-Regularisierung
von
Simon Bechmann
mit punktweisen Zustandsbeschränkungen: Lavrentiev-Regularisierung
von
Michael Frey
Vorbemerkung.
Ist schon das Gesamtgebiet der Optimalen Steuerung bei partiellen Differentialgleichungen eines der hochaktuellen Gebiete
der Angewandten Mathematik mit sehr hohem Anwendungspotential von den Ingenieurwissenschaften bis hin zum Financial Engineering,
so ist es das Teilgebiet der zustandsbeschränkten Optimalsteuerungsprobleme allemal.
In der Anfang Mai abgehaltenen SIAM Conference on Optimization in Boston, USA, - SIAM
steht für (die amerikanische) Society of Industrial and Applied Mathematics - war
dieses Gebiet mit der größten Zahl an Vorträgen tonangebend auf dem der gesamten
mathematischen Optimierung gewidmeten Tagung mit ca. 500 Teilnehmern, wobei auf
diesem Teilgebiet der Optimierung (junge) deutschsprachige Wissenschaftler dominierend sind
und mehr als 60% der Teilnehmer stellten.
Abschluss: Dezember 2008
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
E-Mail: simonbechmann at gmx.de
Homepage: Homepage von Simon Bechmann
Sonstiges: Herr Bechmann arbeitet derzeit an seiner Dissertation und wird diese in Kürze einreichen.
Abschluss: Dezember 2008
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth, Lehrstuhl für Ingenieurmathematik
Branche: Öffentlicher Dienst
E-Mail: aleus-frey at web.de
Alte Homepage an der UBT: Homepage von Michael Frey
Sonstiges: Herr Frey wurde im Jahre 2012 mit der Dissertation Shape calculus applied to state-constrained elliptic optimal control problems
an der Fakultät Mathematik, Physik und Informatik der Universität Bayreuth promoviert. Betreuer: Prof. Pesch. Weitere Gutachter: Profs. Casas,
Santander, und Tröltzsch, TU Berlin, zwei der international führenden Experten auf dem Gebiet der Optimalen Steuerung
von partiellen Differentialgleichungen.
von
Christian Bernhard
Vorbemerkung. Die Diplomarbeit wurde im Rahmen des BMW-Projektes Advanced Chassis Engineering mit der BMW Group München, Abtlg. Fahrdynamik: Vorderachse, angefertigt.
Manchmal wird in diese Liste das sogenannte Screening eingefügt. Es dient dazu, Variablen mit geringem Einfluss auf die Antwortgröße
a priori zu identifizieren und zu entfernen, um so die Dimension und damit die Komplexität zu reduzieren. Meistens ist dafür jedoch ein größerer Mehraufwand nötig und verlangt weitere Aufrufe des Analysetools. Da zudem die Auswahl der Designvariablen auch zu Zwecken des Erkenntnisgewinns erfolgt, ist das Screening kein Gegenstand dieser Diplomarbeit.
Abschluss: Oktober, 2008
Erste Anstellung: noch vor Studienabschluss
Position: Engineer Prozessrechner
Firma: Siemens AG, Erlangen, Industry Solutions Division, Metals Technologies
Branche: Hochtechnologie
E-Mail: christian.bc.bernhard``at''siemens.com
von
Florian Häberlein
Vorbemerkung.
Diese Diplomarbeit entstand im Rahmen eines Projektes am Institut Français du Pétrole (IFP)
in Rueil-Malmaison bei Paris unter der Betreuung von Prof. Anthony Michel. Herr Häberlein fertigte diese Diplomarbeit
im Rahmen eines halbjährigen Auslandsstudiums an.
Die unterirdische Speicherung von CO2 wird als eine vielversprechende Lösung angesehen, die Auswirkungen
der Emmission des Treibhausgases CO2 zu reduzieren. Dazu sollte in der Diplomarbeit ein mathematisches
Modell entwickelt werden, mit dem der unterirdische reaktive Transport von CO2 numerisch simuliert werden kann.
Abschluss: Oktober, 2008
Erste Anstellung: sofort nach Studienabschluss
1. Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: Institut Français du Pétrole (IFP), Rueil-Malmaison
Branche: Forschungsinstitut
Promotion: Time Space Domain Decomposition Methods for Reactive Transport - Application to CO2 Geological Storage,
Oktober 2011, Université Paris XIII, Frankreich
2. Position: Projektmanager Forschung und Entwicklung im Energiesektor bei einer Firma in Deutschland
E-Mail: florian.haeberlein"at"yahoo.fr
Sonstiges: Herr Häberlein hat im Rahmen seiner Dissertation am Institut Français du Pétrole (IFP)
in Zusammenarbeit mit der Universität Paris XIII folgendes Forschungsprojekt bearbeitet.
von
Florian Loos
Vorbemerkung und Ziel der Arbeit.
Diese Diplomarbeit entstand, wie bereits etliche zuvor, in bewährter
Zusammenarbeit mit der Firma inuTech, Nürnberg. Sie vertreibt, wartet und entwickelt seit 2003
das Softwaresystem DIFFPACK weiter, welches 1991 von H. P. Langtangen und A. M. Magnus Bruaset
an der Universität Oslo entwickelt wurde. DIFFPACK ist ein umfangreiches, objektorientiertes
Softwaresystem numerischer Programme, das sich insbesondere sehr gut zur Lösung partieller
Differentialgleichungen mittels der Finite-Element-Methode eignet. Mit seinen über 600 C++ - Klassen
stellt es u. a. Hilfsmittel zur Gittergenerierung inkl. adaptiver Gitter, zur effizienten Lösung linearer
und nichtlinearer Gleichungssysteme durch iterative Löser und zur Dokumentation der Ergebnisse bereit.
Abschluss: Dezember, 2008
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: Universität der Bundeswehr, München
Branche: Bundeswehr
E-Mail: florian.loos"at"unibw.de
Homepage: Dr.-Ing. Florian Loos
Promotion: Herr Loos wurde im Jahre 2014 an der Universität der Bundeswehr München an der Fakultät
Bau- und Umweltingenieurwesen (Institut für Mathematik und Bauinformatik) zum Dr.-Ing. promoviert.
Thema: Joule Heating in Connecting Structures of Automotive Electric Devices - Modelling, Simulation and Optimization.
Betreuer: Prof. Dr.-Ing. Hans-Dieter Ließ Univ.-Prof. Dr. rer. nat. habil. Thomas Apel.
Sonstiges: Aktuell ist Herr Loos zusammen mit zwei weiteren promovierten Wissenschaftlern und seinem Doktorvater
in Vorbereitung der Gründung eines Unternehmens, das im Bereich des Themas der Doktorarbeit tätig sein wird.
Geplanter Name: PSS (Physical Software Solutions).
2009
von
Nicole Frank
Aufgabenstellung und Inhaltsangabe.
In dieser Diplomarbeit werden Finite-Differenzen-Diskretisierungen zur direkten numerischen Lösung von
Optimalsteuerungsproblemen mit parabolischen partiellen Differentialgleichungen nach der Methode
First discretize, then optimize untersucht. Insbesondere wird das Zusammenspiel zwischen verschiedenen Diskretisierung des Zielfunktionals (Rechtecks-, Sehnetrapez- sowie Simpsonregel) mit der Methode von
Crank-Nicolson zur Diskretisierung von ein- und zweidimensionalen Wärmeleitungsproblemen numerisch
untersucht.
Abschluss: September, 2009
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: nici.frank@"at"gmx.de
von
Martin Neidnicht
Vorbemerkung und Ziel der Arbeit.
Diese Diplomarbeit entstand auf Anregung von Herrn Professor Dr.-Ing. Rieg, Lehrstuhl für Konstruktionslehre
und Computer Aided Design (CAD). Ziel war die Entwicklung eines Softwaremoduls zur Berechnung der kleinsten
und damit technisch wichtigsten Eigenfrequenzen für das am o.g. Lehrstuhl entwickelte Softwarepaket Z88
zur statischen Finite-Element-Analyse von mechanischen Bauteilen.
Abschluss: Februar, 2009
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: Universität Bayreuth, LS Konstruktionslehre und CAD
Branche: Öffentlicher Dienst
E-Mail: martin.neidnicht''at''uni-bayreuth.de
Homepage:
Sonstiges: Herr Neidnicht hat im Rahmen seines Dissertationsvorhabens seine Arbeiten aus der Diplomarbeit fortgesetzt.
Er wurde im Jahre 2012 mit der Dissertation Numerisches Abbildungsvermögen als Maßgabe zuverlässiger Finite Elemente-Netzgenerierung bei Prof. Dr.-Ing.
Frank Rieg an der Universität Bayreuth zum Dr.-Ing. promoviert.
von
Nicole Vasold
Vorbemerkung und Ziel der Arbeit.
Diese Diplomarbeit entstand auf Anregung von Herrn Professor Dr.-Ing. Brüggemann, Lehrstuhl für Technische Thermodynamik und Transportprozesse. Ziel der Diplomarbeit war die Entwicklung eines numerischen Verfahrens zur Simulation von Schmelzvorgängen in einem Doppelrohr-Latentwärmespeicher.
Abschluss: Mai, 2009
Erste Anstellung: sofort nach Studienabschluss
1. Position: Wissenschaftliche Mitarbeiterin
Firma: Universität Bayreuth, LS Technische Thermodynamik und Transportprozesse
Branche: Öffentlicher Dienst
2. Position: Mathematikerin
Firma: CD-Adapco, Nürnberg
Branche: Software-Entwicklung
E-Mail: nicole.vasold''at''cd-adapco.com
Sonstiges: Frau Vasold hat zunächst auf dem Gebiet ihrer Diplomarbeit weitergeforscht
und damit ihre ingenieurwissenschaftlichen Kenntnisse verbreitert. Danach wechselte sie zu einer weltweit agierenden Firma,
die Simulationssoftware für fluiddynamische Anwendungen herstellt und alle damit verbundenen Dienstleistungen anbietet.
der instationären aerothermischen Aufheizung
von
Matthias Witzgall
Hintergrund, Aufgabenstellung und Zusammenfassung.
Zurzeit werden erheblich Anstrengungen unternommen, die auch in beträchtlichem Maße
von der Europäischen Gemeinschaft gefördert werden, eine neue Generation von
Hyperschallflugzeugen für den Passagiertransport zu entwickeln. Ziel sind Geschwindigkeiten
bis Mach 5 und sogar darüber hinaus bis Mach 8 bis 12, letzteres wohl eher
für den militärischen Bereich. Hinsichtlich Antriebs- und Werkstofftechnik sind
die Herausforderung enorm, insbesondere sind hierzu neuartige sogenannte Scramjet-Triebwerke
zu entwickeln. Bereits mit Mach 5 kann man von Europa die USA in gut zwei Stunden,
Australien in weniger als fünf Stunden erreichen - ohne Zweifel ein enormer Zeit- und
Bequemlichkeitsgewinn gegenüber heutigen Verkehrsflugzeugen.
Abschluss: September, 2009
Erste Anstellung: ziemlich direkt nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter
Firma: Institut für Informatik, LS Angewandte Informatik II (Verteilte und parallele Systeme), Universität Bayreuth
Branche: Öffentlicher Dienst
E-Mail: matthias.witzgall"at"uni-bayreuth.de
Homepage: Siehe hier
Sonstiges: Promotionsvorhaben: Entwicklung von parallelen Lösern für große Systeme
von Anfangswertaufgaben für gewöhnliche Differentialgleichungen
2010
von
Dominik Heller
Aufgabenstellung.
In dieser Diplomarbeit sollte untersucht werden, in wie weit sich klassische Gebietszerlegungsverfahren
zur numerischen Lösung partieller Differentialgleichungen, hier speziell elliptischer Gleichungen,
zur Lösung des Optimalitätssystems von elliptischen Optimalsteuerungsproblemen eignen.
Ziel sollte es insbesondere sein, deren Potential für eine Implementierung auf Parallelrechnern
zu testen, da heutzutage bereits in fast jedem Heim-PC parallele Rechnerkerne zu finden sind.
Als Finite-Element-Löser sollte das am Lehrstuhl zur Verfügung stehende kommerzielle Programmpaket
COMSOL-Multiphysics verwendet werden.
Abschluss: 11/2010
Erste Anstellung: 3/2011
Position: Wissenschaftlicher Mitarbeiter
Firma: Fachgebiet Festkörpermechanik (TU Darmstadt)
Branche: Öffentlicher Dienst
E-Mail: heller"at"mechanik.tu-darmstadt.de
Homepage: http://www.solmech.tu-darmstadt.de
Sonstiges: Aus einer Email vom 12.2.2013: Ich bin glücklich hier am Fachgebiet Festkörpermechanik
und verschiedener Löser für nichtlineare Programme
von
Wolfgang Kleier
Vorbemerkung. Die Aufgabenstellung entstand in Kooperation mit der Firma
inuTech GmbH, Nürnberg,
die einen kommerziellen FEM-Löser für partielle Differentialgleichungen vertreibt,
basierend auf einer C++ Klassenbibliothek zur Entwicklung numerischer Software.
Abschluss: 10/2010
Erste Anstellung: sofort nach Studienabschlus
Position: Softwareentwickler
Firma: inuTech GmbH, Nürnberg
Branche: Software, Numerische Dienstleistungen,
Entwickler von DIFFPACK zur numerischen Modellierung und Lösung von partiellen Differentialgleichungen
E-Mail: wolfgang-kleier"at"web.de
2011
von
Anja Kleinhenz
Vorbemerkung. Die Aufgabenstellung entstand in Zusammenarbeit mit dem
Lehrstuhl für Flugsystemdynamik, von Prof. Dr.-Ing. Florian Holzapfel, Technische Universität München.
Abschluss: 04/2011
Erste Anstellung: sofort nach Studienabschlus
Position: Analyst
Firma: Accenture, München
Branche: Beratung
E-Mail: anja.kleinhenz"at"googlemail.com
von
Johannes Michael
Vorbemerkung. Die Problemstellung wurde von Prof. Dr. Klaus Schilling, Lehrstuhl Informatics VII: Robotics and Telematics, Universität Würzburg,
in waager Form an den Lehrstuhl für Ingenieurmathematik der U Bayreuth herangetragen.
Abschluss: 11/2011
Erste Anstellung: sofort nach Studienabschlus
Position: Wissenschaftlicher Mitarbeiter
Firma: Institut für Mathematik und Rechneranwendung, Fakultät für Luft- und Raumfahrttechnik, Universität der Bundeswehr, München
Branche: Öffentlicher Dienst
E-Mail: johannes.d.michael``at''googlemail.com
Homepage: von Johannes Michael
Sonstiges: Herr Michael strebt eine Promotion an. Themengebiet: Optimale Steuerung.
Betreuer: Prof. Gerdts.
2012
von
Eleonora Feist
Aufgabenstellung.
Frau Feist hat in ihrer Masterarbeit ein mathematisches Problem der Optimalen Steuerung analysiert, mit dem die optimale Dosierung
eines Anti-Angiogenese-Medikamentes in der Therapie bei Krebserkrankungen bestimmt werden kann. Unter Angiogenese versteht man
die Eigenschaft bestimmter Tumore, ein eigenes Blutversorgungssystem aufzubauen. Mit Angiogenese-Hemmern kann man also das Wachstum
eines Tumors reduzieren, ihn sozusagen aushungern.
Abschluss: 07/2012
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Projektentwicklerin
Firma: inuTech GmbH, Nürnberg
Branche: Software, Numerische Dienstleistungen,
Entwickler von DIFFPACK zur numerischen Modellierung und Lösung von partiellen Differentialgleichungen
E-Mail: eleonorafeist``at''gmx.de
von
Elisabeth Frewer
Zusammenfassung.
Frau Frewer hat sich in ihrer Diplomarbeit mit Problemen der Optimalen Steuerung bei gewöhnlichen Differentialgleichungen auseinandergesetzt, wo die Steuervariable linear in die Aufgabenstellung eingeht. Nur bei solchen Problemstellungen treten
die komplizierten bang-bang Steuerungen und gegebenenfalls singuläre Extremalenbögen auf. Zur Einarbeitung hat sich
Frau Frewer mit dem Van-der-Pol-Oszillator beschäftigt, einem schon mehrfach in der Literatur untersuchten Problem.
Als zweite anspruchsvolle Aufgabe sollte die Berechnung optimaler Landeabbruchmanöver für Verkehrsflugzeuge
beim plötzlichen Eintreten von Scherwinde untersucht werden, die von früheren Diplomanden des Betreuers
(Montrone, 1989; Berkmann, 1993, beides TU München) mithilfe der Mehrzielmethode gelöst werden konnte.
Wegen der schwierigen Handhabung der Mehrzielmethode dauerte der Prozess des Lösens seinerzeit mehrere Monate, in denen
die aus den notwendigen Bedingungen der Optimalsteuerungstheorie herrührenden extrem komplizierten Mehrpunktrandwertprobleme
häufig per Hand wegen der oft auftretenden Änderungen der Schaltstruktur angepasst werden mussten, um über aufwändige Homotopien letztendlich eine Lösung zu erhalten. Dieses Problem zählt hinsichtlich seiner Schaltstruktur (eine Zustandsbeschränkung erster, eine dritter Ordnung sowie diverse bang-bang und singuläre Extremelanbögen) sicherlich
zu den diffizilsten Optimalsteuerungsproblemen bei gewöhnlichen Differentialgleichungen.
Abschluss: 12/2012
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: lisa-frewer``at''gmx.de
von
Johanna Kerler
Aufgabenstellung.
Frau Kerler sollte in ihrer Masterarbeit Forschungen auf dem Gebiet der Optimalen Steuerung eines sehr komplizierten Modells
für ein Schmelzkarbonat-Brennstoffzellensystem weiterführen. Die Arbeiten daran wurden im Rahmen eines BMBF-Projektes
im Mai 2002 begonnen und wurden auch nach dem Projektende im Dezember 2005 aus akademischem Interesse weitergeführt,
da das zugrundeliegende Modell eine ganz besondere Herausforderung für die Optimierung mit partiellen Differentialgleichungen
als Nebenbedingungen darstellt. Verschiedene Modellvarianten waren bereits mehrfach Gegenstand von Dissertationen und Diplomarbeiten.
Frau Kerler hatte bereits in ihrer Bachelorarbeit mit dem Titel Simulation und Modellreduktion eines dynamischen Modells
einer Schmelzkarbonat-Brennstoffzelle an diesem Thema gearbeitet.
Abschluss: 07/2012
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftliche Mitarbeiterin
Firma: Lehrstuhl für Angewandte Analysis mit Schwerpunkt Numerik, Universität Augsburg
Branche: Öffentlicher Dienst
E-Mail: kerlerj``at''gmx.de
Homepage: von Johanna Kerler
Sonstiges: Frau Kerler strebt eine Promotion in der Arbeitsgruppe von Frau Prof. Dr. Tatjana Stykel, Universität Augsburg, an.
von
Falk Meyerholz
Aufgabenstellung.
Optimalsteuerungsprobleme für gewöhnliche Differentialgleichungen mit unendlichem Zeithorizont sind mit Blick auf den
Wunsch, "nachhaltige" optimale Lösungen zu berechnen, insbesondere für Anwendungen in der Ökonomie interessant.
Seit einigen Jahren sind diese Aufgabenstellungen bei der Forschergruppe um Professor Sabine Pickenhain von der BTU Cottbus
auf großes Interesse gestoßen, als man dort feststellte, dass diese Problemstellungen viele verborgene Fallstricke
aufweisen, die bisher in der Literatur nur vereinzelt angedeutet worden waren oder die man schlicht nicht gesehen hat
und dadurch oft "falsche" Lösungen als "optimal" ausgewiesen hat bzw. man muss sich erst noch über einen sinnvollen
Optimalitätsbegriff einigen. Die typische Vorgehensweise, die Lösungen auf infinitem Zeithorizont durch eine Approximation
auf einem großen endlichen Zeithorizont zu approximieren, kann zwar bei "beobachteter Konvergenz" der Lösungskandidaten
mit wachsender Endzeit richtige Resultate liefern, aber auch falsche Ergebnisse liefern.
Abschluss: 07/2012
Erste Anstellung: unmittelbar nach einem Intermezzo in der universitären Lehre an der Universität Bayreuth
Position: Wissenschaftlicher Mitarbeiter
Firma: Fraunhofer-Institut für Integrierte Schaltungen, Erlangen
Branche: Forschungsinstitut
E-Mail: falkmeyerholz``at''web.de
Sonstiges: Herr Meyerholz arbeitet als wissenschaftlicher Mitarbeiter in der Fraunhofer-Arbeitsgruppe für Supply Chain Services
auf dem Gebiet der Logistik.
von
Jan-Eric Wurst
Aufgabenstellung.
Ausgangspunkt der Arbeit war ein Report von Kunisch und Daniel Wachsmuth zur zeitoptimalen Steuerung derörtlich
eindimensionalen Wellengleichung aus dem Jahre 2011. In dieser Arbeit wird ein Optimalsteuerungsproblem beschrieben, bei dem
ausgehend von gegebenen Anfangsbedingungen die klassische Wellengleichung auf vorgegebene Endbedingungen hin
in minimaler Zeit gesteuert werden soll. Die Steuerung unterliegt dabei einer Ungleichungsbeschränkung,
die punktweise in der Zeit ist: Für fast alle Zeitpunkte im Zeitintervall $[0,t_f]$ soll die $L^2$-Norm
der verteilten Steuerung $u(t,x)$ über dem Raumgebiet $\Omega$ beschränkt sein:
$\Vert u(t,\cdot)\Vert_{L^2(\Omega)} \le \gamma$.
Abschluss: 03/2012
Erste Anstellung: sofort nach Studienabschlus
Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: Lehrstuhl für Mathematik VII, Universität Würzburg
Branche: Öffentlicher Dienst
E-Mail: jan-eric_wurst``at''gmx.de
Homepage: von Jan-Eric Wurst
Sonstiges: Herr Wurst strebt eine Promotion, betreut von Prof. Daniel Wachsmuth, Universität Würzburg,
Lehrstuhl für Mathematik VII (Numerische Mathematik und Optimierung), an.
2013
von
Tobias Bauerfeind
Aufgabenstellung und Ziele.
Gegenstand der Diplomarbeit von Herrn Bauerfeind ist die Berechnung von Interpolationskurven durch vorgegebene Punkte
im $\mathbb{R}^n$. Dies ist ein klassisches Problem der Numerischen Mathematik. Was ist daran also so spannend,
als dass man es als Diplomarbeit vergeben soll? Nun, diese Aufgabenstellung tritt in der Robotik mit zusätzlichen
Forderungen auf, die dieses Problem reizvoll und wichtig für Anwendungen macht.
Abschluss: 11/2013
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Softwareingenieur
Firma: COR & FJA Deutschland GmbH, München
Branche: Software, Beratung
E-Mail: Tobias.Bauerfeind"at"gmx.net
von
Martin Bodensteiner
Aufgabenstellung.
Mehr als 60 Jahre sind bereits vergangen, seit Mitte des letzten Jahrhunderts die ersten Satelliten in das All geschickt wurden.
Aufsummiert kann man im Jahre 2006 bereits circa 800 aktive Satelliten im All zählen; diese Ansammlung zeigt aber nur 4% aller Objekte auf,
die tatsächlich die Erde umkreisen. Das Orbital Debris-Program der NASA, ein eigens eingerichtetes Zentrum für die Forschung im Bereich
des Weltraummülls, berichtet, dass zum jetzigen Zeitpunkt ungefähr 21.000 bekannte Objekte mit einer Größe von mehr als zehn Zentimetern,
die Erde umkreisen. Laut einer Studie der University of Southampton aus dem Jahre 2009 wird sich die Menge des Weltraumschrotts im folgenden Jahrzehnt
um 50 % und bis 2050 um das Vierfache erhöhen.
Abschluss: 03/2013
Erste Anstellung: unmittelbar nach Studienabschluss
Position:
Firma:
Branche:
E-Mail: m_bodensteiner"at"web.de
Sonstiges: Herr Bodensteiner sucht derzeit nach einer Doktorandenstelle, nachdem ein DFG-Projekt, für das er als Doktorand vorgesehen war, nicht genehmigt wurde.
mit elliptischen partiellen Differentialgleichungen
von
Karin Pfab
Inhalt.
Bang-bang, insbesondere aber singuläre Steuerungen sind bei Optimalsteuerungsproblemen mit partiellen Differentialgleichungen im Gegensatz zu solchen mit gewöhnlichen Differentialgleichungen
noch wenig untersucht worden. An der Universität Münster wurde 2006 eine Dissertation
von Karsten Theißen veröffentlicht, in der erstmalig singuläre Steuerungen bei Optimalsteuerungsproblemen mit partiellen Differentialgleichungen numerisch untersucht worden sind.
Ziel der Masterarbeit von Frau Pfab war es, einige der dort untersuchten Aufgabenstellungen
mit einem ähnlichen Verfahren wie das von Theißen verwendete vom Typ First discretize then optimize nachzurechnen (eine Kombination aus der Modellierungssprache AMPL, die Automatische Differentiation garantiert,
und dem Inneren-Punkte-Löser IPOPT) und insbesondere die Lösungen eingängig und leicht
verständlich zu visualisieren.
Abschluss: 04/2013
Erste Anstellung: unmittelbar nach Abschluss der letzten Prüfungen
Position:
Firma:
Branche:
E-Mail: Karin.Pfab``at''stmail.uni-bayreuth.de
von
Martin Treimer
Aufgabenstellung.
Die Masterarbeit beschäftigt sich mit den kompressiblen Eulerschen Gleichungen der Fluiddynamik. Mit diesen wird die Durchströmung eines Rohrs beschrieben. Ziel ist es, die Geometrie des Rohres nach gewissen Zielfunktionalen zu optimieren. Dabei soll ein Löser entwickelt werden, der basierend
auf der adjungierten Methode auch für komplexere Geometrien benutzt werden kann. Ein mögliches Einsatzgebiet ist die Optimierung von Turbinen.
Abschluss: 01/2013
Erste Anstellung: unmittelbar nach Studienabschluss
Position: Doktorand
Firma: BMW Group, München
Branche: Automobilindustrie, speziell Forschung und Entwicklung
E-Mail: martin.treimer"at"gmx.de
Sonstiges: Martin Treimer strebt eine Dissertation an.
2014
von
Khadija Boulkacem
Aufgabenstellung und Ziel.
Gegenstand der Masterarbeit von Frau Boulkacem war die Untersuchung von drei mathematischen Modellen aus der Literatur,
die allesamt zu beschreiben versuchen, wie man die Minimierung des Tumorwachstums durch Chemotherapie
unter möglichst starker Reduktion der Nebenwirkungen erreichen kann. Die Modelle sind sogenannte Kompartimentmodelle.
Die mathematischen Aufgabenstellungen führen auf Optimalsteuerungsprobleme mit Nebenbedingungen in Form gewöhnlicher
Differentialgleichungen. Ziel der Arbeit war der Vergleich verschiedener Diskretisierungsmethoden in direkten Optimierungsansätzen
mithilfe der Modellierungssprache AMPL und des Innere-Punkte-Lösers IpOpt. Letztendlich zeigte sich, dass eine Diskretisierung
mit dem Eulerschen Verfahren ausreichend ist und Verfahren höherer Ordnung keine entscheidenden Vorteile bieten.
Abschluss: 10/2014
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: s1khboul"at"stmail.uni-bayreuth.de
von
Janna Hiemenz-Müller
Aufgabenstellung und Ziel.
Aufgabe war es, mit einer direkten Methode eine optimale Strategie zur Bekämpfung einer Kokainepidemie numerisch
zu berechnen, und damit Ergebnisse einer indirekten Lösung in verschiedenen Originalartikeln zu überprüfen.
Zusätzlich sollten Sensitivitätsuntersuchungen bzgl. der inhärenten Systemparameter durchgeführt werden,
um festzustellen, welche Auswirkungen Schätzfehler in diesen zu messenden Parametern haben.
Abschluss: 02/2014
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: janna.helena"at"web.de
von
Andreas Jakob
Aufgabenstellung und Ziel.
Die Masterarbeit von Herrn Jakob wurde bei der Firma inuTech GmbH in Nürnberg angefertigt, die bereits des Öfteren
Kooperationspartner bei Diplom- bzw. Masterarbeiten am Lehrstuhl Ingenieurmathematik war, wenn es um die praktische Umsetzung
von Theorie und Numerik von Optimalsteuerungsproblemen mit partiellen Differentialgleichungen ging. Ziel der Masterarbeit
von Herrn Jakob war die Entwicklung eines automatischen Codegenerators, mit dem eine spezielle Klasse von möglichst
allgemeinen Aufgabenstellungen, hier für allgemeine lineare elliptische Optimalsteuerungsprobleme zweiter Ordnung numerisch gelöst werden kann. Damit sollen Benutzer mit relativ geringem Hintergrundwissen in die Lage versetzt werden, diesen Typ
von Optimalsteuerungsproblemen standardmäßig zu lösen. Dies ist eine innovative Aufgabenstellung, die eine gewisse
Reife der zugrundeliegenden Theorie und Numerik voraussetzt. Dies ist bei der oben genannten Klasse von partiellen
Differentialgleichungen aber gegeben.
Abschluss: 01/2014
Erste Anstellung: sofort nach Studienabschluss
Position: Softwaretester
Firma: BFFT Gesellschaft für Fahrzeugtechnik, Gaimersheim
Branche: Fahrzeugtechnikentwickler
E-Mail: andreas.jakob1988"at"gmx.de
Sonstiges: In seiner Email vom 10.03.2014 schrieb Herr Jakob:
Hallo Herr Pesch, nach etwas mehr als einem Monat im Berufsleben kann ich Ihnen nun
sagen, wo ich eingesetzt werde und was genau ich mache. Ich arbeite
bei der BFFT Gesellschaft für Fahrzeugtechnik in Gaimersheim und bin im Auftrag
der Audi Electronics Venture GmbH im Team BMS (Battery Management System) als Softwaretester tätig.
Momentan arbeite ich an der Hochvolt-Batterie für den Q7 Hybrid, für den ich Modultests
entwickle, implementiere und durchführe. Ich glaube, dieser Beruf gefällt mir sehr gut
und entspricht genau meinen Interessen und Fähigkeiten. Mein mathematischer Hintergrund ist
zwar nicht Voraussetzung dafür, aber ich habe hier schon oft gemerkt wie nützlich er sein kann
von
Irene Reis
Aufgabenstellung und Ziel.
Gegenstand der Diplomarbeit von Frau Reis ist die Untersuchung, ob gewisse Objekte auf gewissen Unterlagen
stabil abgelegt werden können, z.B.: Wie muss ich eine Leiter an eine Wand stellen,
damit sie möglichst stabil steht? Dieses Problem tritt u.a. in der Robotik beim Ablegen von Objekten auf.
Dabei werden durch Sensoren online dreidimensionale Gitter von Objekt und Unterlage erstellt.
Auf Basis dieser Daten müssen dann online die Kontaktpunkte zwischen Objekt und Unterlage bestimmt
und hinsichtlich ihrer Ablageeigenschaften bewertet werden: stabil, instabil, Abstand von der Instabilitätsgrenze
und mögliche Versagensrichtung bei Annäherung an diese. Ziel ist es, diese Aufgabe praxisgerecht zu lösen,
d.h. die zu entwickelnde Software muss eine Lösung in gegenüber der Verfahrzeit des Serviceroboters
zu vernachlässigender Zeit berechnen.
Das Thema entstand am Lehrstuhl Angewandte Informatik 3, Robotik und Eingebettete Systeme, und wurde dort
auch zum überwiegenden Teil betreut.
Abschluss: steht noch aus
Erste Anstellung:
Position:
Firma:
Branche:
E-Mail: irene-email"at"web.de
von
Manuel Sandler
Aufgabenstellung und Ziel.
Den Kampf gegen Krebs, an dem nach dem Magazin Spiegel (2012) jeder Vierte in Deutschland stirbt, bestreiten dabei nicht nur Biologen und Ärzte,
auch Mathematiker sind weltweit darin involviert. Viele Menschen sind sich der engen Verknüpfung zwischen Medizin und Mathematik oft gar nicht bewusst.
Dennoch findet Mathematik in den verschiedensten medizinischen Gebieten ihre Einsatzmöglichkeiten, wie bei der Aufbereitung von Messdaten in bildgebenden Verfahren, z.B. der Computertomographie oder bei der computergestützten Operationsplanung. Auch bei der Entwicklung neuer Medikamente, insbesondere
bei der Erforschung und Analyse neuer Behandlungsstrategien spielt die Mathematik eine entscheidende Rolle. Rund um das Thema Krebs tragen Experten
mit ihren Modellen und mathematischen Methoden dazu bei, diese komplexe Erkrankung besser zu verstehen und neue Perspektiven in der Behandlung zu entdecken.
Abschluss: 01/2014
Erste Anstellung: sofort nach Studienabschluss
Position: Entwicklungsingenieur
Firma: ITK Engineering AG, München/Martinsried
Branche: Entwicklungspartner u.a. in der Autombilindustrie, der Luft-/Raumfahrt und der Medizintechnik
E-Mail: sandlermanuel"at"googlemail.com
von
Andreas Schmidt
Abschluss: 03/2014
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma:
Junior Research Group: Hierarchical Solution Strategies for Nonlinear Problems, Universität Stuttgart
Branche: Öffentlicher Dienst
E-Mail: andreas.schmidt"at"mathematik.uni-stuttgart.de
Homepage: von Andreas Schmidt
Sonstiges: Herr Schmidt strebt eine Dissertation innerhalb des
European Model Reduction Networks an.
Er hatte drei Angebote für eine Doktorandenstelle zur Auswahl!
von
Tobias Seitz
Abschluss: 03/2014
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftlicher Mitarbeiter, Doktorand
Firma: AG Numerik und Wissenschaftliches Rechnen,
Fachgebiet Wissenschaftliches Rechnen, Prof. Herbert Egger, Technische Universität Darmstadt
Branche: Öffentlicher Dienst
E-Mail: t-seitz"at"gmx.de
Homepage: von Tobias Seitz
Sonstiges: Herr Seitz strebt eine Dissertation im Rahmen der
International Research Training Group 1529 Mathematical Fluid Dynamics an.
von
Markus Thäter
Aufgabenstellung und Ziel.
Ausgehend von einer beim Start der Masterarbeit noch nicht veröffentlichten Arbeit von Biswas, Paiva und de Pinho, die als Preprint vorlag
und mittlerweile (im August 2014) in Mathematical Biosciences and Engineering erschienen ist, wurde ein klassisches SEIR-Epidemiemodell
mit den Kompartimenten S: Susceptibles, E: Exposed, I: Infectious und R: Recovered als Optimalsteuerungsproblem präsentiert,
bei dem die Auswirkungen einer optimalen Impfrate unter diversen Nebenbedingungen theoretisch und numerisch untersucht wurde. Zu minimierende
Zielgröße sind die Kosten bestehend aus krankheitsbedingten Kosten durch die Zahl der zu behandelnden Krankheitsfälle und
denen für die Impfungen. Die numerischen Lösungen sollten über die Ergebnisse der oben genannten Arbeit hinaus mit den analytischen Optimalitätsgesetzen erster Ordnung näherungsweise verifiziert werden.
a) Erweiterung auf eine gemischte Steuerungs-Zustandsbeschränkung, welche die Zahl der verabreichten Impfungen pro Zeiteinheit
(z. B. wegen Produktionsbeschränkungen oder zu geringer Zahl an Ärzten) beschränkt.
b) Erweiterung auf eine Zustandsbeschränkung erster Ordnung, welche eine Beschränkung der krankheitsempfänglichen Individuen
der Population beschreibt und gleichbedeutend mit einer Beschränkung der Zahl der kranken und ansteckenden Individuen ist.
c) Kombination beider Beschränkungen.
a) Erweiterung auf eine gemischte Steuerungs-Zustandsbeschränkung, welche die Zahl der verabreichten Impfungen pro Zeiteinheit
(z. B. wegen Produktionsbeschränkungen oder zu geringer Zahl an Ärzten) beschränkt.
a) Erweiterung auf eine Box-Constraint und eine gemischte Steuerungs-Zustandsbeschränkung an eine modifizierte Ersatz-Steuerung;
diese ist vom Bang-Bang-Typ.
b) Erweiterung auf eine zusätzliche Zustandsbeschränkung erster Ordnung, welche eine Beschränkung der krankheitsempfänglichen Individuen
der Population beschreibt und gleichbedeutend mit einer Beschränkung der Zahl der kranken und ansteckenden Individuen ist.
Es treten bang-bang und singuläre Extremalenbögen auf. Hier fällt der Extremalenbogen, auf der die Zustandsbeschränkung erster Ordnung
aktiv wird mit dem Bogen zusammen, auf dem die Steuerung singulär ist. Diese ist dann sogar von mindestens zweiter Ordnung - eine
selten beobachtete Situation in der Theorie Optimaler Steuerungen.
Abschluss: 11/2014
Erste Anstellung: Lehrstuhl für Material- und Prozesssimulation,
Prof. Dr. Heike Emmerich
Position: Wissenschaftlicher Mitarbeiter
Firma: Universität Bayreuth
Branche: Öffentlicher Dienst
E-Mail: markus.thaeter"at"gmx.de
von
Lisa Wagner
Abschluss: 04/2014
Erste Anstellung: sofort nach Studienabschluss
Position: Wissenschaftliche Mitarbeiterin, Doktorandin
Firma:
Junior Research Group: Hierarchical Solution Strategies for Nonlinear Problems, Technische Universität Darmstadt
Branche: Öffentlicher Dienst
E-Mail: lisawagner88@"at"gmx.de
Homepage: von Lisa Wagner
Sonstiges: Frau Wagner strebt eine Dissertation an.
von
Janina Weiß
Aufgabenstellung.
Aufgabe war es, mehrere biomathematische Originalarbeiten zum Thema AIDS in Nigeria
zu untersuchen, in denen insbesondere die besondere Rolle von Lastwagenfahrern und Prostituierten detailiert
modelliert ist. Darüber hinaus hat Frau Weiß selbstständig die Literatur zu weiteren Modellen
zur Beschreibung der Krankheit AIDS, insbesondere hinsichtlich von Problemen der Optimalen Steuerung
durchsucht und ist dabei auf einen (noch nicht publizierten) Preprint gestoßen, dessen anspruchsvolles Modell
aus zwei Steuerungen und sechs Kompartimenten sie mit Hilfe der Modellierungssprache AMPL und dem Innere-Punkte-Löser
IpOpt numerisch gelöst hat.
Abschluss: 10/2014
Erste Anstellung: unbekannt
Position: unbekannt
Firma: unbekannt
Branche: unbekannt
E-Mail: nini1989"at"t-online.de
von
Julia Birgit Günther
Aufgabenstellung.
Die Masterarbeit befasst sich mit einer sehr speziellen Anwendung der numerischen Simulation. Mit Hilfe der Methode der Finiten Elemente werden sog.
gewellte Federn simuliert. Es handelt sich dabei um eine besondere Form technischer Federn. Die Federn sollen vor allem in Hinblick
auf ihre charakteristischen Kennlinien und das Verhalten unter Belastung untersucht werden. Ziel ist es ein Programm zu erstellen,
das dies ermöglicht und in bereits bestehende Software integriert werden kann.
Abschluss: 02/2015
Erste Anstellung: sofort nach Studienabschluss
Position: Softwareentwicklerin
Firma: Scherdel siment GmbH, Marktredwitz
Branche: Numerische Simulation.
"Wahlspruch der Firma: "Dem Versuch glaubt jeder, außer dem, der ihn gemacht hat.
Der Berechnung glaubt keiner, außer dem, der sie gemacht hat."
Wir arbeiten daran, dass sich das ändert!
E-Mail: julia.b.guenther"at"web.de
Letzte Aktualisierung: 18.08.2015, Hans Josef Pesch.