Hauptinhalt
Abschlussarbeiten
Hier finden Sie aktuelle Themen für Abschlussarbeiten und eine Liste abgeschlossener Abschlussarbeiten.
Themen für Abschlussarbeiten
Um bei uns eine Abschlussarbeit schreiben zu können, müssen Sie (mindestens) Kenntnisse entsprechend des Moduls Kontinuierliche Optimierung oder des Moduls Operations Research vorweisen. Unten stehend finden Sie einige Vorschläge für Abschlussarbeitsthemen. Sie können sich aber auch jederzeit gern mit einem eigenen Themenvorschlag an uns wenden.
- Lösungsexistenz für Zwei-Ebenen-Optimierungsaufgaben (Thema für eine BA): Optimierungsaufgaben, deren zulässiger Bereich durch die parameterabhängige Lösungsmenge einer weiteren Optimierungsaufgabe modelliert wird, nennt man Zwei-Ebenen-Optimierungsaufgaben. In der Arbeit ist dieses Konzept zunächst vorzustellen und mit Anwendungsbeispielen zu motivieren. Anschließend sollen der sogenannte optimistische und pessimistische Zugang zur Zwei-Ebenen-Optimierung erläutert werden. Mittels zu erarbeitenden Aussagen aus der nichtlinearen, parametrischen Optimierung sind Bedingungen herzuleiten, die garantieren, dass die opimistische und pessimistische Zwei-Ebenen-Optimierungsaufgabe optimale Lösungen besitzen.
- Ein Strafverfahren für einfache, konvexe Zwei-Ebenen-Optimierungsprobleme (Thema für eine BA): Minimiert man eine konvexe Funktion über der Lösungsmenge einer konvexen Optimierungsaufgabe, so spricht man von sogenannter einfacher, konvexer Zwei-Ebenen-Optimierung. In der Arbeit ist dieses Konzept zunächst vorzustellen und mit Anwendungsbeispielen zu motivieren. Anschließend soll ein Straf-Ansatz zur Lösung solcher Probleme untersucht werden. Dabei wird die gewichtete Summe beider Zielfunktionen über dem zulässigen Bereich der inneren Aufgabe minimiert, wobei das Gewicht vor der Zielfunktion der inneren Aufgabe sukzessive erhöht wird. Das Verfahren ist zunächst qualitativ zu untersuchen, ehe numerische Experimente das quantitative Verhalten des Verfahrens illustrieren.
- Lösungsverfahren für einfache, konvexe Zwei-Ebenen-Optimierungsaufgaben (Thema für eine MA): Minimiert man eine konvexe Funktion über der Lösungsmenge einer konvexen Optimierungsaufgabe, so spricht man von sogenannter einfacher, konvexer Zwei-Ebenen-Optimierung. In der Arbeit ist dieses Konzept zunächst vorzustellen und mit Anwendungsbeispielen zu motivieren. Anschließend sollen zwei verschiedene Lösungsverfahren für solche Probleme verglichen werden. Zunächst ist ein Straf-Ansatz herzuleiten. Dabei wird die gewichtete Summe beider Zielfunktionen über dem zulässigen Bereich der inneren Aufgabe minimiert, wobei das Gewicht vor der Zielfunktion der inneren Aufgabe sukzessive erhöht wird. Die Teilprobleme lassen sich mit dem Proximal-Gradienten-Verfahren lösen. Ein anderer Lösungszugang besteht in der Verknüpfung des Proximalpunktverfahrens bzgl. der Zielfunktion des äußeren Problems mit dem Proximal-Gradienten-Verfahren des inneren Problems. Beide Verfahren sind zunächst qualitativ zu untersuchen, ehe numerische Experimente das quantitative Verhalten der Verfahren illustrieren und vergleichen.
- Optimierungsaufgaben mit nichtglatter Normregularisierung (Thema für eine BA oder MA): Zu betrachten sind restringierte Optimierungsaufgaben, deren Zielfunktional mit einem 1- oder \infty-Norm-Regularisierungsterm versehen sind. Diese Aufgaben sind nichtglatt. Durch die Einführung von zusätzlichen Variablen können diese allerdings in äquivalente differenzierbare Optimierungsaufgaben transformiert werden, was in der Arbeit zu demonstrieren ist. Die Beziehung dieser Aufgaben hinsichtlich globaler/lokaler Minimierer und der Gültigkeit verschiedener Regularitätsbedingungen ist zu untersuchen. Die Ersatzprobleme sind für eine Auswahl von Testproblemen mittels geeigneter Software zu lösen.
- Multiplikator-Straf-Verfahren für Optimierungsaufgaben mit Umschaltbedingungen (Thema für eine MA): Nebenbedingungen, die fordern, dass das Produkt zweier Terme null ist, nennt man Umschaltbedingungen. Solche Umschaltbedingungen bedingen oft ein schlechtes Regularitätsverhalten übergeordneter Optimierungsaufgaben. In der Arbeit ist dies zunächst zu illustrieren. Anschließend soll untersucht werden, inwieweit Multiplikator-Straf-Verfahren zur Lösung von Optimierungsaufgaben mit Umschaltbedingungen geeignet sind. Zunächst ist das klassische Multiplikator-Straf-Verfahren, in dessen Rahmen die Umschaltbedingungen wie gewöhnliche Gleichungsnebenbedingungen behandelt werden, auf diese Eignung hin zu prüfen. Im Rahmen eines zweiten Ansatzes sind die Umschaltbedingungen so zu augmentieren, dass die entstehenden Teilprobleme noch Umschaltrestriktionen bezüglich entkoppelter Schlupfvariablen enthalten. Diese Teilprobleme könnten dann immerhin mit einem projizierten Gradientenverfahren gelöst werden. Beide Ansätze sind hinsichtlich ihres numerischen Verhaltens zu vergleichen.
- Ein Vergleich von Relaxierungs- und Glättungsverfahren für Optimierungsaufgaben mit Umschaltbedingungen (Thema für eine MA): Nebenbedingungen, die fordern, dass das Produkt zweier Terme null ist, nennt man Umschaltbedingungen. Solche Umschaltbedingungen bedingen oft ein schlechtes Regularitätsverhalten übergeordneter Optimierungsaufgaben. In der Arbeit ist dies zunächst zu illustrieren. Anschließend sollen zwei Lösungszugänge für Optimierungsaufgaben mit Umschaltbedingungen erarbeitet werden. Beim Relaxierungsverfahren werden die Umschaltbedingungen ersetzt durch jeweils zwei Ungleichungen, die das Produkt der betrachteten Terme nach oben und unten durch einen Relaxationsparameter beschränken, der iterativ gegen Null getrieben wird. Im Gegensatz dazu ersetzt man beim Glättungsverfahren jede Umschaltbedingung durch die Forderung, dass das Produkt der Terme gleich dem Wert eines Glättungsparameters ist, der iterativ gegen Null getrieben wird. Beide Zugänge sind zunächst hinsichtlich ihrer qualitativen Eigenschaften zu vergleichen, ehe ein quantitativer Vergleich anhand von numerischen Testbeispielen durchzuführen ist.
Abgeschlossene Abschlussarbeiten (seit 2024)
- Der Top-Spot auf dieser Liste ist noch zu haben!