Optimierungsalgorithmen
Allgemein betrachtet, ist die Optimierung ein Fachgebiet der angewandten Mathematik. Sie befasst sich mit Methoden zur Auffindung von Extremstellen, Minima oder Maxima, in einer Funktion. Die Optimierung im Bereich der numerischen Simulation integriert bzw. adaptiert diese Methoden, um die technischen Aufgabenstellungen hinsichtlich einer oder mehrerer Zielgrössen bestmöglich zu verbessern. Darüber hinaus haben sich über die Jahre eigene, nicht auf der klassischen Mathematik basierende Algorithmen etabliert, die speziell auf der Methode der Finiten Elemente oder der Finiten Volumen aufbauen.
Zur Beschreibung einer Optimierungsaufgabe gehört die Definition des zulässigen Design- oder Suchraums, also des Raums, der die Menge der möglichen Lösungen enthält. Zudem ist es notwendig, eine Zielfunktion festzulegen. Bei einer Mehrzieloptimierung, also wenn mehrere Zielgrösse vorhanden sind, wird in der Regel eine Gewichtung der einzelnen Grössen vorgenommen.
Aus wirtschaftlichen Geschichtspunkten ist es im Gegensatz zur Mathematik in der angewandten technischen Optimierung durchaus genügend, in die Nähe des Optimums zu kommen. Viel wesentlicher ist eine ausreichende Verbesserung gegenüber dem Ausgangszustand und die Wahrscheinlichkeit, die virtuell gefundene Lösung später auch prozesssicher herstellen zu können.
Unterscheidungsmerkmale
Die meisten Algorithmen starten von einer zufälligen Anfangssituation. Je nachdem, wie das Verfahren die folgenden Schritte definiert, zufällig oder nach einem deterministischen Schema, unterscheidet man zwischen probabilistischen und exakten Algorithmen. Erfolgt die Suche nach einer besseren Lösung in der Nähe der bereits bekannten, spricht man von einem lokalen Optimierungsverfahren, findet sie hingegen im gesamten Designraum statt, wird sie als globales Verfahren eingestuft. Beide Strategien können auch kombiniert werden. Bei den Optimierungsmethoden der numerischen Simulation unterscheidet man zusätzlich zwischen parameterfreien und parametrisierten Algorithmen. Des Weiteren wird differenziert, ob sich die Parameter auf die Geometrie oder das Netz beziehen.
Gebräuchliche Algorithmen
Von den klassischen Verfahren werden am häufigsten das Gradientenverfahren und evolutionäre Algorithmen eingesetzt. Beim Gradientenverfahren wird an der aktuellen Position die Richtung der grössten Steigung ermittelt. Einmal bekannt, wird die nächste Designvariante entsprechend in dieser Richtung gewählt. Die evolutionären Algorithmen sind hingegen, wie der Name schon nahelegt, durch die biologische Evolution inspiriert. Sie starten nicht an einem Startpunkt, sondern mit einer zufällig gewählten Ausgangspopulation. Für jedes Individuum dieser Population wird die Fitness hinsichtlich der Zielfunktion bestimmt. Anschliessend werden die Besten selektiert und durch Rekombination sowie Mutation entsteht eine neue Generation an Individuen. Diese löst die alte ab und der Zyklus beginnt von neuem. Durch das Auswahlverfahren sowie die Mutation wird ein Zufallsfaktor in die Lösungsfindung eingebaut, der die Wahrscheinlichkeit erhöht, statt einem lokalen einen globalen Extremwert zu finden.
RMS: Response Surface Methode
Je nach Anzahl der Parameter und Komplexität der zugrundeliegenden Simulation können die einzelnen Verfahren sehr rechenzeitintensiv sein. Um dies zu umgehen, wird häufig auf die Response Surface Methode, abgekürzt RSM, zurückgegriffen. Bei diesem Verfahren wird die Optimierung nicht mehr direkt mit dem eigentlichen System durchgeführt, sondern mit Hilfe einer Approximationsfunktion. Diese wird über eine ausreichende Anzahl von Stützstellen aus den zugehörigen Systemantworten abgeleitet. Sobald die Anzahl der notwendigen Stützstellen zur Bestimmung der Response Surface kleiner ist als die Anzahl der Iterationen zum Auffinden des Optimums, ergibt dieses Vorgehen einen klaren Vorteil bei der Rechenzeit. Die Güte der Optimierung hängt allerdings stark von der Qualität der Approximation ab. Die Response Surface Methode kann daher nur dann mit entsprechendem Erfolg eingesetzt werden, wenn das Optimierungsproblem keine grossen Nichtlinearitäten aufweist.