Software

Auf der Suche nach dem Optimum

In Zeiten großer Herausforderungen, wie der Gestaltung des Klimawandels, ist der Ingenieur gefordert, mit Hilfe wissenschaftlich-technischer Innovationen die entscheidenden Grundlagen für technologischen Fortschritt zu liefern. Es stellt sich die Frage, wie es früher zu technologischem Fortschritt kam und wie er heute funktioniert. Autor Johannes Will hat diese Fragestellung aufgegriffen und sich mit Methoden der Optimierung, Robustheits- und Zuverlässigkeitsbewertung in der virtuellen Produktentwicklung beschäftigt.
Die Abbildung zeigt die Zuverlässigkeitsbewertung auf der Antwortfläche.

Schon Leonardo da Vinci wusste, dass es sich bei Innovationen um die Nachahmung von Natur bezüglich technischer Fragestellungen handelt. Daraus folgt ein evolutionärer Entwicklungsprozess des Probierens und Verwerfens (Trial und Error), der den Fahrplan des technologischen Fortschritts skizziert. Inklusive technologischer Revolutionen, wie der Erfindung der Dampfmaschine oder der Rechenmaschine (Neudeutsch: Computer), sowie technologischer Evolutionen wie der Entwicklung des Verbrennungsmotors oder des Segelflugzeugs.

Im Prinzip funktioniert technologischer Forschritt noch immer wie vor 2000 Jahren – nur heute sehr viel schneller, mit Hilfe mathematischer Grundlagen, atemberaubend wachsender Rechenleistung und immer realitätsnäherer Virtualisierung. Dadurch lässt sich die Entwicklung in die virtuelle Welt verlagern und die Entwicklungszeiten können extrem verkürzt werden. Leonardo da Vinci wäre wahrscheinlich begeistert gewesen von der Anzahl an virtuellen Experimenten und Prototypen, die er über Nacht hätte ausprobieren können. Davon ausgehend, dass die Simulation in der virtuellen Welt realitätsnah genug ist, um die Produkteigenschaft abzuschätzen (CAE-gestützte Berechnung) und man Varianten automatisiert erzeugen und berechnen kann (parametrische Modellierung), hätte Leonardo vermutlich als nächsten Schritt Strategien entwickelt, um den Prozess des Trial and Error in der virtuellen Produktentwicklung selbst zu optimieren.

Anzeige

Weitere Optimierungsstrategien

Das einfachste wäre es, immer neue Varianten zu erzeugen, durchzurechnen und zu bewerten – so lange, bis man mit den Produkteigenschaften zufrieden ist. Hierbei kann man beispielsweise systematisch Varianten (Experimente) durch Kombinatorik oder für alle Extremwerte von Designparametern erzeugen. Derartige Verfahren werden häufig als Design of Experiments (DoE) bezeichnet. Oder man erzeugt die Varianten zufällig, hier greift die Spieltheorie, benannt nach einer berühmten Spiel- und Kasino-Hochburg (Monte-Carlo-Verfahren). Hier würden also Fleiß oder Zufall zum Erfolg führen. Ein Ingenieur will natürlich eher „mitdenken“ oder gar „vorausdenken“ und so den Verbesserungsprozess beeinflussen. Das ist die Motivation für zahlreiche Optimierungsstrategien. Eine davon bildet Gradienten von Designmodifikationen. Dazu berechnet man kleine Veränderungen pro Designvariable und verwendet diese Informationen zur Suche nach dem optimalen Design. Gradientenbasierte Verfahren werden häufig als mathematische Optimierungsverfahren bezeichnet. Erfolg und Misserfolg hängen davon ab, ob aussagekräftige Gradienten ermittelt werden können. Sie stellen deshalb hohe Anforderungen an die Genauigkeit der Berechnung und an die Struktur der Probleme. Sind diese Randbedingungen erfüllt, gelten mathematische Optimierungsverfahren aufgrund ihrer Geschwindigkeit bei der Suche nach optimalen Designs als unschlagbar.
Eine zweite Strategie schaut der Natur auf die Finger und versucht den Evolutionsprozess nachzuempfinden und auf technologische Fragestellungen anzuwenden. Hieraus entstanden zahlreiche evolutionsbasierte Optimierungsstrategien, wie genetische Algorithmen, die die Evolution durch genetischen Austausch imitieren. Etwa evolutionäre Strategien, die hauptsächlich mit Mutationen (zufälligen Änderungen) oder Schwarmmechanismen, die die Intelligenz eines Bienenschwarms auf Futtersuche nachempfinden, Designs weiterentwickeln. Evolutionsbasierte Optimierungsstrategien sind heute wegen ihrer Robustheit sehr populär geworden. Ihnen gelingt es fast immer, ein Design weiterzuentwickeln, auch wenn die virtuelle Welt ungenaue Ergebnisse liefert oder einzelne Designs nicht erfolgreich berechnet werden können. Ob die Verbesserung signifikant ist, ob also das Optimierungspotenzial weitgehend ausgeschöpft wurde, kann bei Evolutionsstrategien allerdings nur mit erheblichem Aufwand verifiziert werden.

Robustheit des Design

Wenn eine einzelne Designbewertung mit langen Rechenzeiten verbunden ist, werden gerne Approximationsmodelle der Designräume bei der Optimierung verwendet (Response-Surface-Methoden – RSM). Dabei passt man im Designraum in vorhandene Sets von Stützstellen Antwortflächen ein und führt die Optimierung auf diesen aus. Es ist dann sinnvoll zu überprüfen, ob die „optimalen“ Designs im Approximationsraum der Nachrechung standhalten, was den Weg iterativer beziehungsweise adaptiver Antwortflächenverfahren vorzeichnet.

Virtuelle Welten idealisieren die Realität und gehen erst einmal von perfekten Randbedingungen aus. So wird beispielsweise für den Elastizitätsmodul des Stahls ein „idealisierter“ Wert angenommen, häufig ein Mittelwert oder ein Wert mit zugeordneter Wahrscheinlichkeit. Wird ein Design optimiert und seine Leistung nur unter dem Idealwert des E-Moduls bewertet, muss die Robustheit des Designs gegenüber in Natura auftretenden Streuungen untersucht werden.
Eine solche Bewertung nennt man Robustheitsbewertung. Hier lassen sich für ein Design alle relevanten Streuungen mit Hilfe statistischer Kennwerte definieren. Mit Hilfe eines Zufallsgenerators werden aus der Menge möglicher Designbewertungen n Realisierungen erzeugt, durchgerechnet und bewertet. Das Generieren eines Sets möglicher Designs auf der Basis von Verteilungsinformationen nennt man stochastische Analyse. Deren Ergebnisse werden mit statistischen Mitteln bewertet. Es werden Mittelwerte, Standardabweichungen und Variationskoeffizienten berechnet. Ist die Streuung wichtiger Produkteigenschaften klein, spricht man von einem robusten Design.
Wird untersucht, ob das resultierende Streuband der Produkteigenschaften definierte Zustände nicht unter- oder überschreitet, dann geht es um das Thema Zuverlässigkeit. Ein technisches Design soll üblicherweise möglichst zuverlässig seine Funktion erfüllen, aber zum Beispiel aus wirtschaftlichen Gründen leicht sein, um möglichst wenig Energie zu benötigen. Gegebenenfalls stehen diese Anforderungen im Widerspruch zueinander und es muss ein wirtschaftlicher Kompromiss gefunden werden. Dann wird ein Design gesucht, das mit einer definierten Wahrscheinlichkeit funktioniert.

Robuste Design-Optimierung

Natürlich haben sich Ingenieure zu allen Zeiten um die Zuverlässigkeit Ihrer Designs Gedanken gemacht und hier hauptsächlich auf Erfahrungswerte zurückgegriffen, um sich an die notwendigen Sicherheitsabstände heranzutasten. Dies sei am Beispiel der Dombauhütten des Mittelalters illustriert. Zunächst waren Fensteröffnungen schmal und mit Halbkreisen überdeckt. Aus statischen Gesichtspunkten war das sehr sicher. In der Romanik wurden dann die Fassaden immer filigraner, die Öffnungen und Spannweiten immer gewagter. Dabei gingen die Dombaumeister Schritt für Schritt an die Grenzen statisch machbarer Konstruktionen heran – und so mancher Kirchenbau blieb unvollendet oder stürzte ein.

Aus diesen Erfahrungen wurden Konstruktionsregeln für Mauerwerksbauten abgeleitet, die teilweise bis heute Gültigkeit haben. Damit wurden Sicherheitsabstände etabliert, die einen ausreichenden Abstand gegenüber Unsicherheiten des Baugrunds, geometrischen Abweichungen der Kirchenbauwerke oder Materialstreuungen enthalten. In dieser Tradition gibt es heute viele Normenwerke, die für standardisierbare Konstruktionen Sicherheitsabstände festlegen. Wenn allerdings Grenzen ausgelotet werden oder Vorschriften zu Sicherheitsabständen fehlen, verlagert sich der Nachweis der Zuverlässigkeit häufig in die virtuelle Welt, flankiert von einzelnen Versuchen am auskonstruierten Design. Numerische Methoden der Zuverlässigkeitsanalyse verbinden dann stochastische Analysemethoden mit Optimierungsalgorithmen zum Auffinden und Absichern kleiner Wahrscheinlichkeiten.

Gehen Optimierungsstrategien und Bestimmung von Robustheit und Zuverlässigkeit Hand in Hand, spricht man von Robuster Design-Optimierung (RDO). Im einfachsten Fall wird für das optimierte Design die Robustheit oder Zuverlässigkeit nachgewiesen, im Bedarfsfall werden Sicherheitsabstände justiert und es werden Schleifen der Optimierung und Zuverlässigkeitsbewertung wiederholt. Im Extremfall fließen in die Optimierungsaufgabenstellung Robustheits- und Zuverlässigkeitsmaße ein.

Im Grunde also nichts Neues seit Leonardo da Vinci: Ausgehend von einem Entwurf – von der Natur oder vom Nachbarn abgeschaut, selten wirklich neu erfunden – werden die Produkteigenschaften durch Variation schrittweise verbessert und die Tauglichkeit des Konzeptes wird unter Berücksichtigung von Unsicherheiten und Imperfektionen überprüft, allerdings virtuell und in vielen Dimensionen gleichzeitig unter Auswertung vieler Designvarianten.
Verbleibt noch ein kleines, aber nicht unwesentliches Problem: Der Ingenieur will auch noch verstehen, warum und wie ein zufällig oder planmäßig verbessertes Design verbessert wird. Hier stoßen wir an die Grenzen der Dimensionalität des menschlichen Denkens – wir leben und denken in drei Dimensionen. Am Ende müssen hochdimensionale Zusammenhänge auf das Wesentliche reduziert und in zwei- und drei-dimensionalen Bildern dargestellt und verifiziert werden. -sg-

Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite