Software

FEM-Anwendung: Chancen und Grenzen

Mathias C. Landgraf Immenstaad

Bild 5: Durch den Einsatz von Simulations- lösungen kann die Anzahl von realen Tests erheblich reduziert werden.
Das heutige Angebot an FEM- Programmen ist sehr vielfältig, allerorts werden farbige Bilder am Computern präsentiert – aber was ist FEM eigentlich? Wie funktioniert es, wo kann es helfen und welche Regeln müssen beachtet werden?

FEM, die Finite-Elemente-Methode, ist eine Simulationsmethode zur Untersuchung des physikalischen Verhaltens von Körpern, Gasen und Flüssigkeiten. Sie wird heute von innovativen Firmen eingesetzt, um bereits im Vorfeld einer Produktentwicklung eine Idee oder ein Konzept zu verifizieren. Dies führt zu kürzeren Entwicklungszyklen und weniger Überraschungen beim praktischen Einsatz der Produkte. Leider wird die FE-Methode auch oft erst eingesetzt, wenn es eigentlich schon zu spät ist, beispielsweise wenn ein chemischer Druckbehälter defekt ist und der vermutete Grund für den Defekt und der Vorschlag zur Reparatur rechnerisch nachgewiesen werden soll.

Die ersten mathematischen Grundlagen für die FE-Methode wurden in der Mitte des 19. Jahrhunderts entwickelt, die grundlegenden Algorithmen waren 1950 formuliert. Die Entwicklung einer Näherungsmethode, die den Ersatz der partiellen Differentialgleichungen und die Berechnung komplexerer Körper erlaubte, wurde insbesondere durch die Luft- und Raumfahrt vorangetrieben.

Den richtigen Schub und die für FEM-Software benötigte Rechenleistung gab es aber erst, als Großrechner verfügbar waren – die NASA veröffentlichte Nastran 1968, SAP (Algor) wurde 1969 veröffentlicht, 1970 erblickte auch Ansys das Licht der Welt. Die Kosten des Betriebs von Rechnern sind in den letzten 40 Jahren etwa um den Faktor 10.000 gesunken (PC) – die Geschwindigkeit von Großrechnern dagegen um den Faktor 700.000 gestiegen (CDC6300 1963 gegen IBM Blue Gene 2008). Schon im 19. Jahrhundert wurde die Idee entwickelt, das Verhalten eines Würfels durch federnde Elemente zu simulieren, die seine Steifigkeit abbilden. Vereinfacht kann angenommen werden, dass die Kanten des Würfels den Federn entsprechen und die Steifigkeit des umgebenden Materials (der benachbarten Elemente) abbilden. Dies entspricht dem Netz. Die Enden der Federn entsprechen den Knoten, über die die Federn verbunden werden und die Kräfte weiterreichen. An den Knoten können Einspannungen und Kräfte angebracht werden.

Anzeige

Das Programm erstellt nun eine Steifigkeitsmatrix – die für ein kleineres Modell schon einige Millionen Gleichungen enthalten kann – und löst diese mit den angegebenen Randbedingungen und Kräften. Das Ergebnis führt dazu, dass die Knoten unter der Belastung wandern – das verformte Modell ist sichtbar. Aus der relativen Verformung am Element werden danach die Spannungen unter Verwendung der Materialdaten »rückwärts« errechnet (Bild 1).

Über diese Matrix ist es möglich, verschiedenste physikalische Effekte zu berechnen, diese können auch gemeinsam betrachtet werden (Multiphysics). Typische Anwendungen sind:

kleine und große Verformungen, Bewegungen, Kontakt;

Spannungsberechnung, Bruch, Riss, Ermüdungsauslegung;

Core crush an mehrlagigen Faserverbundwerkstoffen in Sandwichbauweise (Bootsrumpf);

Kinematik (Mechaniken mit Starrkörpern);

Beulen und Knicken;

Eigenfrequenzen, Resonanzen, Dämpfung und Erdbebenlasten;

Stoß, Falltests und Crash;

Wärmeverteilung, Isolation;

Piezoeffekte;
elektrostatische (Hochspannungsisolation) und elektrodynamische Felder (Motor);

Verhalten von Flüssigkeiten und Gasen, Strömungsoptimierung.

In den 1970er Jahren war die Rechenleistung sehr teuer. Deshalb wurde eine Reihe von mathematischen Formulierungen entwickelt, die mit speziellen Elementen besonders kurze Rechenläufe ergaben. Beispielsweise wurden in der Mitte der 1970er Jahre Flugzeugflügel mit nur einigen Dutzend Elementen simuliert, heute sind es Millionen. In einigen Programmen existieren offen oder »unter der Haube« mehr als 100 verschiedene Elementtypen, zwischen denen früher eine Wahl getroffen werden musste.

Heute steht mehr Leistung zur Verfügung. Dadurch werden heute weniger Elementtypen eingesetzt, wobei diese oft entsprechend dem Arbeitsablauf (Workflow) automatisch zugeordnet werden. Jedoch gibt es immer noch eindimensionale (Rohre), zweidimensionale (Bleche) und dreidimensionale Körper (Getriebegehäuse). Die Rechnerleistungen reichen noch nicht aus, um jede Geometrie in die gleichen dreidimensionalen »Würfel« zerlegen zu können. Folglich kommen weiterhin auch Stab- oder Balkenelemente und Schalenelemente zum Einsatz, um mit verhältnismäßig wenig Aufwand zu Ergebnissen zu kommen. Diese sind in der Regel aber nicht automatisch generierbar, werden jedoch oft zu automatisch vernetzten Volumenmodellen hinzugefügt.

Im Bereich der dreidimensionalen Elemente (Volumenelemente) lassen sich einige Trends beobachten. Einerseits spielt die automatische Vernetzung eine wichtige Rolle, denn der Aufwand für die manuelle Netzerzeugung kann nur noch in wenigen Fällen gerechtfertigt werden (Crash-Analyse). Andererseits werden bei manuellen Netzen Quaderelemente (Würfel) aufgrund der wesentlich höheren Genauigkeit verbunden mit kürzerer Rechenzeit bevorzugt.

In der automatischen Vernetzer-Szene sieht es anders aus. Hier setzen fast alle FEM-Programme auf Tetraeder. Ein funktionierender quaderdominanter Vernetzer ist die absolute Ausnahme. Dies hat einen einfachen Grund, denn einen Tetraeder-Vernetzer kann ein Student im Rahmen einer Studienarbeit in sechs bis acht Wochen programmieren, da einfache Algorithmen und Hunderte von Programm-Codes verfügbar sind. Bei Quadern ist dies wesentlich schwerer, jedoch führt der höhere Programmieraufwand auf Seiten des Herstellers zu transparenteren, genaueren Netzen mit kürzeren Rechenzeiten und zahlt sich so bei jedem Rechengang aus (Bild 3). Die Verwendung von Tetraedern ist dann akzeptabler, wenn diese mit Mittelknoten versehen werden (10 statt 4 Knoten), was der übliche Weg ist.

Jedes professionelle FEM-Programm wird die Basisfunktionen beinhalten. In der Praxis ist es jedoch wichtig, produktiv arbeiten zu können – hier trennt sich die Spreu vom Weizen. Hier sollen nun die wichtigsten Produktivitätsfaktoren in der Reihenfolge der »verlorenen« Zeit beleuchtet werden. Die Wichtigkeit hängt natürlich stark von den Fähigkeiten und Defiziten eines Programms ab. Folglich wird ein experimentelles Programm universitärer Herkunft saubere Ergebnisse liefern können, jedoch nur langsam und nur mit einfachen Geometrien, die nicht praxisgerecht sind.

Ein professionelles FEM-Programm sollte in der Lage sein, unsaubere Geometrien automatisch zu heilen. Obwohl 3D-CAD-Modelle heute allgemein mit Präzision gleichgesetzt werden, ist dies mit Blick aufs Detail nicht nachzuvollziehen. Das FEM-Programm erwartet ein logisches, geschlossenes, eindeutig definiertes Volumen (manifold). Die meisten realen Modelle enthalten jedoch defekte Entitäten oder unlogische Bereiche. Dies wäre beispielsweise ein Solid, das in ein anderes Solid eintaucht, auch wenn es nur 1/100 mm betrifft. Dies ist typisch für parametrische Modelle, denn meistens werden aus Zeitgründen nicht alle Zwangsbedingungen vergeben. Eine häufige Ursache sind CAD-Modelle, deren Herkunft »im Dunkeln« liegt, die zum Beispiel vom Lieferanten bereitgestellt oder aus dem Internet heruntergeladen werden. Diese Bauteile wurden nicht mit der eigenen CAD-Applikation modelliert, sondern kamen über neutrale Schnittstellen wie STEP und IGES oder als Parasolid-Modell aus einem anderen CAD-System.

Doch halt, es gibt hier auch einen Ansatz, der zumindest erwähnt werden muss. Einige Hersteller gehen dazu über, alle Probleme in der Geometrie und in ihren Netzen einfach zu »übertünchen«. Wenn zwei Bauteile sich durchdringen oder gerade nicht berühren, wird hier eine Art »Kleber« angebracht. Diese so genannten MPC’s (Multiple Point Constraints) wirken wie eine Art »Spinne«, die sich an mehreren Knoten festhält und so die Brücke zwischen zwei Körpern bildet. Leider führt dieses Mittel zur Einführung von Steifigkeiten, die im Originalmodel nicht vorhanden sind und kann manchmal zu einem Fehlverhalten führen, das aber oft unwichtig ist und akzeptiert wird.

Andere Hersteller gehen den Weg, keine Annahmen zu treffen und stattdessen den Anwender über die Probleme der Geometrie zu informieren. Jeder muss hier selbst entscheiden, ob er die Risiken, die durch Automatismen eingeführt werden, tragen will und dafür in den meisten Fällen sofort Erfolg hat oder ob er den zeitaufwändigeren Weg zum Aufräumen der Geometrie gehen will (wenn er ihn denn gehen kann).

Ein professionelles FEM-Programm sollte in der Lage sein, irrelevante Details der Geometrie auszublenden (Defeaturing). Modelle, die für die Fertigung geeignet sind, sind oft viel zu detailliert für eine wirtschaftliche FEM-Berechnung. Die Datenmenge kann sich halbieren, wenn alle fertigungsbedingten Radien, Verrundungen und kleinen Bohrungen entfernt werden. Das Berechnungsverhalten des Körpers ändert sich dadurch kaum – andere Fehlereinflüsse sind um mehrere Größenordnungen relevanter. Deshalb ist es empfehlenswert, diese Details mit Hilfe des FEM-Programms ausblenden zu können. Als Faustregel gilt, dass alle Details, die kleiner als 20 Prozent der geplanten Netzkantenlänge sind, vernachlässigt werden können. Ein Radius r = 1 mm bei 5 mm Netzgröße oder eine 3-mm-Bohrung bei 15 mm Netzgröße würden darunter fallen. Ein professionelles FEM-Programm sollte in der Lage sein, dem Anwender in kritischen Fällen den manuellen Eingriff ins Netz zu gestatten und dafür Werkzeuge bereitzustellen. In der Praxis muss ein CAD-Modell hier und da doch noch »geflickt« werden oder es müssen Bereiche manuell modifiziert oder ergänzt werden, damit sich die Rechenzeiten reduzieren lassen, zum Beispiel durch Balkenelemente. Eine manuelle Nachbearbeitungsmöglichkeit gibt dem Anwender die Garantie, dass er seine Simulation durchführen kann – auch wenn der Konstrukteur im Urlaub ist.

In einem erheblichen Prozentsatz der Fälle werden Netze heute noch von Hand erstellt, insbesondere wenn die Rechenzeiten beziehungsweise die Konvergenz kritisch sind. Typische Anwendungen für die manuelle Vernetzung liegen in der nichtlinearen Mechanik oder der Fluidsimulation. Hier kann ein gutes Netz oft einen Faktor zehn in der Rechenzeit ausmachen und auch im Postprozessor schneller zur Ergebnisdarstellung geladen und gedreht werden.

Ein professionelles FEM-Programm sollte eine einfache Bedienoberfläche haben, die konsistent über alle Berechnungsarten verfügbar ist. Einige Programme haben verschiedene Bedienoberflächen, eine für den »Anfänger« und eine für den »Profi«. Da auch ein Anfänger im Lauf der Zeit zum Profi wird und schwierigere Herausforderungen lösen soll, wird er Funktionen in der gewohnten Oberfläche vergeblich suchen, kann aber die Schwelle zum Umstieg und den damit verbundenen größeren Aufwand nicht wirtschaftlich rechtfertigen.

Ein weiteres wichtiges Argument für eine einfache Oberfläche: Typische FEM-Anwender sind die Inventoren in der Firma und setzen FEM als ein Werkzeug unter vielen ein. Sie legen das Programm durchaus einmal zwei oder drei Monate aus der Hand und möchten dann einen reibungslosen Wiedereinstieg haben.

Ein professionelles FEM-Programm sollte den richtigen Bediener haben. Eigentlich ist dies Argument (zumindest bei Beginn der Arbeit mit FEM-Anwendungen) das Wichtigste, aber im Lauf der Zeit lernt der Mensch dazu – der Computer aber nicht. Im Vorwort zum ersten SAP-Handbuch schreibt Prof. Wilson: »Es ist die Aufgabe des Ingenieurs, eine Struktur korrekt zu idealisieren und Verantwortung für die Resultate zu übernehmen.« Dies funktioniert nur, wenn der jeweilige Anwender in der Lage ist, seine Ergebnisse in Frage zu stellen, diese per Faustformel zu überprüfen und alle anderen Fehlermöglichkeiten auf das notwendige Maß zu reduzieren. Deshalb: Seien Sie kritisch. Vergessen Sie nicht, dass jedem Programm die Intelligenz fehlt, die Sie haben.

Außerdem sollten die folgenden Punkte beachtet werden. In der Rangfolge des Einflusses auf die Fehlergröße sind zuerst die Lastannahmen aktiv zu überprüfen. Es sollte sichergestellt sein, dass niemand in der Informationskette bereits Sicherheiten eingerechnet oder wesentliche Effekte vergessen hat. Hier liegt manchmal ein Faktor zwei (!) vergraben.

Auch die richtige Einspannung ist wichtig. Falsche Einspannungen und singuläre (punktuelle) Lastaufbringung können zu hohe oder zu niedrige Spannungen ausweisen, die in der Folge zu einer Fehldimensionierung der Geometrie führen. Ferner sollten die richtigen Spannungen ausgewertet werden. Die Kenntnis und richtige Wahl der Spannungsarten ist essentiell, insbesondere bei Ermüdungs- und Dauerfestigkeitsauslegungen.

Bei jeder FEM-Berechnung ist zu überlegen, ob die richtige und notwendige Berechnungsart gewählt wurde, um ein Bauteil auszulegen. Die statische Berechnung zeigt einen unter Axialdruck stehenden Stab oft im »grünen Bereich«, obwohl die Knickberechnung lange schon Alarm schlägt. Eine lineare Analyse, die nur einen einzigen Berechnungslauf durchführt, um vom unverformten in den verformten Zustand zu kommen, kann nur kleine Verformungen abbilden. In vielen Fällen liefert nur eine nichtlineare Analyse genaue Resultate.

Außerdem sollten die richtigen Materialdaten eingesetzt werden. Wenn beispielsweise mit GG30 gerechnet wird, nennt die Norm ein Elastizitätsmodul (E-Modul) von 108.000 bis 137.000 N/mm²; nur liefern viele Hersteller besseres (dichteres) Gussmaterial, so dass auch schon 144.000 N/mm² gemessen wurden.

Letztendlich gibt das so genannte Vier-Augen-Prinzip, bei dem ein Kollege die eigenen Annahmen und die Durchführung und Ergebnisse der Berechnung nochmals überprüft, zusätzliche Sicherheit.

Heute ist ein FEM-Programm ein Software-Werkzeug unter vielen. Deshalb sollten auch andere Werkzeuge genutzt werden, um die FEM-Ergebnisse auf Wahrscheinlichkeit zu überprüfen. Durch den FEM-Einsatz können die Anzahl an realen Tests und die Entwicklungszeit sowie die Kosten deutlich reduziert werden. Die praktischen Tests sind aber nicht vollständig ersetzbar. Dennoch erleben viele Anwender es oft, dass eine Entwicklung auf Anhieb funktioniert – ein sehr positives Erlebnis für alle Beteiligten. Zwar sind heute die FEM-Anwendungen auch für den Einsatz in der Konstruktion geeignet, aber trotzdem ist die FEM-Berechnung ein Handwerk, das erlernt werden muss. Die Rechnerleistung versetzt den Anwender in die Lage, auf einfachen PCs die Simulationen zu realisieren, die vor zwanzig Jahren auf Großrechnern nur mit Einschränkungen durchgeführt werden konnten. Das Interessante daran ist, dass die zugrundeliegenden Algorithmen sich noch schneller entwickelt haben. Die Geschwindigkeit der Gleichungslöser (Solver) hat sich schneller entwickelt als die Hardware in den letzten zwanzig Jahren.

In den nächsten Jahrzehnten wird zu beobachten sein, wie immer mehr physikalische Effekte gleichzeitig berechnet und immer mehr Annahmen durch eine Simulation ersetzt werden können. Dadurch werden die Entwickler in die Lage versetzt, die Produkte noch zielgenauer zu modellieren, noch mehr neue Versuche zu wagen und noch mehr kreative Ideen zu testen. -fr-

www.speedyengineering.com http://www.algor.de

Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite