3.1 Probleme ohne Restriktionen

Card Set Information

Author:
Thorsten662
ID:
229961
Filename:
3.1 Probleme ohne Restriktionen
Updated:
2013-08-15 06:26:13
Tags:
Strukturoptimierung Optimierungsalgorithmen Probleme ohne Restriktionen
Folders:

Description:
Fragen zum 3. Kapitel aus dem Skript zur Vorlesung "Strukturoptimierung" an der TU Darmstadt.
Show Answers:

Home > Flashcards > Print Preview

The flashcards below were created by user Thorsten662 on FreezingBlue Flashcards. What would you like to do?


  1. Wie sieht ein Problem ohne Restriktionen aus?
    Minimierung freier Funktionen: 
  2. Klassifizieren Sie die Algorithmen.
    • Methoden nullter Ordnung: benötigen nur Funktionswerte (ableitungsfreie Verfahren)
    • Methoden erster Ordnung: benöten auch erste Ableitungen
    • Methoden zweiter Ordnung: benötigen zusätzlich zweite Ableitungen
  3. Was lässt sich zu den Methoden nullter Ordnung sagen?
    Es werden keine Ableitungen benötigt, daher einfach, meistens recht robust, aber geringe Effizienz.
  4. Was gibt es für Methoden nullter Ordnung zum Lösen von (restriktionsfreien) Problemen?
    • 1. Vollständige Enumeration
    • 2. Zufallssuche im Entwurfsvariablenraum (Monte-Carlo-Verfahren)
    • 3. Zufallssuche über Zufallssuchrichtung mit nachfolgender eindimensionaler Minimierung
    • 4. Powellsche Methode der konjugierten Richtungen
    • 5. Evolutionsverfahren
  5. Wie funktioniert die Methode der vollständigen Enumeration?
    • Suchgebiet mit n-dimensionalem Gitter überziehen. Bestimmung und
    • Vergleichen der Zielfunktionswerte Äußerst einfache Programmierung, aber
    • führt leicht zu extremen Rechenaufwand.
  6. Wie funktioniert die Methode der Zufallssuche im Entwurfsvariablenraum (Monte-Carlo-Verfahren)?
    Suchpunkte mit Zufallszahlengenerator ermitteln, ebenfalls leicht ineffizient.
  7. Wie funktioniert die Methode der Zufallssuche über Zufallssuchrichtung mit nachfolgender eindimensionaler Minimierung?
    Ausgehend von einem Entwurfsvariablenpunkt  erzeugt man verbesserte Punkte  durch Zufallsauswahl der Suchrichtung und Bestimmung der optimalen Schrittweite . Falls nur eine Zunahme von , ersetzt man  durch . Verfahren effizienter als direkte Zufallssuche. Auf dem Strahl wird die Zielfunktion "eindimensional" optimiert: .
  8. Wie funktioniert die Powellsche Methode der konjugierten Richtungen?
    • Zunächst nacheinander  aufeinander folgende eindimensionale Optimierungen in  willkürlich gewählten Suchrichtungen .
    •  jeweils optimierte Schrittweite 
    • Dann neue Suchrichtung, die den bisherigen "Trend" berücksichtigt.
    • Konjugierte Richtung:
    • eindimensionale Optimierung
    • als nächste Suchrichtung ... usw
    • Problem: Im Laufe der Iteration letzte Suchrichtungen immer stärker parallel zueinander
    • Abhilfe: Neustart mit orthogonalen Suchrichtungen.
    • Methode insgesamt recht effizient und zuverlässig für kleine Prbleme .
  9. Wie funktioniert das Evolutionsverfahren?
    • Zufallsstrategien, die biologischen Prozess der Evolution nachempfinden.
    • Startvektor (Eltern)
    • Mutationen (Nachkommen) mit Hilfe von Zufallszahlengenerator
    • Selektion: Vektoren mit zu schlechten
    • Zielfunktionswerten verwerfen.
    • auch für restringierte Optimierungsprobleme
    • hohe Allgemeingültigkeit und leicht programmierbar
    • nur wenig effizient
  10. Was gibt es für Methoden erster Ordnung zum Lösen von (restriktionsfreien) Problemen?
    • 1. Methode des steilsten Abstiegs
    • 2. Verfahren der konjugierten Richtungen von Fletcher und Reeves
  11. Wie funktioniert die Methode des steilsten Abstiegs?
    • Suchrichtung und eindimensionale Optimierung
    • sehr einfach
    • Konvergenz oft langsam, Neigung zu "Zick-Zack-Verläufen"
  12. Wie funktioniert das Verfahren der konjugierten Richtungen von Fletcher und Reeves?
    • Nutzt Informationen aus jeweils vorangegangener Suchrichtung.
    • Ist leichte Modifikation der Methode des steilsten Abstiegs, meistens erheblich besser. Eine der effizientesten Minimierungstechniken.
  13. Was gibt es für Methoden zweiter Ordnung zum Lösen von (restriktionsfreien) Problemen?
    • (Methoden zweiter Ordnung verwenden die zweiten Ableitungen der Zielfunktion, weitere Verbesserung der Konvergenz)
    • 1. Newton-Verfahren
  14. Wie funktioniert das Newton-Verfahren?
    • Bestimme aus über die Taylor-Entwicklung
    • wobei und . (Hesse-Matrix)
    • Damit ergibt sich dann die Iterationsvorschrift .
    • statt Inversion der Hesse-Matrix ermittle als Unbekannte des linearen Gleichungssystems , erneute Taylorentwicklung an der Stelle ... usw
    • Problem: Hesse-Matrix kann (fast) singulär sein, z.B. wenn Entwurfsvariablen (fast) linear in eingehen.
    • Alternative: Approximation der Hesse-Matrix mittels der Zielfunktionsgradienten aufeinanderfolgender Iterationsschritte. Quasi-Newton-Verfahren (Broydon-Fletcher-Goldfarb-Shanno BFGS)

What would you like to do?

Home > Flashcards > Print Preview