Azərbaycan  AzərbaycanDeutschland  DeutschlandLietuva  LietuvaMalta  Maltaශ්‍රී ලංකාව  ශ්‍රී ලංකාවTürkmenistan  TürkmenistanTürkiyə  TürkiyəУкраина  Украина
Unterstützung
www.datawiki.de-de.nina.az
  • Heim

Evolutionäre Algorithmen EA sind eine Klasse von stochastischen metaheuristischen Optimierungsverfahren deren Funktionsw

Evolutionärer Algorithmus

  • Startseite
  • Evolutionärer Algorithmus
Evolutionärer Algorithmus
www.datawiki.de-de.nina.azhttps://www.datawiki.de-de.nina.az

Evolutionäre Algorithmen (EA) sind eine Klasse von stochastischen, metaheuristischen Optimierungsverfahren, deren Funktionsweise von der Evolution natürlicher Lebewesen inspiriert ist.

In Anlehnung an die Natur werden Lösungskandidaten für ein bestimmtes Problem künstlich evolviert, EA sind also naturanaloge Optimierungsverfahren. Die Zuordnung zu den stochastischen und metaheuristischen Algorithmen bedeutet vor allem, dass EA meist nicht die beste Lösung für ein Problem finden, aber bei Erfolg eine hinreichend gute, was in der Praxis vor allem bei NP-vollständigen Problemen bereits wünschenswert ist. Die Verfahren verschiedener EA unterscheiden sich untereinander in erster Linie durch die genutzten Selektions-, Rekombinations- und Mutationsoperatoren, das Genotyp-Phänotyp-Mapping sowie die Problemrepräsentation.

Die ersten praktischen Implementierungen evolutionärer Algorithmen wurden Ende der 1950er Jahre veröffentlicht, allerdings äußerten sich bereits in den vorhergehenden Jahrzehnten Wissenschaftler zum Potenzial der Evolution für maschinelles Lernen.

Es gibt vier Hauptströmungen, deren Konzepte zumindest historisch voneinander zu unterscheiden sind:

  • genetische Algorithmen
  • Evolutionsstrategien
  • genetische Programmierung und
  • evolutionäre Programmierung

Heute verschwimmen diese Abgrenzungen zunehmend. Für eine bestimmte Anwendung wird ein EA geeignet entworfen, wobei in den letzten Jahrzehnten viele verschiedene Algorithmen und einzelne Operatoren entwickelt wurden, die heute benutzt werden können.

Die Anwendungen von EA gehen über Optimierung und Suche hinaus und finden sich auch in Kunst, Modellierung und Simulation, insbesondere auch bei der Untersuchung evolutionsbiologischer Fragestellungen.

Einführung

Evolutionäre Algorithmen werden vorrangig zur Optimierung oder Suche eingesetzt. Konkrete Probleme, die mit EA gelöst werden, sind äußerst divers, z. B.: die Entwicklung von Sensornetzen, Aktienmarktanalyse, RNA-Strukturvorhersage, Schedulingprobleme, Designoptimierung (siehe auch obiges Bild der Satellitenantenne) oder Roboterbahnplanung. Auch bei Problemen, über deren Beschaffenheit nur wenig Wissen vorliegt, können sie zufriedenstellende Lösungen finden. Dies ist auf die Eigenschaften ihres natürlichen Vorbildes zurückzuführen.

Natürliches Vorbild Evolutionärer Algorithmus Beispiel
Organismus Lösungskandidat Autotür
Fortpflanzungserfolg Wert der Fitnessfunktion Strömungswiderstand
Natürliche Mutation Mutation Änderung der Form

In der biologischen Evolution sind die Gene von Organismen natürlich vorkommenden Mutationen ausgesetzt, wodurch genetische Variabilität entsteht. Mutationen können sich positiv, negativ oder gar nicht auf Erben auswirken. Da es zwischen erfolgreichen Individuen zur Fortpflanzung (Rekombination) kommt, können sich Arten über lange Zeiträume an einen vorliegenden Selektionsdruck anpassen (z. B. Klimaveränderungen oder die Erschließung einer ökologischen Nische). Diese vereinfachte Vorstellung wird in der Informatik idealisiert und künstlich im Computer nachgebildet. Dabei wird die Güte eines Lösungskandidaten explizit mit einer Fitnessfunktion berechnet, sodass verschiedene Kandidaten vergleichbar sind.

Entsprechend dem natürlichen Vorbild gibt es bei den EAs Individuen, die aus einem Genom bestehen, welches die zu bestimmenden Eigenschaften der gesuchten Lösung in geeigneter Weise enthält. Ein Individuum entspricht einem Lösungskandidaten. Die durch die genetischen Operatoren erzeugten Individuen werden Nachkommen oder Kinder genannt. Eine Iteration des Verfahrens heißt entsprechend dem biologischen Vorbild Generation. Weitere Begriffsdefinitionen können in der VDI-Richtlinie VDI/VDE 3550 gefunden werden.

In der Praxis könnte z. B. die Form einer Autotür so optimiert werden, dass der aerodynamische Widerstand minimal wird. Die Eigenschaften einer potenziellen Lösung werden dabei im Rechner als Genom gespeichert. Häufige Problemrepräsentationen sind Genome aus binären oder reellen Zahlen oder eine Reihenfolge bekannter Elemente (bei kombinatorischen Problemen, z. B. Travelling Salesman).

Die starken Vereinfachungen, die im Vergleich zur Evolution getroffen werden, stellen ein Problem in Bezug auf die Erforschung evolutionsbiologischer Fragestellungen mit EA dar. Ergebnisse können nicht einfach auf die komplexere Natur übertragen werden.

Pseudocode

Das grobe Verfahren evolutionärer Algorithmen besteht meist aus einer Initialisierung und einer Generationsschleife, die solange durchlaufen wird, bis ein Abbruchkriterium erfüllt ist. Dazu nachfolgend ein Pseudocode, dessen Notation an die von Krasnogor angelehnt ist:

Pseudocode eines elitären EAs mit sexueller Reproduktion:
 Initialisierung: t=0{\displaystyle t=0}; // Initialisierung des Generationszählers Erzeuge eine zufällige Startpopulation Pt{\displaystyle P_{t}}; Berechne die Fitness f(p)  ∀p∈Pt{\displaystyle f(p)\ \ \forall p\in P_{t}}; // initiale Bewertung while Abbruchkriterien sind nicht erfüllt do Partnerwahl: Wähle entsprechend f(p){\displaystyle f(p)} eine Teilmenge von Pt{\displaystyle P_{t}} und speichere sie in Mt{\displaystyle M_{t}}; Nachkommen:  Rekombiniere und mutiere Individuen p∈Mt{\displaystyle p\in M_{t}} und speichere sie in Mt′{\displaystyle M'_{t}}; Bewertung:   Berechne die Fitness f(p′)  ∀p′∈Mt′{\displaystyle f(p')\ \ \forall p'\in M'_{t}}; Nachfolgegeneration: Erzeuge Pt+1{\displaystyle P_{t+1}} durch fitnessbasierte Auswahl von Individuen aus Pt{\displaystyle P_{t}} und Mt′{\displaystyle M'_{t}}; t:=t+1{\displaystyle t:=t+1}; // erhöhe Generationszähler end while Ergebnis: Liefere bestes Individuum p∈Pt{\displaystyle p\in P_{t}} als Ergebnis ab; 

Bei der Initialisierung der Startpopulation werden die Individuen zufällig erzeugt, um eine möglichst breite Abdeckung des Suchraums und eine hohe genotypische Diversität zu erhalten. In Abweichung davon kann es aber auch zielführend sein, einen kleinen Teil (maximal 20 %) der initialen Individuen durch geeignete (Meta-)Heuristiken, eventuell basierend auf Lösungen ähnlicher Aufgaben, zu generieren.

Die Bestimmung von Mt{\displaystyle M_{t}}, Partnerwahl oder Elternselektion genannt, erfolgt bei den meisten EAs fitnessbasiert und gehört zusammen mit der Auswahl der Individuen zur Bildung der nächsten Generation zu den Selektionsmechanismen des Verfahrens, welche der evolutionären Suche die Richtung geben. Es gibt eine Vielzahl von Methoden zur Partnerwahl, darunter die einfache fitnessproportionale Selektion, die Turnierselektion und die häufiger verwendete rangbasierte Selektion.

Meist werden die Nachkommen durch Rekombination zweier Eltern aus Mt{\displaystyle M_{t}} mit anschließender Mutation erzeugt, was der geschlechtlichen Reproduktion im biologischen Vorbild entspricht. Die asexuelle Reproduktion würde einer Mutation von Elter-Klonen entsprechen. Durch mehrfache Ausführung dieser Operatoren können je nach Ausgestaltung des EAs auch mehr als nur zwei Nachkommen pro Paarung erzeugt werden.

Bei der Bewertung wird jedem Nachkommen entsprechend seiner Güte ein Wert der Fitnessfunktion zugewiesen. Die Fitness steuert die Reproduktionswahrscheinlichkeit der Individuen und kann zusammen mit der nachfolgend beschriebenen Selektion als die Umsetzung von Darwins „natürliche Auslese“ angesehen werden.

Die Nachfolgegeneration, also die Menge Pt+1{\displaystyle P_{t+1}} mit μ{\displaystyle \mu } Individuen, wird fitnessbasiert entweder aus der Menge der μ{\displaystyle \mu } Eltern in Pt{\displaystyle P_{t}} und der λ{\displaystyle \lambda } Nachkommen in Mt′{\displaystyle M'_{t}} (sogenannte Plus-Strategie) oder nur aus der Menge Mt′{\displaystyle M'_{t}} (Komma-Strategie) ausgewählt. Da bei der Plus-Strategie das beste Elternindividuum im Gegensatz zum biologischen Vorbild überleben kann, wird ein EA mit dieser Selektionsform auch als elitär bezeichnet. Auf die damit verbundene Problematik wird im Abschnitt Konvergenz eingegangen.

Als Abbruchkriterien werden häufig die Anzahl durchlaufener Generationen, die vergangene Zeit oder die erreichte Lösungsqualität herangezogen. Außerdem kann die Stagnation erfasst werden, z. B. in dem man die Generationen ohne Verbesserung des besten Nachkommen oder ohne Übernahme eines Nachkommen in die Nachfolgegeneration zählt.

Bestandteile

Evolutionäre Algorithmen unterscheiden sich untereinander vor allem in der jeweiligen genetischen Repräsentation, der Fitnessfunktion und den genutzten genetischen Operatoren: Mutation, Rekombination und Selektion.

Mutation und Rekombination sind die Suchoperatoren evolutionärer Algorithmen, mit denen der Suchraum erkundet wird. Ihre Anwendung auf Lösungskandidaten kann keine Verbesserung garantieren, allerdings erhält der Suchprozess durch die Selektion eine Richtung, die bei erfolgreicher Konzeption zum globalen Optimum oder zumindest in dessen Nähe führt. Während mit dem Mutationsoperator völlig neue Bereiche des Suchraums erschlossen werden können, ermöglicht die Rekombination vor allem die Zusammenführung erfolgreicher Teillösungen oder Schemata bei den klassischen genetischen Algorithmen (Building-Block-Hypothese). Eine erfolgreiche Suche basiert also auf der Kombination beider Suchoperatoren. Der Erfolg eines Rekombinationsoperators hängt von der Beschaffenheit der Fitnesslandschaft ab. Je mehr lokale Optima die Fitnesslandschaft aufweist, desto wahrscheinlicher erzeugt die Rekombination aus zwei Individuen, die sich auf benachbarten lokalen Optima befinden, einen Nachfahren im Tal dazwischen. Mutationen sind von dieser Eigenschaft der Fitnesslandschaft nahezu unabhängig.

Der Entwurf der verschiedenen Komponenten bestimmt, wie sich der evolutionäre Algorithmus bei der Optimierung des gegebenen Problems in Bezug auf Konvergenzverhalten, benötigte Rechenzeit und die Erschließung des Problemraums verhält. Insbesondere müssen die genetischen Operatoren sorgfältig auf die zugrunde liegende Repräsentation abgestimmt sein, sodass sowohl die bekannten, guten Regionen des Problemraums genutzt, als auch die unbekannten Regionen erkundet werden können. Dabei spielen die Beziehungen zwischen Such- und Problemraum eine Rolle. Im einfachsten Fall entspricht der Suchraum dem Problemraum (direkte Problemrepräsentation).

Theoretische Grundlagen

No-free-Lunch-Theorem

→ Hauptartikel: No-free-Lunch-Theoreme

Das No-free-Lunch-Theorem der Optimierung besagt, dass alle Optimierungsstrategien gleich effektiv sind, wenn die Menge aller Optimierungsprobleme betrachtet wird. Unter der gleichen Voraussetzung ist auch kein evolutionärer Algorithmus grundsätzlich besser als ein anderer. Dies kann nur dann der Fall sein, wenn die Menge aller Probleme eingeschränkt wird. Genau das wird in der Praxis auch zwangsläufig getan. Ein EA muss also Problemwissen ausnutzen (z. B. durch die Wahl einer bestimmten Mutationsstärke). Werden also zwei EAs verglichen, dann wird diese Einschränkung impliziert. Darüber hinaus kann ein EA Problemwissen nutzen, indem z. B. ein Teil der Startpopulation nicht zufällig generiert wird, sondern einige Individuen durch Heuristiken oder andere Verfahren erzeugt werden. Eine weitere Möglichkeit besteht darin, geeignete Heuristiken, lokale Suchverfahren oder andere problembezogene Verfahren bei der Erzeugung der Nachkommen zu beteiligen. Diese Form der Erweiterung eines EAs ist auch als Memetischer Algorithmus bekannt. Beide Erweiterungen spielen bei praktischen Anwendungen eine große Rolle, da sie den Suchprozess beschleunigen und robuster machen können.

Konvergenz

Für elitäre EAs (siehe Abschnitt Pseudocode) gibt es einen allgemeinen Konvergenzbeweis unter der Voraussetzung, dass ein Optimum existiert. Ohne Beschränkung der Allgemeinheit wird für den Beweis von einer Maximumsuche ausgegangen:

Aus der Eigenschaft elitärer Nachkommensakzeptanz folgt, dass pro Generation k mit einer Wahrscheinlichkeit P > 0 eine Verbesserung der Fitness 𝑭 des jeweils besten Individuums 𝒙′ auftreten wird. Also:

𝑭(𝒙′𝟏) ≤ 𝑭(𝒙′𝟐) ≤ 𝑭(𝒙′𝟑) ≤ ⋯ ≤ 𝑭(𝒙′𝒌) ≤ ⋯

D. h., die Fitnesswerte stellen eine monoton nicht fallende Zahlenfolge dar, die wegen der Existenz des Optimums beschränkt ist. Daraus folgt die Konvergenz der Zahlenfolge gegen das Optimum.

Da der Beweis keinerlei Aussage über die Konvergenzgeschwindigkeit macht, hilft er bei der praktischen Anwendung von EAs wenig. Aber er begründet die Empfehlung, elitäre EAs zu verwenden. Bei Verwendung des üblichen panmiktischen Populationsmodells neigen elitäre EAs jedoch stärker zur vorzeitigen Konvergenz als nichtelitäre. Bei einem panmiktischen Populationsmodell ist die Partnerwahl (siehe Abschnitt Pseudocode) so gestaltet, dass jedes Individuum der gesamten Population als Partner in Frage kommt. Das generelle Risiko zur vorzeitigen Konvergenz elitärer EAs kann demgegenüber durch geeignete Populationsmodelle deutlich verringert werden.

Schematheorem

→ Hauptartikel: Schematheorem

Das Schematheorem von John H. Holland wird allgemein als Erklärung des Erfolgs von einem Grundtyp evolutionärer Algorithmen, nämlich den klassischen genetischen Algorithmen, gesehen. Es besagt vereinfacht, dass sich kurze Bitmuster mit überdurchschnittlicher Fitness schnell in einer Generation ausbreiten, die durch einen genetischen Algorithmus evolviert wird. So können Aussagen über den langfristigen Erfolg eines genetischen Algorithmus getroffen werden. Über die praktische Bedeutung des Schematheorems und der damit zusammenhängenden Building-Block-Hypothese für die Gestaltung von EAs, die nicht auf Bitstrings beruhen, herrscht Uneinigkeit. Das Buch von Volker Nissen fasst die Kritik und die Auseinandersetzung dazu fundiert zusammen.

Virtuelle Alphabete

Mit der Theorie der virtuellen Alphabete zeigte David E. Goldberg 1990, dass durch eine Repräsentation mit reellen Zahlen ein EA, der klassische Rekombinationsoperatoren (z. B. uniformes oder n-Punkt Crossover) nutzt, bestimmte Bereiche des Suchraums nicht erreichen kann, im Gegensatz zu einer Repräsentation mit binären Zahlen. Daraus ergibt sich, dass EA mit reeller Repräsentation arithmetische Operatoren zur Rekombination nutzen müssen (z. B. arithmetisches Mittel oder die intermediäre Rekombination). Mit geeigneten Operatoren sind reellwertige Repräsentationen entgegen der früheren Meinung effektiver als binäre.

Anwendungsgebiete

Die Bereiche, in denen evolutionäre Algorithmen praktisch eingesetzt werden, sind nahezu unbegrenzt und reichen von Industrie, Technik, Roboterbahnplanung und Landwirtschaft über Forschung bis zur Kunst (evolutionäre Kunst). Die Anwendung eines evolutionären Algorithmus erfordert vom unerfahrenen Anwender ein gewisses Maß an Umdenken, da die Herangehensweise an eine Aufgabenstellung mit Hilfe eines Suchalgorithmus anders ist als bei traditionellen exakten Verfahren und eher nicht zum Curriculum von Ingenieuren oder anderen Fachrichtungen gehört. Es gibt daher einige Publikationen, die den Anfänger als Zielgruppe haben und ihm oder ihr dabei helfen wollen, Anfängerfehler zu vermeiden und ein Anwendungsprojekt zum Erfolg zu führen. Dazu gehört auch die Klärung der grundlegenden Frage, wann man einen EA zur Lösung einer Aufgabenstellung anwenden soll und wann besser nicht. Die Konferenzserie Applications of Evolutionary Computation kann einen Überblick über die vielfältigen Anwendungen geben und dabei unterstützen, Veröffentlichungen zur eigenen Problemstellung zu finden.

Wirtschaft

EA werden zur Verifikation und Optimierung von Prototypen eingesetzt. Zum Beispiel werden die Geschwindigkeit von Mikroprozessoren, der Stromverbrauch von Mobiltelefonen oder die Wiederverwendbarkeit von Produkten (Recycling) optimiert. Auch bei dem Entwurf von Telekommunikationsnetzen, Infrastruktur allgemein oder Sensornetzen. In der Finanzwelt werden mit EA Aktienmärkte analysiert, spieltheoretische Analysen oder agentenbasierte Simulationen entworfen und Portfolios für maximalen Gewinn und minimales Risiko optimiert. Sogar zur Optimierung von landwirtschaftlichen Betrieben werden sie genutzt, um langjährige Auswirkungen zu testen, Managementstrategien zu entwickeln oder praktisch nicht ausführbare Experimente zu simulieren. Ein weiteres großes Anwendungsgebiet ist Scheduling, Designoptimierung oder andere Engineering-Aufgaben. Zum Problemfeld der Schedulingaufgaben gehören neben den klassischen Produktionsplanungsaufgaben, Job-Scheduling in Rechnernetzen, Stundentafelerstellung oder die Einsatzplanung von Energieerzeugern und Verbrauchern in Smart Grids.

Forschung

Vor allem in der Molekularbiologie, wo enorme Datenmengen (Big Data) anfallen und Zusammenhänge nicht ohne Computerunterstützung erkannt werden können, werden mit evolutionären Algorithmen Sequenzanalyse, Sequenzalignment, die Erstellung phylogenetischer Bäume, Proteinstrukturvorhersage, Suche nach codierenden Bereichen oder die Visualisierung umfangreicher Daten betrieben.

EA werden benutzt, um künstliche neuronale Netze aufzubauen, ein populärer Algorithmus ist NEAT. Robert Axelrods Versuch, mittels genetischer Algorithmen geeignete Strategien für das iterierte Gefangenendilemma zu finden, gab den Anstoß zur Entwicklung des Konzepts der evolutionären Spieltheorie. Aufgrund ihrer Populationsbasiertheit können evolutionäre Algorithmen auch in der agentenbasierten Modellierung sozialer oder ökonomischer Systeme eingesetzt werden.

In der Spektroskopie werden genetische Algorithmen genutzt, um vieldimensionale Optimierungsprobleme zu lösen. Hierbei wird ein experimentelles Spektrum, zu dessen Beschreibung eine große Anzahl an Parametern benötigt werden, mit Hilfe evolutionärer Strategien an ein berechnetes Modellspektrum angepasst. Als Fitnessfunktion wird oft die Kreuzkorrelation zwischen experimentellem und theoretischem Spektrum angewandt.

Kunst und Musik

→ Hauptartikel: Evolutionäre Kunst

Mit der Hilfe evolutionärer Algorithmen können komplexe Strukturen oder Tonfolgen entworfen werden, die auf Menschen ästhetisch wirken. Dies geschieht teils automatisiert und oft mit menschlicher Interaktion, wobei Menschen dem EA die Entscheidung abnehmen, was sie als schön empfinden.

Geschichte

George Friedman entwarf 1956 für seine Masterarbeit an der University of California, Los Angeles eine Maschine, die mit dem Prinzip der natürlichen Selektion Schaltkreise entwickeln sollte, allerdings wurde diese Maschine nie gebaut. Auch künstliches Leben wurde früh mit EA erforscht. Der Italiener (1912–1993) entwickelte 1954 ein Konzept, bei dem durch Zahlen repräsentierte Wesen auf einem zweidimensionalen Gitter „leben“ und durch Mutation und Reproduktion zu neuen Generation geformt werden. Er zeigte, dass sich Strukturen bilden, also Strukturen, die sich selbst in die nächste Generation kopieren. Bezüglich maschinellen Lernens schrieb der britische Informatiker Alan Turing schon 1950:

„Man muss mit dem Unterrichten einer Maschine herumexperimentieren und schauen, wie gut sie lernt. […] Es gibt einen offensichtlichen Zusammenhang zwischen diesem Prozess und Evolution […] Man darf allerdings hoffen, dass dieser Prozess schneller abläuft.“

– Alan Turing: Computing Machinery and Intelligence

Anfang der 1950er schlug der britische Statistiker George Box vor, die Produktion in Chemiefabriken zu optimieren, indem mit massivem Trial and Error Parameter wie Temperatur oder chemische Zusammensetzungen variiert und die potenziellen Verbesserungen per Hand ausgewertet werden, um danach mit den gefundenen Verbesserungen wieder zu variieren. Obwohl die Entscheidungsträger zuerst nicht davon begeistert waren, an einer laufenden Produktion zu experimentieren, wurde das Konzept, das Box Evolutionary Operation taufte, bis Anfang der 1960er in mehreren Chemiefabriken zur Steigerung der Produktivität genutzt. Viele praktische Probleme ging man in der Folge mit evolutionären Algorithmen an, es bildeten sich vor allem die Evolutionsstrategie in Europa (Ingo Rechenberg und Hans-Paul Schwefel) und der genetische Algorithmus (John H. Holland) in den USA heraus, wobei Letzterer der bis heute populärste Ansatz ist und der Begriff genetischer Algorithmus oft pauschalisierend für alle EA genutzt wird. Dies hat aber keine praktische Bedeutung für die Auswahl eines konkreten Konzeptes. Spätestens mit der rasant steigenden Verfügbarkeit von Rechenleistung fanden sich evolutionäre Algorithmen in allen erdenklichen Bereichen wieder, wo sie zur Optimierung und Suche eingesetzt wurden. Insbesondere auch in der Kunst und Musik, sowie in der Erforschung von künstlichem Leben (Avida).

Heute sind nicht nur die ursprünglichen Konzepte stark miteinander verwachsen, sondern auch viele andere Ansätze und Mischkonzepte entstanden. EA stellen wichtige Werkzeuge für Industrie und Forschung dar.

Typen evolutionärer Algorithmen

Durch die Problemstellung des Optimierungsproblems sind eine Zielfunktion sowie ein Problemraum, der potenzielle Lösungen enthält, gegeben. Der Unterschied zwischen dem Problemraum der Anwendung und dem Suchraum des Algorithmus besteht darin, dass ein EA eine Lösung anders darstellen kann, um sie besser zu verarbeiten und später wieder in ursprünglicher Form auszugeben (Genotyp-Phänotyp-Mapping, künstliche Embryogenese). Dies bietet sich vor allem dann an, wenn die Darstellung einer möglichen Lösung deutlich vereinfacht werden kann und nicht in ihrer Komplexität im Speicher verarbeitet werden muss. Verschiedene evolutionäre Algorithmen unterscheiden sich vornehmlich in den folgenden Eigenschaften (vergleiche auch das einleitende Ablaufschema):

  • Suchraum (z. B. Binärzahlen, reelle Zahlen, Baumstrukturen)
  • Suchoperatoren (z. B. Mutation und Rekombination)
  • Fitnesszuweisung und Selektion auf Basis der Zielfunktion
  • Art und Weise, in der vorherige Generationen in die Selektion mit einbezogen werden (Elterngeneration ein-/ausschließen)
  • Beziehung zwischen dem Suchraum und dem Problemraum (Genotyp-Phänotyp-Mapping)

Klassische Varianten

Die vier historisch zuerst entstandenen Verfahren sind heute in der Form nicht mehr zu unterscheiden, insbesondere werden oft die Namen einzelner Typen als Synonym für das gesamte Gebiet der evolutionären Algorithmen genutzt. Dazu kommt, dass es heute eine Fülle weiterer Verfahren und unüberschaubar viele Kombinationen gibt, für die keine einheitliche Benennung existiert. In der folgenden Darstellung werden die klassischen Konzepte in der historischen Form beschrieben. Ein guter und theoretisch fundierter Vergleich zwischen den klassischen bit-codierten und den reell-codierten GAs, der ES und der EP kann z. B. bei Whitley gefunden werden.

Genetische Algorithmen (GA)

Genetische Algorithmen wurden vor allem durch die Arbeiten John H. Hollands berühmt. Sie nutzen binäre Problemrepräsentation und benötigen deshalb meist ein Genotyp-Phänotyp-Mapping. Das bedeutet, dass binär repräsentierte Lösungskandidaten zuerst umgewandelt werden müssen, um mit der Fitnessfunktion evaluiert werden zu können. Wegen dieser Eigenschaft sind sie dem biologischen Vorbild von allen evolutionären Algorithmen am nächsten. Das Erbgut natürlicher Organismen ist ähnlich binären Zahlen in vier Nukleinsäuren codiert. Auf dieser Basis geschehen natürliche Mutation und Rekombination. Das Erscheinungsbild (Phänotyp) ist aber nicht das Erbgut selbst, sondern entsteht aus diesem durch einen vielschrittigen Prozess. Das Prinzip Genotyp-Phänotyp-Mapping verläuft in vereinfachter Form analog. Die binäre Repräsentation eignet sich zur schnellen Verarbeitung in Computern. Im Laufe der Forschung im Gebiet der EA hat sich dies aber nicht als klarer Vorteil gegenüber anderen Verfahren und Problemrepräsentationen erwiesen.

Die Auswahl der sich fortpflanzenden Individuen erfolgt bei GA mit fitnessproportionaler Selektion, die Fortpflanzung selbst durch n-Punkt-Crossover. Auch die Rekombination von mehr als zwei Elterngenomen ist möglich und führt in manchen Fällen zu besseren Ergebnissen. Die Mutation bei GA kann man sich anschaulich gut vorstellen, da die Genome aus einzelnen Bits bestehen, die invertiert, dupliziert oder gelöscht werden können (auch ganze Sequenzen). Eine theoretische Untersuchung des Konvergenzverhaltens Genetischer Algorithmen liefert das Schematheorem von John H. Holland, das allerdings umstritten ist.

Evolutionsstrategien (ES)

Evolutionsstrategien nutzen direkte Problemrepräsentationen (insbesondere reelle Zahlen). Problem- und Suchraum sind also identisch. Ihre Besonderheit ist die Selbstadaption der Mutationsschrittweiten und die damit verbundene Koevolution. Die ES wird anhand der Standardform kurz vorgestellt, wobei darauf hingewiesen wird, dass es viele Varianten gibt. Das Chromosom enthält neben den n{\displaystyle n} Entscheidungsvariablen noch n′{\displaystyle n'} Mutationsschrittweiten σj{\displaystyle {\sigma }_{j}}, wobei gilt: 1≤j≤n′≤n{\displaystyle 1\leq j\leq n'\leq n}. Häufig wird eine Mutationsschrittweite für alle Entscheidungsvariablen genutzt oder jede hat ihre eigene Schrittweite. Die Partnerwahl zur Erzeugung von λ{\displaystyle \lambda } Nachkommen erfolgt zufallsbedingt, also unabhängig von der Fitness. Zuerst werden pro Paarung neue Mutationsschrittweiten durch intermediäre Rekombination der elterlichen σj{\displaystyle {\sigma }_{j}} mit anschließender Mutation gebildet. Als Nächstes erfolgt eine diskrete Rekombination der Entscheidungsvariablen gefolgt von Mutationen mit den neuen Mutationsschrittweiten. Dadurch erfolgt eine evolutionäre Suche auf zwei Ebenen: Zum einen auf der Problemebene selbst und zum anderen auf der Ebene der Mutationsschrittweiten. So kann gewährleistet werden, dass die ES in immer feineren Schritten ihr Ziel sucht. Es besteht aber auch die Gefahr, größere unzulässige Gebiete im Suchraum nur schlecht überspringen zu können.

Die ES kennt zwei Varianten der Bestenselektion zur Bildung der nächsten Elternpopulation: Bei der (μ,λ){\displaystyle (\mu ,\lambda )}-ES finden nur die μ{\displaystyle \mu } besten Nachkommen Verwendung, während bei der elitären (μ+λ){\displaystyle (\mu +\lambda )}-ES die μ{\displaystyle \mu } besten aus Eltern und Kindern ausgewählt werden.

Bäck und Schwefel empfehlen, dass der Wert von λ{\displaystyle \lambda } das siebenfache der Populationsgröße μ{\displaystyle \mu } betragen soll, wobei μ{\displaystyle \mu } wegen des starken Selektionsdrucks nicht zu klein gewählt werden darf. Geeignete Werte für μ{\displaystyle \mu } sind anwendungsabhängig und müssen experimentell bestimmt werden.

Für ES-Varianten ohne die geschilderte selbstadaptive Schrittweitensteuerung empfiehlt Rechenbergs 1/5-Erfolgsregel, dass der Quotient aus den erfolgreichen Mutationen (also Mutationen, die eine Verbesserung der Fitness bewirken) zu allen Mutationen etwa ein Fünftel betragen sollte. Ist der Quotient größer, so sollte die Varianz der Mutationen erhöht werden, bei einem kleineren Quotienten sollte sie verringert werden.

Genetische Programmierung (GP)

Das Ziel der genetischen Programmierung ist die Erzeugung von Strukturen, die eine bestimmte Eingabe in eine festgelegte Ausgabe umwandeln sollen (Computerprogramme, Schaltkreise oder mathematische Funktionen). Die Lösungskandidaten werden durch Bäume repräsentiert.

Beim Problem der symbolischen Regression wird eine bestimmte Funktion X→Y{\displaystyle X\to Y} gesucht (z. B. ein Polynom wie 4x4−3x2+17{\displaystyle 4x^{4}-3x^{2}+17}). Gegeben sind Paare mit je einem Wert aus X{\displaystyle X} und dem zugehörigen Wert aus Y{\displaystyle Y}. Es ist also bekannt, wie die gesuchte Funktion Werte abbildet. Mit GP werden Baumstrukturen evolviert, die die symbolische Funktion meist exakt nachbilden.

Eine grundlegende Arbeit zur Genetischen Programmierung verfasste . Er erkannte auch die Möglichkeit, symbolische Regression mit GP zu lösen. In der Erforschung von GP wurde dieses Problem oft als Benchmarktest genutzt.

Evolutionäre Programmierung (EP)

Ähnlich wie bei der GP werden Strukturen wie Computerprogramme gesucht, die aber nicht durch Bäume, sondern durch endliche Automaten repräsentiert werden. Nur die numerischen Eigenschaften der Automaten werden variiert, ihre Struktur ist fest. Gesucht wird ausschließlich über Mutation, Rekombination findet nicht statt. Einzelne Individuen werden sozusagen als unterschiedliche Spezies betrachtet. Evolutionäre Programmierung wurde nach ihrer Entstehung wenig weiterentwickelt.

EAs im Vergleich zu Monte-Carlo-Verfahren

Beide Verfahrensklassen haben gemeinsam, dass ihre einzelnen Suchschritte zufallsbestimmt sind. Der wesentliche Unterschied besteht aber darin, dass die EAs, wie viele andere Metaheuristiken auch, aus den vergangenen Suchschritten lernen und diese Erfahrung in die Ausführung der nächsten Suchschritte in einer verfahrensspezifischen Form einfließt. Dies geschieht bei den EAs wie in Abschnitt Pseudocode dargestellt erstens durch die fitnessbasierten Selektionsoperatoren zur Partnerwahl und zur Bildung der nächsten Generation. Und zweitens durch der Art der Suchschritte: Beim EA gehen sie von einer aktuellen Lösung aus und verändern diese oder sie mischen die Information zweier Lösungen. Im Gegensatz dazu besteht beim Auswürfeln neuer Lösungen bei den Monte-Carlo-Verfahren in der Regel kein Zusammenhang zu bereits existierenden Lösungen.

Wenn der Suchraum aufgabenbedingt so aussieht, dass es nichts zu lernen gibt, sind Monte-Carlo-Verfahren ein probates Mittel, da sie keinerlei Overhead enthalten, der aus der bisherigen Suche geeignete Schlüsse ziehen soll. Ein Beispiel dafür ist eine Fitnesslandschaft, die eine flache (Hyper-)Ebene mit einer einsamen schmalen Spitze darstellt. Solange die Spitze nicht gefunden wurde, haben alle betrachteten Lösungen die gleiche Fitness, und es fehlt jeder Hinweis, ob und wo es bessere Lösungen geben könnte.

Siehe auch

  • Evolutionär stabile Strategie
  • CMA-ES
  • Memetischer Algorithmus
  • Naturanaloge Optimierungsverfahren
  • Survival of the Fittest
  • Bionik

Literatur

Evolutionäre Algorithmen allgemein

  • , Frank Klawonn, Rudolf Kruse: Evolutionäre Algorithmen: genetische Algorithmen – Strategien und Optimierungsverfahren – Beispielanwendungen. Vieweg, Wiesbaden 2004, ISBN 3-528-05570-7.
  • : Einführung in evolutionäre Algorithmen: Optimierung nach dem Vorbild der Evolution. Vieweg, Braunschweig 1997, ISBN 3-528-05499-9 , doi:10.1007/978-3-322-93861-9.
  • : Evolutionäre Algorithmen: Verfahren, Operatoren und Hinweise für die Praxis. Springer, Berlin 1999, ISBN 3-540-66413-0.
  • : Evolutionäre Algorithmen. Springer Vieweg, Wiesbaden, 2015. ISBN 978-3-658-09957-2. doi:10.1007/978-3-658-09958-9
  • , Jim E. Smith: Introduction to Evolutionary Computing. Springer, Berlin, Heidelberg, 2003. doi:10.1007/978-3-662-44874-8
  • : Evolutionary Computation: A Unified Approach. MIT Press, Cambridge, MA 2006, ISBN 0-262-04194-4.
  • Thomas Bäck, David Fogel, Zbigniew Michalewicz (Hrsg.): Evolutionary Computation 1: Basic Algorithms and Operators. CRC Press, Bristol 1999, ISBN 978-0-7503-0664-5,
  • Thomas Bäck, David Fogel, Zbigniew Michalewicz (Hrsg.): Evolutionary Computation 2: Advanced Algorithms and Operators. CRC Press, Bristol 2000, ISBN 978-0-7503-0665-2, doi:10.1201/9781420034349
  • VDI/VDE-Richtlinie 3550, Blatt 3: Evolutionäre Algorithmen – Begriffe und Definitionen. Weißdruck, (in Deutsch und Englisch) Beuth-Verlag, Berlin, 2003.
  • VDI/VDE-Richtlinie 6224, Blatt 1: Bionische Optimierung – Evolutionäre Algorithmen in der Anwendung. Weißdruck, (in Deutsch und Englisch), Beuth-Verlag, Berlin, 2012.

Genetische Algorithmen

  • David E. Goldberg: Genetic Algorithms in Search, Optimization, and Machine Learning. Addison-Wesley, 1989, ISBN 0-201-15767-5.
  • : Genetische Algorithmen. Teubner, Stuttgart 1994. doi:10.1007/978-3-322-99633-6
  • : An Introduction to Genetic Algorithms. MIT Press, Cambridge MA 1996. ISBN 978-0-262-63185-3

Evolutionsstrategien

  • Ingo Rechenberg: Cybernetic Solution Path of an Experimental Problem (1965). In: D.B. Fogel (Hrsg.): Evolutionary Computation – The Fossil Record. IEEE Press, 1998, ISBN 0-7803-3481-7.
  • Ingo Rechenberg: Evolutionsstrategie. Optimierung technischer Systeme nach Prinzipien der biologischen Evolution. Frommann Holzboog, 1973, ISBN 3-7728-0373-3 (Diss. von 1970).
  • Ingo Rechenberg, Evolutionsstrategie ’94. Frommann Holzboog, 1994, ISBN 3-7728-1642-8.
  • Hans-Paul Schwefel: Evolution and Optimum Seeking. Wiley & Sons, New York 1995, ISBN 0-471-57148-2.
  • Hans-Georg Beyer: The Theory of Evolution Strategies. Springer, Berlin / Heidelberg / New York 1998, ISBN 3-540-67297-4.
  • et al.: Vergleich zwischen klassischen und verschachtelten Evolutionsstrategien am Beispiel einer nichtlinearen Regression an Oberflächenspannungen in R². Interner Bericht CI-66/99 des Sonderforschungsbereichs 531: „Design und Management komplexer technischer Prozesse und Systeme mit Methoden der Computational Intelligence“, Dortmund 1999, PDF

Genetische Programmierung

  • : Genetic Programming. On the Programming of Computers by Means of Natural Selection. The MIT Press, 1992, ISBN 0-262-11170-5.
  • , Peter Nordin, Robert E. Keller, Frank D. Francone: Genetic Programming – An Introduction. Morgan Kaufmann, San Francisco, CA, USA, 1997. ISBN 3-920993-58-6
  • , : Foundations of Genetic Programming. Springer, 2002, ISBN 3-540-42451-2.
  • Riccardo Poli, William B. Langdon, : A Field Guide to Genetic Programming. Lulu.com, 2008.

Evolutionäre Programmierung

  • , , : Artificial Intelligence through Simulated Evolution. John Wiley, 1966. doi:10.1109/9780470544600.ch7
  • : Blondie24: Playing at the Edge of AI. Morgan Kaufmann Publishers, San Francisco CA 2002, ISBN 1-55860-783-8.

Weblinks

Commons: Evolutionärer Algorithmus – Sammlung von Bildern, Videos und Audiodateien

Evolutionäre Algorithmen allgemein

  • Thomas Weise: Global Optimization Algorithms - Theory and Application , 2009. (PDF; 13,14 MB)
  • EvA2 (Java), umfassendes Framework für EA und heuristische Optimierung mit GUI.

Genetische Algorithmen

  • Genetische Algorithmen. Wikiversity-Kurs.
  • JGAP – Freies Java Framework zur Implementierung genetischer Algorithmen, unterstützt auch die Genetische Programmierung; sehr viele Unit Tests zur Qualitätssicherung, umfangreiche Javadoc-Dokumentation
  • EvoJ – Kleines aber effektives und verbreitbares Java Framework für genetischer Algorithmen.
  • Jenetics – in Java 11 geschriebener, genetischer Algorithmus und nutzt die Java Stream API zur Evaluierung der einzelnen Generationen.
  • HeuristicLab – Freies .NET Environment für heuristische Optimierung (genetische Algorithmen, Evolutionsstrategien, Nachbarschaftssuche etc.)
  • Boxcar2D, ein genetischer Algorithmus, der ein 2-dimensionales Fahrzeug konstruiert, um ein Gelände zu überwinden

Hybrid-Algorithmen

  • Geneva („Grid-enabled evolutionary algorithms“), eine freie Bibliothek (Affero GPLv3) zur Optimierung mit Evolutionsstrategien, genetischen Algorithmen und Schwarmalgorithmen sowie simulierte Abkühlung und Parameter Scans. Unterstützt Problembeschreibungen mit gemischten Parametersätzen sowie die Optimierung in Clustern sowie Grid und Cloud.

Einzelnachweise

  1. J.D. Lohn, D.S. Linden, G.S. Hornby, W.F. Kraus: Evolutionary design of an X-band antenna for NASA's Space Technology 5 mission. In: Antennas and Propagation Society International Symposium. Vol.3,IEEE , 20-25 June 2004, S. 2313–2316
  2. Peter Bentley, David Corne: Creative Evolutionary Systems. Morgan Kaufmann, San Francisco, CA, 2001, S. 10. ISBN 978-1-55860-673-9
  3. David B. Fogel: Evolutionary Computation: Toward a New Philosophy of Machine Intelligence. Wiley, New York, S. 59, 2005. ISBN 978-0-471-66951-7
  4. Cecilia Di Chio et al.: Applications of Evolutionary Computation: EvoApplications 2012. LNCS 7248, Springer, Berlin, Heidelberg, 2012. doi:10.1007/978-3-642-29178-4
  5. Keshav P. Dahal, Kay Chen Tan, Peter I. Cowling (Hrsg.): Evolutionary Scheduling. SCI, Nr. 49. Springer, Berlin, Heidelberg 2007, ISBN 978-3-540-48582-7, doi:10.1007/978-3-540-48584-1. 
  6. Ian C. Parmee: Strategies for the Integration of Evolutionary/Adaptive Search with the Engineering Design Process. In: Dipankar Dasgupta, Zbigniew Michalewicz (Hrsg.): Evolutionary Algorithms in Engineering Applications. Springer Berlin Heidelberg, Berlin, Heidelberg 1997, ISBN 3-642-08282-3, S. 453–477, doi:10.1007/978-3-662-03423-1_25. 
  7. Christian Blume: Optimized Collision Free Robot Move Statement Generation by the Evolutionary Software GLEAM. In: Real-World Applications of Evolutionary Computing. LNCS 1803. Springer, Berlin, Heidelberg 2000, ISBN 3-540-67353-9, S. 330–341, doi:10.1007/3-540-45561-2_32. 
  8. VDI/VDE-Richtlinie 3550, Blatt 3: Evolutionäre Algorithmen - Begriffe und Definitionen. Weißdruck (in Deutsch und Englisch) Beuth-Verlag, Berlin, 2003.
  9. Karsten Weicker: Evolutionäre Algorithmen. S. 25. Springer Vieweg, Wiesbaden, 2015. doi:10.1007/978-3-658-09958-9
  10. Volker Nissen: Evolutionäre Algorithmen. Deutscher Universitätsverlag, Wiesbaden 1994, ISBN 3-8244-0217-3, S. 27, Abb. 3.4, doi:10.1007/978-3-322-83430-0. 
  11. A.E. Eiben, J.E. Smith: Introduction to Evolutionary Computing (= Natural Computing Series). 2. Auflage. Springer, Berlin, Heidelberg 2015, ISBN 978-3-662-44873-1, What Is an Evolutionary Algorithm?, S. 25–28, S. 26, Fig. 3.1, doi:10.1007/978-3-662-44874-8. 
  12. Natalio Krasnogor: Studies on the Theory and Design Space of Memetic Algorithms. Dissertation. University of the West of England, Bristol, UK 2002, S. 23 (englisch, bl.uk). 
  13. Heikki Maaranen, Kaisa Miettinen, Antti Penttinen: On initial populations of a genetic algorithm for continuous optimization problems. In: Journal of Global Optimization. Band 37, Nr. 3, 23. Januar 2007, ISSN 0925-5001, S. 405–436, doi:10.1007/s10898-006-9056-6 (researchgate.net [abgerufen am 1. Oktober 2023]). 
  14. Borhan Kazimipour, Xiaodong Li, A. K. Qin: A review of population initialization techniques for evolutionary algorithms. IEEE, 2014, ISBN 978-1-4799-1488-3, S. 2585–2592, doi:10.1109/CEC.2014.6900618 (ieee.org [abgerufen am 1. Oktober 2023]). 
  15. Wilfried Jakob: HyGLEAM–An Approach to Generally Applicable Hybridization of Evolutionary Algorithms. In: Parallel Problem Solving from Nature — PPSN VII. Band 2439. Springer, Berlin, Heidelberg 2002, ISBN 3-540-44139-5, S. 527–536, doi:10.1007/3-540-45712-7_51 (researchgate.net [abgerufen am 1. Oktober 2023]). 
  16. Muhanad Tahrir Younis, Shengxiang Yang, Benjamin Passow: Meta-Heuristically Seeded Genetic Algorithm for Independent Job Scheduling in Grid Computing. In: Applications of Evolutionary Computation. Band 10199. Springer International Publishing, Cham 2017, ISBN 978-3-319-55848-6, S. 177–189, doi:10.1007/978-3-319-55849-3_12. 
  17. Tobias Friedrich, Markus Wagner: Seeding the initial population of multi-objective evolutionary algorithms: A computational study. In: Applied Soft Computing. Band 33, August 2015, S. 223–230, doi:10.1016/j.asoc.2015.04.043 (elsevier.com [abgerufen am 1. Oktober 2023]). 
  18. Musrrat Ali, Millie Pant, Ajith Abraham: Unconventional initialization methods for differential evolution. In: Applied Mathematics and Computation. Band 219, Nr. 9, Januar 2013, S. 4474–4494, doi:10.1016/j.amc.2012.10.053 (elsevier.com [abgerufen am 1. Oktober 2023]). 
  19. Borhan Kazimipour, Xiaodong Li, A. K. Qin: Initialization methods for large scale global optimization. In: IEEE Congress on Evolutionary Computation. 2013, S. 2750–2757, doi:10.1109/CEC.2013.6557902 (ieee.org). 
  20. A.E. Eiben, J.E. Smith: Introduction to Evolutionary Computing (= Natural Computing Series). Springer, Berlin, Heidelberg 2015, ISBN 978-3-662-44873-1, Parent Selection, S. 80–87, doi:10.1007/978-3-662-44874-8. 
  21. John H. Holland: Adaptation in Natural and Artificial Systems: An Introductory Analysis with Applications to Biology, Control and Artificial Intelligence. PhD thesis. University of Michigan Press, Ann Arbor 1975, ISBN 0-472-08460-7. 
  22. A.E. Eiben, J.E. Smith: Introduction to Evolutionary Computing (= Natural Computing Series). Springer, Berlin, Heidelberg 2015, ISBN 978-3-662-44873-1, Tournament Selection, S. 84–86, doi:10.1007/978-3-662-44874-8. 
  23. James E. Baker: Adaptive Selection Methods for Genetic Algorithms. In: John J. Grefenstette (Hrsg.): Conf. Proc. of the 1st Int. Conf. on Genetic Algorithms and Their Applications (ICGA). L. Erlbaum Associates, Hillsdale, NJ 1985, ISBN 0-8058-0426-9, S. 101–111. 
  24. Darrell Whitley: The GENITOR Algorithm and Selective Pressure: Why Rank-Based Allocation of Reproductive Trials is Best. In: J. David Schaffer (Hrsg.): Conf. Proc. of the 3rd Int. Conf. on Genetic Algorithms and Their Applications (ICGA). Morgan Kaufmann Publishers, San Francisco, CA 1989, ISBN 1-55860-066-3, S. 116–121. 
  25. A.E. Eiben, J.E. Smith: Introduction to Evolutionary Computing (= Natural Computing Series). Springer, Berlin, Heidelberg 2015, ISBN 978-3-662-44873-1, S. 19–20, doi:10.1007/978-3-662-44874-8. 
  26. Lawrence J. Fogel: Intelligence through simulated evolution: forty years of evolutionary programming (= Wiley series on intelligent systems). Wiley, New York, NY Weinheim 1999, ISBN 0-471-33250-X. 
  27. Thomas Bäck, Hans-Paul Schwefel: An Overview of Evolutionary Algorithms for Parameter Optimization. In: Evolutionary Computation. Band 1, Nr. 1, März 1993, ISSN 1063-6560, S. 1–23, S. 5, doi:10.1162/evco.1993.1.1.1 (mit.edu [abgerufen am 6. Oktober 2023]). 
  28. Christian Blume, Wilfried Jakob: GLEAM - General Learning Evolutionary Algorithm and Method : ein Evolutionärer Algorithmus und seine Anwendungen. KIT Scientific Publishing, Karlsruhe 2009, S. 14, doi:10.5445/ksp/1000013553 (kit.edu [abgerufen am 6. Oktober 2023]). 
  29. Charles Darwin: The Origin of Species by Means of Natural Selection. 6. Auflage. John Murray, London 1872 (englisch, org.uk). 
  30. A.E. Eiben, J.E. Smith: Introduction to Evolutionary Computing (= Natural Computing Series). Springer, Berlin, Heidelberg 2015, ISBN 978-3-662-44873-1, Parent Selection, Survivor Selection, S. 80–90, doi:10.1007/978-3-662-44874-8. 
  31. Hans-Paul Schwefel: Numerical optimization of computer models. Wiley, Chichester 1981, ISBN 0-471-09988-0. 
  32. Karsten Weicker: Evolutionäre Algorithmen. Springer Fachmedien, Wiesbaden 2015, ISBN 978-3-658-09957-2, Varianten der Umweltselektion, S. 68–71, Definition 3.12, S. 69, doi:10.1007/978-3-658-09958-9. 
  33. Volker Nissen: Evolutionäre Algorithmen. Deutscher Universitätsverlag, Wiesbaden 1994, ISBN 3-8244-0217-3, S. 26, doi:10.1007/978-3-322-83430-0. 
  34. Christian Blume, Wilfried Jakob: GLEAM: General Learning Evolutionary Algorithm and Method ; ein evolutionärer Algorithmus und seine Anwendungen (= Schriftenreihe des Instituts für Angewandte Informatik. Nr. 32). KIT Scientific Publishing, Karlsruhe 2009, ISBN 978-3-86644-436-2, Stagnationsorientierte Abbruchkriterien, S. 51, doi:10.5445/KSP/1000013553. 
  35. Mitsuo Gen, Runwei Cheng: Genetic Algorithms and Engineering Optimization. Wiley, New York, 2000, S. 8. ISBN 978-0-471-31531-5. doi:10.1002/9780470172261
  36. William M. Spears: The Role of Mutation and Recombination in Evolutionary Algorithms. Springer, Berlin, Heidelberg, 2000, S. 225f. doi:10.1007/978-3-662-04199-4
  37. Bill Worzel, Terence Soule, Rick Riolo: Genetic Programming Theory and Practice VI. Springer, Berlin, Heidelberg, 2009, S. 62. doi:10.1007/978-0-387-87623-8
  38. Oscar Cordón, Francisco Herrera, Frank Hoffmann, Luis Magdalena: Genetic Fuzzy Systems: Evolutionary Tuning and Learning of Fuzzy Knowledge Bases. World Scientific Publishing, Singapore, 2002, S. 95. doi:10.1142/4177
  39. Ralf Mikut, Frank Hendrich: Produktionsreihenfolgeplanung in Ringwalzwerken mit wissensbasierten und evolutionären Methoden. In: Automatisierungstechnik. Band 46, Nr. 1, Januar 1998, ISSN 2196-677X, S. 15–21, doi:10.1524/auto.1998.46.1.15. 
  40. Ferrante Neri, Carlos Cotta, Pablo Moscato (Eds.): Handbook of Memetic Algorithms (= Studies in Computational Intelligence. Nr. 379). Springer, Berlin, Heidelberg 2012, ISBN 978-3-642-26942-4, doi:10.1007/978-3-642-23247-3. 
  41. Martina Gorges-Schleuter: A comparative study of global and local selection in evolution strategies. In: Parallel Problem Solving from Nature — PPSN V. Band 1498. Springer Berlin Heidelberg, Berlin, Heidelberg 1998, ISBN 3-540-65078-4, S. 367–377, doi:10.1007/bfb0056879. 
  42. Bernabe Dorronsoro, Enrique Alba: Cellular Genetic Algorithms (= Operations Research/Computer Science Interfaces Series. Band 42). Springer US, Boston, MA 2008, ISBN 978-0-387-77609-5, doi:10.1007/978-0-387-77610-1. 
  43. Darrell Whitley: A Genetic Algorithm Tutorial. In: Statistics and Computing. Band 4, Nr. 2, Juni 1994, ISSN 0960-3174, Criticism of the schema theorem, S. 77, doi:10.1007/BF00175354. 
  44. A.E. Eiben, J.E. Smith: Introduction to Evolutionary Computing (= Natural Computing Series). 2. Auflage. Springer, Berlin, Heidelberg 2015, ISBN 978-3-662-44873-1, Criticisms and Recent Extensions of the Schema Theorem, S. 236–237, doi:10.1007/978-3-662-44874-8. 
  45. Volker Nissen: Einführung in evolutionäre Algorithmen: Optimierung nach dem Vorbild der Evolution. Vieweg, Braunschweig 1997, ISBN 3-528-05499-9, Das Schema-Theorem und seine Kritiker, S. 85–92, doi:10.1007/978-3-322-93861-9. 
  46. J. Stender, E. Hillebrand, J. Kingdon: Genetic Algorithms in Optimisation, Simulation and Modelling. IOS Press, Amsterdam, 1994, S. 70. ISBN 978-90-5199-180-2
  47. Zbigniew Michalewicz: Genetic Algorithms + Data Structures = Evolution Programs. Third, revised and Extended edition Auflage. Springer, Berlin, Heidelberg 1996, ISBN 3-662-03315-1. 
  48. International Conference on the Applications of Evolutionary Computation,. Die Konferenz ist Teil der Evo*-Serie. Die Conference Proceedings erscheinen im Springer Verlag: https://link.springer.com/conference/evoapplications, abgerufen am 8. Februar 2022 (englisch). 
  49. Hitoshi Iba, Nasimul Noman: New Frontier in Evolutionary Algorithms: Theory and Applications. IMPERIAL COLLEGE PRESS, 2011, ISBN 978-1-84816-681-3, doi:10.1142/p769. 
  50. Kaisa Miettinen, Pekka Neittaanmäki, M.M. Mäkelä, Jacques Périaux (Hrsg.): Evolutionary Algorithms in Engineering and Computer Science: Recent Advances in Genetic Algorithms, Evolution Strategies, Evolutionary Programming, Genetic Programming and Industrial Applications. Wiley, Chichester, Weinheim 1999, ISBN 978-0-471-99902-7 (wiley.com). 
  51. Ernesto Sanchez, Giovanni Squillero, Alberto Tonda: Industrial Applications of Evolutionary Algorithms. Intelligent Systems Reference Library 34. Springer, Berlin, Heidelberg 2012, ISBN 978-3-642-27466-4, doi:10.1007/978-3-642-27467-1. 
  52. Dipankar Dasgupta, Zbigniew Michalewicz (Hrsg.): Evolutionary Algorithms in Engineering Applications. Springer, Berlin, Heidelberg 1997, ISBN 3-642-08282-3, doi:10.1007/978-3-662-03423-1. 
  53. Adam Slowik, Halina Kwasnicka: Evolutionary algorithms and their applications to engineering problems. In: Neural Computing and Applications. Band 32, Nr. 16, August 2020, ISSN 0941-0643, S. 12363–12379, doi:10.1007/s00521-020-04832-8. 
  54. Wilfried Jakob, Martina Gorges-Schleuter, Christian Blume: Application of Genetic Algorithms to Task Planning and Learning. In: Rheinhard Männer, Bernard Manderick (Hrsg.): Parallel Problem Solving from Nature 2, PPSN-II. North-Holland, Amsterdam 1992, ISBN 0-444-89730-5, S. 291–300. 
  55. Christian Blume: Optimized Collision Free Robot Move Statement Generation by the Evolutionary Software GLEAM. In: S. Cagnoni (Hrsg.): Real-World Applications of Evolutionary Computing. LNCS 1803. Springer, Berlin, Heidelberg 2000, ISBN 3-540-67353-9, S. 330–341, doi:10.1007/3-540-45561-2_32. 
  56. Nantiwat Pholdee, Sujin Bureerat: Multiobjective Trajectory Planning of a 6D Robot based on Multiobjective Meta Heuristic Search. ACM, 2018, ISBN 978-1-4503-6553-6, S. 352–356, doi:10.1145/3301326.3301356 (acm.org [abgerufen am 15. September 2024]). 
  57. David G. Mayer: Evolutionary Algorithms and Agricultural Systems. Springer US, Boston, MA 2002, ISBN 1-4613-5693-8, doi:10.1007/978-1-4615-1717-7. 
  58. Gary Fogel, David Corne: Evolutionary Computation in Bioinformatics. Elsevier, 2003, ISBN 1-55860-797-8, doi:10.1016/b978-1-55860-797-2.x5000-8 (elsevier.com [abgerufen am 25. Dezember 2022]). 
  59. Wilfried Jakob: Applying Evolutionary Algorithms Successfully - A Guide Gained from Real-world Applications. KIT Scientific Working Papers, Nr. 170. KIT Scientific Publishing, 2021, ISSN 2194-1629, doi:10.5445/IR/1000135763, arxiv:2107.11300 (englisch, kit.edu). 
  60. Karsten Weicker: Evolutionäre Algorithmen. Springer Fachmedien Wiesbaden, Wiesbaden 2015, ISBN 978-3-658-09957-2, doi:10.1007/978-3-658-09958-9. 
  61. Hartmut Pohlheim: Evolutionäre Algorithmen - Verfahren, Operatoren und Hinweise für die Praxis. VDI-Buch. Springer, Berlin, Heidelberg 2000, ISBN 3-642-63052-9, doi:10.1007/978-3-642-57137-4. 
  62. A.E. Eiben, J.E. Smith: Introduction to Evolutionary Computing (= Natural Computing Series). 2. Auflage. Springer, Berlin, Heidelberg 2015, ISBN 978-3-662-44873-1, Working with Evolutionary Algorithms, S. 147–163, doi:10.1007/978-3-662-44874-8. 
  63. Ernesto Sanchez, Giovanni Squillero, Alberto Tonda: Industrial Applications of Evolutionary Algorithms. Springer, Berlin, Heidelberg, 2012. doi:10.1007/978-3-642-27467-1
  64. Shu-Heng Chen: Evolutionary Computation in Economics and Finance. Physica, Heidelberg, 2002. S. 6. doi:10.1007/978-3-7908-1784-3
  65. Claus Aranha, Hitoshi Iba: Application of a Memetic Algorithm to the Portfolio Optimization Problem. In: Wayne Wobcke, Mengjie Zhang (Hrsg.): Advances in Artificial Intelligence. AI 2008. LNCS 5360. Springer, Berlin, Heidelberg, 2008. doi:10.1007/978-3-540-89378-3_52
  66. David G. Mayer: Evolutionary Algorithms and Agricultural Systems. Springer, Boston, MA, 2002, S. 2. doi:10.1007/978-1-4615-1717-7
  67. Kalyanmoy Deb: GeneAS: A Robust Optimal Design Technique for Mechanical Component Design. In: Dipankar Dasgupta, Zbigniew Michalewicz (Hrsg.): Evolutionary Algorithms in Engineering Applications. Springer Berlin Heidelberg, Berlin, Heidelberg 1997, ISBN 3-642-08282-3, S. 497–514, doi:10.1007/978-3-662-03423-1_27. 
  68. Mark P. Kleeman, Gary B. Lamont: Scheduling of Flow-Shop, Job-Shop, and Combined Scheduling Problems using MOEAs with Fixed and Variable Length Chromosomes. In: Keshav P. Dahal, Kay Chen Tan, Peter I. Cowling (Hrsg.): Evolutionary Scheduling (= Studies in Computational Intelligence. Band 49). Springer, Berlin, Heidelberg 2007, ISBN 978-3-540-48582-7, S. 49–99, doi:10.1007/978-3-540-48584-1. 
  69. Kazi Shah Nawaz Ripon, Chi-Ho Tsang, Sam Kwong: An Evolutionary Approach for Solving the Multi-Objective Job-Shop Scheduling Problem. In: Keshav P. Dahal, Kay Chen Tan, Peter I. Cowling (Hrsg.): Evolutionary Scheduling (= Studies in Computational Intelligence. Band 49). Springer, Berlin, Heidelberg 2007, ISBN 978-3-540-48582-7, S. 165–195, doi:10.1007/978-3-540-48584-1. 
  70. Marek Mika, Grzegorz Waligóra, Jan Węglarz: Modelling and solving grid resource allocation problem with network resources for workflow applications. In: Journal of Scheduling. Band 14, Nr. 3, Juni 2011, ISSN 1094-6136, S. 291–306, doi:10.1007/s10951-009-0158-0 (springer.com [abgerufen am 15. September 2024]). 
  71. Wilfried Jakob, Sylvia Strack, Alexander Quinte, Günther Bengel, Karl-Uwe Stucky: Fast Rescheduling of Multiple Workflows to Constrained Heterogeneous Resources Using Multi-Criteria Memetic Computing. In: Algorithms. Band 6, Nr. 2, 22. April 2013, ISSN 1999-4893, S. 245–277, doi:10.3390/a6020245 (mdpi.com [abgerufen am 8. Februar 2022]). 
  72. Alberto Colorni, Marco Dorigo, Vittorio Maniezzo: Genetic Algorithms: A New Approach to the Timetable Problem. In: M. Akgül, H.W. Hamacher, S. Tüfekçi (Hrsg.): Combinatorial Optimization. NATO ASI Series (Series F: Computer and Systems Sciences), Nr. 82. Springer, Berlin, Heidelberg 1992, ISBN 3-642-77491-1, S. 235–239, doi:10.1007/978-3-642-77489-8_14. 
  73. B. Paechter, A. Cumming, H. Luchian: The use of local search suggestion lists for improving the solution of timetable problems with evolutionary algorithms. In: Terence C. Fogarty (Hrsg.): Evolutionary computing: AISB Workshop, Brighton, U.K.: selected papers. Springer, Berlin, Heidelberg 1996, ISBN 3-540-61749-3. 
  74. Dipankar Dasgupta: Optimal Scheduling of Thermal Power Generation Using Evolutionary Algorithms. In: Dipankar Dasgupta, Zbigniew Michalewicz (Hrsg.): Evolutionary Algorithms in Engineering Applications. Springer, Berlin, Heidelberg 1997, ISBN 3-642-08282-3, S. 317–328, doi:10.1007/978-3-662-03423-1_18. 
  75. Gary Fogel, David Corne: Evolutionary Computation in Bioinformatics. Morgan Kaufmann, 2002. ISBN 978-1-55860-797-2. doi:10.1016/B978-1-55860-797-2.X5000-8.
  76. Robert Axelrod: Die Evolution der Kooperation. Oldenbourg, München 1987; 7. Auflage, 2014. ISBN 978-3-486-59172-9. doi:10.1524/9783486851748
  77. W. Leo Meerts, Michael Schmitt: Application of genetic algorithms in automated assignments of high-resolution spectra. In: International Reviews in Physical Chemistry. Band 25, Nr. 3, 1. Juli 2006, ISSN 0144-235X, S. 353–406, doi:10.1080/01442350600785490. 
  78. A. M. Turing: Computing machinery and intelligence. In: Mind, 59, S. 433–460. 1950. loebner.net (Memento vom 2. Juli 2008 im Internet Archive)
  79. Ingo Rechenberg: Evolutionsstrategie – Optimierung technischer Systeme nach Prinzipien der biologischen Evolution (PhD thesis). Frommann-Holzboog, 1973.  ISBN 3-7728-0373-3
  80. Hans-Paul Schwefel: Evolutionsstrategie und numerische Optimierung. Dissertation. Technische Universität, Berlin 1975. 
  81. Hans-Paul Schwefel: Evolution and Optimum Seeking. Sixth-generation computer technology series. John Wiley & Sons, New York 1995, ISBN 0-471-57148-2 (researchgate.net). 
  82. Darrell Whitley: An overview of evolutionary algorithms: practical issues and common pitfalls. In: Information and Software Technology. Band 43, Nr. 14, Dezember 2001, S. 817–831, doi:10.1016/S0950-5849(01)00188-4 (elsevier.com [abgerufen am 8. Februar 2022]). 
  83. Lukáš Sekanina: Evolvable Components: From Theory to Hardware Implementations. Springer, Berlin, Heidelberg, 2004, S. 27. doi:10.1007/978-3-642-18609-7
  84. Cesary Janikow, Zbigniew Michalewicz: An Experimental Comparison of Binary and Floating Point Representations in Genetic Algorithms. In: Conf. Proc of the Fourth Int. Conf. on Genetic Algorithms (ICGA'91). 1991, S. 31–36 (umsl.edu [PDF]). 
  85. Zbigniew Michalewicz: Genetic Algorithms + Data Structures = Evolution Programs. Springer, Berlin, Heidelberg 1996, ISBN 3-662-03315-1. 
  86. Chuan-Kang Ting: On the Mean Convergence Time of Multi-parent Genetic Algorithms Without Selection. In: Advances in Artificial Life, 2005, ISBN 978-3-540-28848-0, S. 403–412.
  87. Thomas Bäck, Hans-Paul Schwefel: An Overview of Evolutionary Algorithms for Parameter Optimization. In: Evolutionary Computation. Band 1, Nr. 1, 1. März 1993, ISSN 1063-6560, S. 1–23, doi:10.1162/evco.1993.1.1.1. 
  88. Thomas Bäck, Frank Hoffmeister, Hans-Paul Schwefel: A Survey of Evolution Strategies. In: Richard K. Belew, Lashon B. Booker (Hrsg.): Conf. Proc. of the 4th Int. Conf. on Genetic Algorithms (ICGA'91). Morgan Kaufmann, San Francisco 1991, ISBN 1-55860-208-9, S. 2–9. 
  89. Nikolaus Hansen, Andreas Ostermeier: Completely Derandomized Self-Adaptation in Evolution Strategies. In: Evolutionary Computation. Band 9, Nr. 2, Juni 2001, ISSN 1063-6560, S. 159–195, doi:10.1162/106365601750190398. 
  90. Nikolaus Hansen, Stefan Kern: Evaluating the CMA Evolution Strategy on Multimodal Test Functions. In: Conf. Proc. of Parallel Problem Solving from Nature - PPSN VIII. LNCS, Nr. 3242. Springer Berlin Heidelberg, Berlin, Heidelberg 2004, ISBN 3-540-23092-0, S. 282–291, doi:10.1007/978-3-540-30217-9_29. 
  91. Julian F. Miller: Cartesian Genetic Programming. Natural Computing Series. Springer, Berlin, Heidelberg, 2011, S. 63. doi:10.1007/978-3-642-17310-3_2
  92. Hans-Paul Schwefel: Evolution and Optimum Seeking (= Sixth-generation computer technology series). Wiley, New York 1995, ISBN 978-0-471-57148-3, S.109 (researchgate.net [abgerufen am 16. September 2024]). 
  93. Thomas Bäck, David B. Fogel, Zbigniew Michalewicz (Hrsg.): Evolutionary Computation 1. Institute of Physics Publishing, Bristol; Philadelphia 2000, ISBN 978-0-7503-0664-5, Glossary, S. xxx und S. xxxvii (worldcat.org [abgerufen am 16. September 2024]). 
Normdaten (Sachbegriff): GND: 4366912-8 (GND Explorer, lobid, OGND, AKS)

Autor: www.NiNa.Az

Veröffentlichungsdatum: 16 Jul 2025 / 05:55

wikipedia, wiki, deutsches, deutschland, buch, bücher, bibliothek artikel lesen, herunterladen kostenlos kostenloser herunterladen, MP3, Video, MP4, 3GP, JPG, JPEG, GIF, PNG, Bild, Musik, Lied, Film, Buch, Spiel, Spiele, Mobiltelefon, Mobil, Telefon, android, ios, apple, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, pc, web, computer, komputer, Informationen zu Evolutionärer Algorithmus, Was ist Evolutionärer Algorithmus? Was bedeutet Evolutionärer Algorithmus?

Evolutionare Algorithmen EA sind eine Klasse von stochastischen metaheuristischen Optimierungsverfahren deren Funktionsweise von der Evolution naturlicher Lebewesen inspiriert ist Die Antenne der Space Technology 5 Satelliten wurde mit einem EA entwickelt In Anlehnung an die Natur werden Losungskandidaten fur ein bestimmtes Problem kunstlich evolviert EA sind also naturanaloge Optimierungsverfahren Die Zuordnung zu den stochastischen und metaheuristischen Algorithmen bedeutet vor allem dass EA meist nicht die beste Losung fur ein Problem finden aber bei Erfolg eine hinreichend gute was in der Praxis vor allem bei NP vollstandigen Problemen bereits wunschenswert ist Die Verfahren verschiedener EA unterscheiden sich untereinander in erster Linie durch die genutzten Selektions Rekombinations und Mutationsoperatoren das Genotyp Phanotyp Mapping sowie die Problemreprasentation Die ersten praktischen Implementierungen evolutionarer Algorithmen wurden Ende der 1950er Jahre veroffentlicht allerdings ausserten sich bereits in den vorhergehenden Jahrzehnten Wissenschaftler zum Potenzial der Evolution fur maschinelles Lernen Es gibt vier Hauptstromungen deren Konzepte zumindest historisch voneinander zu unterscheiden sind genetische Algorithmen Evolutionsstrategien genetische Programmierung und evolutionare Programmierung Heute verschwimmen diese Abgrenzungen zunehmend Fur eine bestimmte Anwendung wird ein EA geeignet entworfen wobei in den letzten Jahrzehnten viele verschiedene Algorithmen und einzelne Operatoren entwickelt wurden die heute benutzt werden konnen Die Anwendungen von EA gehen uber Optimierung und Suche hinaus und finden sich auch in Kunst Modellierung und Simulation insbesondere auch bei der Untersuchung evolutionsbiologischer Fragestellungen EinfuhrungEvolutionare Algorithmen werden vorrangig zur Optimierung oder Suche eingesetzt Konkrete Probleme die mit EA gelost werden sind ausserst divers z B die Entwicklung von Sensornetzen Aktienmarktanalyse RNA Strukturvorhersage Schedulingprobleme Designoptimierung siehe auch obiges Bild der Satellitenantenne oder Roboterbahnplanung Auch bei Problemen uber deren Beschaffenheit nur wenig Wissen vorliegt konnen sie zufriedenstellende Losungen finden Dies ist auf die Eigenschaften ihres naturlichen Vorbildes zuruckzufuhren Naturliches Vorbild Evolutionarer Algorithmus BeispielOrganismus Losungskandidat AutoturFortpflanzungserfolg Wert der Fitnessfunktion StromungswiderstandNaturliche Mutation Mutation Anderung der Form In der biologischen Evolution sind die Gene von Organismen naturlich vorkommenden Mutationen ausgesetzt wodurch genetische Variabilitat entsteht Mutationen konnen sich positiv negativ oder gar nicht auf Erben auswirken Da es zwischen erfolgreichen Individuen zur Fortpflanzung Rekombination kommt konnen sich Arten uber lange Zeitraume an einen vorliegenden Selektionsdruck anpassen z B Klimaveranderungen oder die Erschliessung einer okologischen Nische Diese vereinfachte Vorstellung wird in der Informatik idealisiert und kunstlich im Computer nachgebildet Dabei wird die Gute eines Losungskandidaten explizit mit einer Fitnessfunktion berechnet sodass verschiedene Kandidaten vergleichbar sind Entsprechend dem naturlichen Vorbild gibt es bei den EAs Individuen die aus einem Genom bestehen welches die zu bestimmenden Eigenschaften der gesuchten Losung in geeigneter Weise enthalt Ein Individuum entspricht einem Losungskandidaten Die durch die genetischen Operatoren erzeugten Individuen werden Nachkommen oder Kinder genannt Eine Iteration des Verfahrens heisst entsprechend dem biologischen Vorbild Generation Weitere Begriffsdefinitionen konnen in der VDI Richtlinie VDI VDE 3550 gefunden werden In der Praxis konnte z B die Form einer Autotur so optimiert werden dass der aerodynamische Widerstand minimal wird Die Eigenschaften einer potenziellen Losung werden dabei im Rechner als Genom gespeichert Haufige Problemreprasentationen sind Genome aus binaren oder reellen Zahlen oder eine Reihenfolge bekannter Elemente bei kombinatorischen Problemen z B Travelling Salesman Die starken Vereinfachungen die im Vergleich zur Evolution getroffen werden stellen ein Problem in Bezug auf die Erforschung evolutionsbiologischer Fragestellungen mit EA dar Ergebnisse konnen nicht einfach auf die komplexere Natur ubertragen werden Pseudocode Das grobe Verfahren evolutionarer Algorithmen besteht meist aus einer Initialisierung und einer Generationsschleife die solange durchlaufen wird bis ein Abbruchkriterium erfullt ist Dazu nachfolgend ein Pseudocode dessen Notation an die von Krasnogor angelehnt ist Pseudocode eines elitaren EAs mit sexueller Reproduktion Initialisierung t 0 displaystyle t 0 Initialisierung des Generationszahlers Erzeuge eine zufallige Startpopulation Pt displaystyle P t Berechne die Fitness f p p Pt displaystyle f p forall p in P t initiale Bewertung while Abbruchkriterien sind nicht erfullt do Partnerwahl Wahle entsprechend f p displaystyle f p eine Teilmenge von Pt displaystyle P t und speichere sie in Mt displaystyle M t Nachkommen Rekombiniere und mutiere Individuen p Mt displaystyle p in M t und speichere sie in Mt displaystyle M t Bewertung Berechne die Fitness f p p Mt displaystyle f p forall p in M t Nachfolgegeneration Erzeuge Pt 1 displaystyle P t 1 durch fitnessbasierte Auswahl von Individuen aus Pt displaystyle P t und Mt displaystyle M t t t 1 displaystyle t t 1 erhohe Generationszahler end while Ergebnis Liefere bestes Individuum p Pt displaystyle p in P t als Ergebnis ab Bei der Initialisierung der Startpopulation werden die Individuen zufallig erzeugt um eine moglichst breite Abdeckung des Suchraums und eine hohe genotypische Diversitat zu erhalten In Abweichung davon kann es aber auch zielfuhrend sein einen kleinen Teil maximal 20 der initialen Individuen durch geeignete Meta Heuristiken eventuell basierend auf Losungen ahnlicher Aufgaben zu generieren Die Bestimmung von Mt displaystyle M t Partnerwahl oder Elternselektion genannt erfolgt bei den meisten EAs fitnessbasiert und gehort zusammen mit der Auswahl der Individuen zur Bildung der nachsten Generation zu den Selektionsmechanismen des Verfahrens welche der evolutionaren Suche die Richtung geben Es gibt eine Vielzahl von Methoden zur Partnerwahl darunter die einfache fitnessproportionale Selektion die Turnierselektion und die haufiger verwendete rangbasierte Selektion Meist werden die Nachkommen durch Rekombination zweier Eltern aus Mt displaystyle M t mit anschliessender Mutation erzeugt was der geschlechtlichen Reproduktion im biologischen Vorbild entspricht Die asexuelle Reproduktion wurde einer Mutation von Elter Klonen entsprechen Durch mehrfache Ausfuhrung dieser Operatoren konnen je nach Ausgestaltung des EAs auch mehr als nur zwei Nachkommen pro Paarung erzeugt werden Bei der Bewertung wird jedem Nachkommen entsprechend seiner Gute ein Wert der Fitnessfunktion zugewiesen Die Fitness steuert die Reproduktionswahrscheinlichkeit der Individuen und kann zusammen mit der nachfolgend beschriebenen Selektion als die Umsetzung von Darwins naturliche Auslese angesehen werden Die Nachfolgegeneration also die Menge Pt 1 displaystyle P t 1 mit m displaystyle mu Individuen wird fitnessbasiert entweder aus der Menge der m displaystyle mu Eltern in Pt displaystyle P t und der l displaystyle lambda Nachkommen in Mt displaystyle M t sogenannte Plus Strategie oder nur aus der Menge Mt displaystyle M t Komma Strategie ausgewahlt Da bei der Plus Strategie das beste Elternindividuum im Gegensatz zum biologischen Vorbild uberleben kann wird ein EA mit dieser Selektionsform auch als elitar bezeichnet Auf die damit verbundene Problematik wird im Abschnitt Konvergenz eingegangen Als Abbruchkriterien werden haufig die Anzahl durchlaufener Generationen die vergangene Zeit oder die erreichte Losungsqualitat herangezogen Ausserdem kann die Stagnation erfasst werden z B in dem man die Generationen ohne Verbesserung des besten Nachkommen oder ohne Ubernahme eines Nachkommen in die Nachfolgegeneration zahlt BestandteileEvolutionare Algorithmen unterscheiden sich untereinander vor allem in der jeweiligen genetischen Reprasentation der Fitnessfunktion und den genutzten genetischen Operatoren Mutation Rekombination und Selektion Die Rastrigin Funktion ist eine multimodale Funktion da sie viele lokale Extrema aufweist Dies stellt einen Nachteil fur den Rekombinationsoperator dar Mutation und Rekombination sind die Suchoperatoren evolutionarer Algorithmen mit denen der Suchraum erkundet wird Ihre Anwendung auf Losungskandidaten kann keine Verbesserung garantieren allerdings erhalt der Suchprozess durch die Selektion eine Richtung die bei erfolgreicher Konzeption zum globalen Optimum oder zumindest in dessen Nahe fuhrt Wahrend mit dem Mutationsoperator vollig neue Bereiche des Suchraums erschlossen werden konnen ermoglicht die Rekombination vor allem die Zusammenfuhrung erfolgreicher Teillosungen oder Schemata bei den klassischen genetischen Algorithmen Building Block Hypothese Eine erfolgreiche Suche basiert also auf der Kombination beider Suchoperatoren Der Erfolg eines Rekombinationsoperators hangt von der Beschaffenheit der Fitnesslandschaft ab Je mehr lokale Optima die Fitnesslandschaft aufweist desto wahrscheinlicher erzeugt die Rekombination aus zwei Individuen die sich auf benachbarten lokalen Optima befinden einen Nachfahren im Tal dazwischen Mutationen sind von dieser Eigenschaft der Fitnesslandschaft nahezu unabhangig Der Entwurf der verschiedenen Komponenten bestimmt wie sich der evolutionare Algorithmus bei der Optimierung des gegebenen Problems in Bezug auf Konvergenzverhalten benotigte Rechenzeit und die Erschliessung des Problemraums verhalt Insbesondere mussen die genetischen Operatoren sorgfaltig auf die zugrunde liegende Reprasentation abgestimmt sein sodass sowohl die bekannten guten Regionen des Problemraums genutzt als auch die unbekannten Regionen erkundet werden konnen Dabei spielen die Beziehungen zwischen Such und Problemraum eine Rolle Im einfachsten Fall entspricht der Suchraum dem Problemraum direkte Problemreprasentation Theoretische GrundlagenNo free Lunch Theorem Hauptartikel No free Lunch Theoreme Das No free Lunch Theorem der Optimierung besagt dass alle Optimierungsstrategien gleich effektiv sind wenn die Menge aller Optimierungsprobleme betrachtet wird Unter der gleichen Voraussetzung ist auch kein evolutionarer Algorithmus grundsatzlich besser als ein anderer Dies kann nur dann der Fall sein wenn die Menge aller Probleme eingeschrankt wird Genau das wird in der Praxis auch zwangslaufig getan Ein EA muss also Problemwissen ausnutzen z B durch die Wahl einer bestimmten Mutationsstarke Werden also zwei EAs verglichen dann wird diese Einschrankung impliziert Daruber hinaus kann ein EA Problemwissen nutzen indem z B ein Teil der Startpopulation nicht zufallig generiert wird sondern einige Individuen durch Heuristiken oder andere Verfahren erzeugt werden Eine weitere Moglichkeit besteht darin geeignete Heuristiken lokale Suchverfahren oder andere problembezogene Verfahren bei der Erzeugung der Nachkommen zu beteiligen Diese Form der Erweiterung eines EAs ist auch als Memetischer Algorithmus bekannt Beide Erweiterungen spielen bei praktischen Anwendungen eine grosse Rolle da sie den Suchprozess beschleunigen und robuster machen konnen Konvergenz Fur elitare EAs siehe Abschnitt Pseudocode gibt es einen allgemeinen Konvergenzbeweis unter der Voraussetzung dass ein Optimum existiert Ohne Beschrankung der Allgemeinheit wird fur den Beweis von einer Maximumsuche ausgegangen Aus der Eigenschaft elitarer Nachkommensakzeptanz folgt dass pro Generation k mit einer Wahrscheinlichkeit P gt 0 eine Verbesserung der Fitness 𝑭 des jeweils besten Individuums 𝒙 auftreten wird Also 𝑭 𝒙 𝟏 𝑭 𝒙 𝟐 𝑭 𝒙 𝟑 𝑭 𝒙 𝒌 D h die Fitnesswerte stellen eine monoton nicht fallende Zahlenfolge dar die wegen der Existenz des Optimums beschrankt ist Daraus folgt die Konvergenz der Zahlenfolge gegen das Optimum Da der Beweis keinerlei Aussage uber die Konvergenzgeschwindigkeit macht hilft er bei der praktischen Anwendung von EAs wenig Aber er begrundet die Empfehlung elitare EAs zu verwenden Bei Verwendung des ublichen panmiktischen Populationsmodells neigen elitare EAs jedoch starker zur vorzeitigen Konvergenz als nichtelitare Bei einem panmiktischen Populationsmodell ist die Partnerwahl siehe Abschnitt Pseudocode so gestaltet dass jedes Individuum der gesamten Population als Partner in Frage kommt Das generelle Risiko zur vorzeitigen Konvergenz elitarer EAs kann demgegenuber durch geeignete Populationsmodelle deutlich verringert werden Schematheorem Hauptartikel Schematheorem Das Schematheorem von John H Holland wird allgemein als Erklarung des Erfolgs von einem Grundtyp evolutionarer Algorithmen namlich den klassischen genetischen Algorithmen gesehen Es besagt vereinfacht dass sich kurze Bitmuster mit uberdurchschnittlicher Fitness schnell in einer Generation ausbreiten die durch einen genetischen Algorithmus evolviert wird So konnen Aussagen uber den langfristigen Erfolg eines genetischen Algorithmus getroffen werden Uber die praktische Bedeutung des Schematheorems und der damit zusammenhangenden Building Block Hypothese fur die Gestaltung von EAs die nicht auf Bitstrings beruhen herrscht Uneinigkeit Das Buch von Volker Nissen fasst die Kritik und die Auseinandersetzung dazu fundiert zusammen Virtuelle Alphabete Mit der Theorie der virtuellen Alphabete zeigte David E Goldberg 1990 dass durch eine Reprasentation mit reellen Zahlen ein EA der klassische Rekombinationsoperatoren z B uniformes oder n Punkt Crossover nutzt bestimmte Bereiche des Suchraums nicht erreichen kann im Gegensatz zu einer Reprasentation mit binaren Zahlen Daraus ergibt sich dass EA mit reeller Reprasentation arithmetische Operatoren zur Rekombination nutzen mussen z B arithmetisches Mittel oder die intermediare Rekombination Mit geeigneten Operatoren sind reellwertige Reprasentationen entgegen der fruheren Meinung effektiver als binare AnwendungsgebieteDie Bereiche in denen evolutionare Algorithmen praktisch eingesetzt werden sind nahezu unbegrenzt und reichen von Industrie Technik Roboterbahnplanung und Landwirtschaft uber Forschung bis zur Kunst evolutionare Kunst Die Anwendung eines evolutionaren Algorithmus erfordert vom unerfahrenen Anwender ein gewisses Mass an Umdenken da die Herangehensweise an eine Aufgabenstellung mit Hilfe eines Suchalgorithmus anders ist als bei traditionellen exakten Verfahren und eher nicht zum Curriculum von Ingenieuren oder anderen Fachrichtungen gehort Es gibt daher einige Publikationen die den Anfanger als Zielgruppe haben und ihm oder ihr dabei helfen wollen Anfangerfehler zu vermeiden und ein Anwendungsprojekt zum Erfolg zu fuhren Dazu gehort auch die Klarung der grundlegenden Frage wann man einen EA zur Losung einer Aufgabenstellung anwenden soll und wann besser nicht Die Konferenzserie Applications of Evolutionary Computation kann einen Uberblick uber die vielfaltigen Anwendungen geben und dabei unterstutzen Veroffentlichungen zur eigenen Problemstellung zu finden Wirtschaft EA werden zur Verifikation und Optimierung von Prototypen eingesetzt Zum Beispiel werden die Geschwindigkeit von Mikroprozessoren der Stromverbrauch von Mobiltelefonen oder die Wiederverwendbarkeit von Produkten Recycling optimiert Auch bei dem Entwurf von Telekommunikationsnetzen Infrastruktur allgemein oder Sensornetzen In der Finanzwelt werden mit EA Aktienmarkte analysiert spieltheoretische Analysen oder agentenbasierte Simulationen entworfen und Portfolios fur maximalen Gewinn und minimales Risiko optimiert Sogar zur Optimierung von landwirtschaftlichen Betrieben werden sie genutzt um langjahrige Auswirkungen zu testen Managementstrategien zu entwickeln oder praktisch nicht ausfuhrbare Experimente zu simulieren Ein weiteres grosses Anwendungsgebiet ist Scheduling Designoptimierung oder andere Engineering Aufgaben Zum Problemfeld der Schedulingaufgaben gehoren neben den klassischen Produktionsplanungsaufgaben Job Scheduling in Rechnernetzen Stundentafelerstellung oder die Einsatzplanung von Energieerzeugern und Verbrauchern in Smart Grids Forschung Vor allem in der Molekularbiologie wo enorme Datenmengen Big Data anfallen und Zusammenhange nicht ohne Computerunterstutzung erkannt werden konnen werden mit evolutionaren Algorithmen Sequenzanalyse Sequenzalignment die Erstellung phylogenetischer Baume Proteinstrukturvorhersage Suche nach codierenden Bereichen oder die Visualisierung umfangreicher Daten betrieben EA werden benutzt um kunstliche neuronale Netze aufzubauen ein popularer Algorithmus ist NEAT Robert Axelrods Versuch mittels genetischer Algorithmen geeignete Strategien fur das iterierte Gefangenendilemma zu finden gab den Anstoss zur Entwicklung des Konzepts der evolutionaren Spieltheorie Aufgrund ihrer Populationsbasiertheit konnen evolutionare Algorithmen auch in der agentenbasierten Modellierung sozialer oder okonomischer Systeme eingesetzt werden In der Spektroskopie werden genetische Algorithmen genutzt um vieldimensionale Optimierungsprobleme zu losen Hierbei wird ein experimentelles Spektrum zu dessen Beschreibung eine grosse Anzahl an Parametern benotigt werden mit Hilfe evolutionarer Strategien an ein berechnetes Modellspektrum angepasst Als Fitnessfunktion wird oft die Kreuzkorrelation zwischen experimentellem und theoretischem Spektrum angewandt Kunst und Musik Hauptartikel Evolutionare Kunst Mit der Hilfe evolutionarer Algorithmen konnen komplexe Strukturen oder Tonfolgen entworfen werden die auf Menschen asthetisch wirken Dies geschieht teils automatisiert und oft mit menschlicher Interaktion wobei Menschen dem EA die Entscheidung abnehmen was sie als schon empfinden GeschichteGeorge Friedman entwarf 1956 fur seine Masterarbeit an der University of California Los Angeles eine Maschine die mit dem Prinzip der naturlichen Selektion Schaltkreise entwickeln sollte allerdings wurde diese Maschine nie gebaut Auch kunstliches Leben wurde fruh mit EA erforscht Der Italiener 1912 1993 entwickelte 1954 ein Konzept bei dem durch Zahlen reprasentierte Wesen auf einem zweidimensionalen Gitter leben und durch Mutation und Reproduktion zu neuen Generation geformt werden Er zeigte dass sich Strukturen bilden also Strukturen die sich selbst in die nachste Generation kopieren Bezuglich maschinellen Lernens schrieb der britische Informatiker Alan Turing schon 1950 Man muss mit dem Unterrichten einer Maschine herumexperimentieren und schauen wie gut sie lernt Es gibt einen offensichtlichen Zusammenhang zwischen diesem Prozess und Evolution Man darf allerdings hoffen dass dieser Prozess schneller ablauft Alan Turing Computing Machinery and Intelligence Anfang der 1950er schlug der britische Statistiker George Box vor die Produktion in Chemiefabriken zu optimieren indem mit massivem Trial and Error Parameter wie Temperatur oder chemische Zusammensetzungen variiert und die potenziellen Verbesserungen per Hand ausgewertet werden um danach mit den gefundenen Verbesserungen wieder zu variieren Obwohl die Entscheidungstrager zuerst nicht davon begeistert waren an einer laufenden Produktion zu experimentieren wurde das Konzept das Box Evolutionary Operation taufte bis Anfang der 1960er in mehreren Chemiefabriken zur Steigerung der Produktivitat genutzt Viele praktische Probleme ging man in der Folge mit evolutionaren Algorithmen an es bildeten sich vor allem die Evolutionsstrategie in Europa Ingo Rechenberg und Hans Paul Schwefel und der genetische Algorithmus John H Holland in den USA heraus wobei Letzterer der bis heute popularste Ansatz ist und der Begriff genetischer Algorithmus oft pauschalisierend fur alle EA genutzt wird Dies hat aber keine praktische Bedeutung fur die Auswahl eines konkreten Konzeptes Spatestens mit der rasant steigenden Verfugbarkeit von Rechenleistung fanden sich evolutionare Algorithmen in allen erdenklichen Bereichen wieder wo sie zur Optimierung und Suche eingesetzt wurden Insbesondere auch in der Kunst und Musik sowie in der Erforschung von kunstlichem Leben Avida Heute sind nicht nur die ursprunglichen Konzepte stark miteinander verwachsen sondern auch viele andere Ansatze und Mischkonzepte entstanden EA stellen wichtige Werkzeuge fur Industrie und Forschung dar Typen evolutionarer AlgorithmenDurch die Problemstellung des Optimierungsproblems sind eine Zielfunktion sowie ein Problemraum der potenzielle Losungen enthalt gegeben Der Unterschied zwischen dem Problemraum der Anwendung und dem Suchraum des Algorithmus besteht darin dass ein EA eine Losung anders darstellen kann um sie besser zu verarbeiten und spater wieder in ursprunglicher Form auszugeben Genotyp Phanotyp Mapping kunstliche Embryogenese Dies bietet sich vor allem dann an wenn die Darstellung einer moglichen Losung deutlich vereinfacht werden kann und nicht in ihrer Komplexitat im Speicher verarbeitet werden muss Verschiedene evolutionare Algorithmen unterscheiden sich vornehmlich in den folgenden Eigenschaften vergleiche auch das einleitende Ablaufschema Suchraum z B Binarzahlen reelle Zahlen Baumstrukturen Suchoperatoren z B Mutation und Rekombination Fitnesszuweisung und Selektion auf Basis der Zielfunktion Art und Weise in der vorherige Generationen in die Selektion mit einbezogen werden Elterngeneration ein ausschliessen Beziehung zwischen dem Suchraum und dem Problemraum Genotyp Phanotyp Mapping Klassische Varianten Die vier historisch zuerst entstandenen Verfahren sind heute in der Form nicht mehr zu unterscheiden insbesondere werden oft die Namen einzelner Typen als Synonym fur das gesamte Gebiet der evolutionaren Algorithmen genutzt Dazu kommt dass es heute eine Fulle weiterer Verfahren und unuberschaubar viele Kombinationen gibt fur die keine einheitliche Benennung existiert In der folgenden Darstellung werden die klassischen Konzepte in der historischen Form beschrieben Ein guter und theoretisch fundierter Vergleich zwischen den klassischen bit codierten und den reell codierten GAs der ES und der EP kann z B bei Whitley gefunden werden Genetische Algorithmen GA Auspragung des Genotyps in einer Zelle Genetische Algorithmen wurden vor allem durch die Arbeiten John H Hollands beruhmt Sie nutzen binare Problemreprasentation und benotigen deshalb meist ein Genotyp Phanotyp Mapping Das bedeutet dass binar reprasentierte Losungskandidaten zuerst umgewandelt werden mussen um mit der Fitnessfunktion evaluiert werden zu konnen Wegen dieser Eigenschaft sind sie dem biologischen Vorbild von allen evolutionaren Algorithmen am nachsten Das Erbgut naturlicher Organismen ist ahnlich binaren Zahlen in vier Nukleinsauren codiert Auf dieser Basis geschehen naturliche Mutation und Rekombination Das Erscheinungsbild Phanotyp ist aber nicht das Erbgut selbst sondern entsteht aus diesem durch einen vielschrittigen Prozess Das Prinzip Genotyp Phanotyp Mapping verlauft in vereinfachter Form analog Die binare Reprasentation eignet sich zur schnellen Verarbeitung in Computern Im Laufe der Forschung im Gebiet der EA hat sich dies aber nicht als klarer Vorteil gegenuber anderen Verfahren und Problemreprasentationen erwiesen Die Auswahl der sich fortpflanzenden Individuen erfolgt bei GA mit fitnessproportionaler Selektion die Fortpflanzung selbst durch n Punkt Crossover Auch die Rekombination von mehr als zwei Elterngenomen ist moglich und fuhrt in manchen Fallen zu besseren Ergebnissen Die Mutation bei GA kann man sich anschaulich gut vorstellen da die Genome aus einzelnen Bits bestehen die invertiert dupliziert oder geloscht werden konnen auch ganze Sequenzen Eine theoretische Untersuchung des Konvergenzverhaltens Genetischer Algorithmen liefert das Schematheorem von John H Holland das allerdings umstritten ist Evolutionsstrategien ES Evolutionsstrategien nutzen direkte Problemreprasentationen insbesondere reelle Zahlen Problem und Suchraum sind also identisch Ihre Besonderheit ist die Selbstadaption der Mutationsschrittweiten und die damit verbundene Koevolution Die ES wird anhand der Standardform kurz vorgestellt wobei darauf hingewiesen wird dass es viele Varianten gibt Das Chromosom enthalt neben den n displaystyle n Entscheidungsvariablen noch n displaystyle n Mutationsschrittweiten sj displaystyle sigma j wobei gilt 1 j n n displaystyle 1 leq j leq n leq n Haufig wird eine Mutationsschrittweite fur alle Entscheidungsvariablen genutzt oder jede hat ihre eigene Schrittweite Die Partnerwahl zur Erzeugung von l displaystyle lambda Nachkommen erfolgt zufallsbedingt also unabhangig von der Fitness Zuerst werden pro Paarung neue Mutationsschrittweiten durch intermediare Rekombination der elterlichen sj displaystyle sigma j mit anschliessender Mutation gebildet Als Nachstes erfolgt eine diskrete Rekombination der Entscheidungsvariablen gefolgt von Mutationen mit den neuen Mutationsschrittweiten Dadurch erfolgt eine evolutionare Suche auf zwei Ebenen Zum einen auf der Problemebene selbst und zum anderen auf der Ebene der Mutationsschrittweiten So kann gewahrleistet werden dass die ES in immer feineren Schritten ihr Ziel sucht Es besteht aber auch die Gefahr grossere unzulassige Gebiete im Suchraum nur schlecht uberspringen zu konnen Die ES kennt zwei Varianten der Bestenselektion zur Bildung der nachsten Elternpopulation Bei der m l displaystyle mu lambda ES finden nur die m displaystyle mu besten Nachkommen Verwendung wahrend bei der elitaren m l displaystyle mu lambda ES die m displaystyle mu besten aus Eltern und Kindern ausgewahlt werden Back und Schwefel empfehlen dass der Wert von l displaystyle lambda das siebenfache der Populationsgrosse m displaystyle mu betragen soll wobei m displaystyle mu wegen des starken Selektionsdrucks nicht zu klein gewahlt werden darf Geeignete Werte fur m displaystyle mu sind anwendungsabhangig und mussen experimentell bestimmt werden Fur ES Varianten ohne die geschilderte selbstadaptive Schrittweitensteuerung empfiehlt Rechenbergs 1 5 Erfolgsregel dass der Quotient aus den erfolgreichen Mutationen also Mutationen die eine Verbesserung der Fitness bewirken zu allen Mutationen etwa ein Funftel betragen sollte Ist der Quotient grosser so sollte die Varianz der Mutationen erhoht werden bei einem kleineren Quotienten sollte sie verringert werden Genetische Programmierung GP Darstellung einer Funktion als Teilbaume konnen umgehangt geandert oder geloscht Mutation und komplette Baume kombiniert Rekombination werden Das Ziel der genetischen Programmierung ist die Erzeugung von Strukturen die eine bestimmte Eingabe in eine festgelegte Ausgabe umwandeln sollen Computerprogramme Schaltkreise oder mathematische Funktionen Die Losungskandidaten werden durch Baume reprasentiert Beim Problem der symbolischen Regression wird eine bestimmte Funktion X Y displaystyle X to Y gesucht z B ein Polynom wie 4x4 3x2 17 displaystyle 4x 4 3x 2 17 Gegeben sind Paare mit je einem Wert aus X displaystyle X und dem zugehorigen Wert aus Y displaystyle Y Es ist also bekannt wie die gesuchte Funktion Werte abbildet Mit GP werden Baumstrukturen evolviert die die symbolische Funktion meist exakt nachbilden Eine grundlegende Arbeit zur Genetischen Programmierung verfasste Er erkannte auch die Moglichkeit symbolische Regression mit GP zu losen In der Erforschung von GP wurde dieses Problem oft als Benchmarktest genutzt Evolutionare Programmierung EP Ahnlich wie bei der GP werden Strukturen wie Computerprogramme gesucht die aber nicht durch Baume sondern durch endliche Automaten reprasentiert werden Nur die numerischen Eigenschaften der Automaten werden variiert ihre Struktur ist fest Gesucht wird ausschliesslich uber Mutation Rekombination findet nicht statt Einzelne Individuen werden sozusagen als unterschiedliche Spezies betrachtet Evolutionare Programmierung wurde nach ihrer Entstehung wenig weiterentwickelt EAs im Vergleich zu Monte Carlo VerfahrenBeide Verfahrensklassen haben gemeinsam dass ihre einzelnen Suchschritte zufallsbestimmt sind Der wesentliche Unterschied besteht aber darin dass die EAs wie viele andere Metaheuristiken auch aus den vergangenen Suchschritten lernen und diese Erfahrung in die Ausfuhrung der nachsten Suchschritte in einer verfahrensspezifischen Form einfliesst Dies geschieht bei den EAs wie in Abschnitt Pseudocode dargestellt erstens durch die fitnessbasierten Selektionsoperatoren zur Partnerwahl und zur Bildung der nachsten Generation Und zweitens durch der Art der Suchschritte Beim EA gehen sie von einer aktuellen Losung aus und verandern diese oder sie mischen die Information zweier Losungen Im Gegensatz dazu besteht beim Auswurfeln neuer Losungen bei den Monte Carlo Verfahren in der Regel kein Zusammenhang zu bereits existierenden Losungen Wenn der Suchraum aufgabenbedingt so aussieht dass es nichts zu lernen gibt sind Monte Carlo Verfahren ein probates Mittel da sie keinerlei Overhead enthalten der aus der bisherigen Suche geeignete Schlusse ziehen soll Ein Beispiel dafur ist eine Fitnesslandschaft die eine flache Hyper Ebene mit einer einsamen schmalen Spitze darstellt Solange die Spitze nicht gefunden wurde haben alle betrachteten Losungen die gleiche Fitness und es fehlt jeder Hinweis ob und wo es bessere Losungen geben konnte Siehe auchEvolutionar stabile Strategie CMA ES Memetischer Algorithmus Naturanaloge Optimierungsverfahren Survival of the Fittest BionikLiteraturEvolutionare Algorithmen allgemein Frank Klawonn Rudolf Kruse Evolutionare Algorithmen genetische Algorithmen Strategien und Optimierungsverfahren Beispielanwendungen Vieweg Wiesbaden 2004 ISBN 3 528 05570 7 Einfuhrung in evolutionare Algorithmen Optimierung nach dem Vorbild der Evolution Vieweg Braunschweig 1997 ISBN 3 528 05499 9 doi 10 1007 978 3 322 93861 9 Evolutionare Algorithmen Verfahren Operatoren und Hinweise fur die Praxis Springer Berlin 1999 ISBN 3 540 66413 0 Evolutionare Algorithmen Springer Vieweg Wiesbaden 2015 ISBN 978 3 658 09957 2 doi 10 1007 978 3 658 09958 9 Jim E Smith Introduction to Evolutionary Computing Springer Berlin Heidelberg 2003 doi 10 1007 978 3 662 44874 8 Evolutionary Computation A Unified Approach MIT Press Cambridge MA 2006 ISBN 0 262 04194 4 Thomas Back David Fogel Zbigniew Michalewicz Hrsg Evolutionary Computation 1 Basic Algorithms and Operators CRC Press Bristol 1999 ISBN 978 0 7503 0664 5 Thomas Back David Fogel Zbigniew Michalewicz Hrsg Evolutionary Computation 2 Advanced Algorithms and Operators CRC Press Bristol 2000 ISBN 978 0 7503 0665 2 doi 10 1201 9781420034349 VDI VDE Richtlinie 3550 Blatt 3 Evolutionare Algorithmen Begriffe und Definitionen Weissdruck in Deutsch und Englisch Beuth Verlag Berlin 2003 VDI VDE Richtlinie 6224 Blatt 1 Bionische Optimierung Evolutionare Algorithmen in der Anwendung Weissdruck in Deutsch und Englisch Beuth Verlag Berlin 2012 Genetische Algorithmen David E Goldberg Genetic Algorithms in Search Optimization and Machine Learning Addison Wesley 1989 ISBN 0 201 15767 5 Genetische Algorithmen Teubner Stuttgart 1994 doi 10 1007 978 3 322 99633 6 An Introduction to Genetic Algorithms MIT Press Cambridge MA 1996 ISBN 978 0 262 63185 3Evolutionsstrategien Ingo Rechenberg Cybernetic Solution Path of an Experimental Problem 1965 In D B Fogel Hrsg Evolutionary Computation The Fossil Record IEEE Press 1998 ISBN 0 7803 3481 7 Ingo Rechenberg Evolutionsstrategie Optimierung technischer Systeme nach Prinzipien der biologischen Evolution Frommann Holzboog 1973 ISBN 3 7728 0373 3 Diss von 1970 Ingo Rechenberg Evolutionsstrategie 94 Frommann Holzboog 1994 ISBN 3 7728 1642 8 Hans Paul Schwefel Evolution and Optimum Seeking Wiley amp Sons New York 1995 ISBN 0 471 57148 2 Hans Georg Beyer The Theory of Evolution Strategies Springer Berlin Heidelberg New York 1998 ISBN 3 540 67297 4 et al Vergleich zwischen klassischen und verschachtelten Evolutionsstrategien am Beispiel einer nichtlinearen Regression an Oberflachenspannungen in R Interner Bericht CI 66 99 des Sonderforschungsbereichs 531 Design und Management komplexer technischer Prozesse und Systeme mit Methoden der Computational Intelligence Dortmund 1999 PDFGenetische Programmierung Genetic Programming On the Programming of Computers by Means of Natural Selection The MIT Press 1992 ISBN 0 262 11170 5 Peter Nordin Robert E Keller Frank D Francone Genetic Programming An Introduction Morgan Kaufmann San Francisco CA USA 1997 ISBN 3 920993 58 6 Foundations of Genetic Programming Springer 2002 ISBN 3 540 42451 2 Riccardo Poli William B Langdon A Field Guide to Genetic Programming Lulu com 2008 Evolutionare Programmierung Artificial Intelligence through Simulated Evolution John Wiley 1966 doi 10 1109 9780470544600 ch7 Blondie24 Playing at the Edge of AI Morgan Kaufmann Publishers San Francisco CA 2002 ISBN 1 55860 783 8 WeblinksCommons Evolutionarer Algorithmus Sammlung von Bildern Videos und Audiodateien Evolutionare Algorithmen allgemein Thomas Weise Global Optimization Algorithms Theory and Application 2009 PDF 13 14 MB EvA2 Java umfassendes Framework fur EA und heuristische Optimierung mit GUI Genetische Algorithmen Genetische Algorithmen Wikiversity Kurs JGAP Freies Java Framework zur Implementierung genetischer Algorithmen unterstutzt auch die Genetische Programmierung sehr viele Unit Tests zur Qualitatssicherung umfangreiche Javadoc Dokumentation EvoJ Kleines aber effektives und verbreitbares Java Framework fur genetischer Algorithmen Jenetics in Java 11 geschriebener genetischer Algorithmus und nutzt die Java Stream API zur Evaluierung der einzelnen Generationen HeuristicLab Freies NET Environment fur heuristische Optimierung genetische Algorithmen Evolutionsstrategien Nachbarschaftssuche etc Boxcar2D ein genetischer Algorithmus der ein 2 dimensionales Fahrzeug konstruiert um ein Gelande zu uberwindenHybrid Algorithmen Geneva Grid enabled evolutionary algorithms eine freie Bibliothek Affero GPLv3 zur Optimierung mit Evolutionsstrategien genetischen Algorithmen und Schwarmalgorithmen sowie simulierte Abkuhlung und Parameter Scans Unterstutzt Problembeschreibungen mit gemischten Parametersatzen sowie die Optimierung in Clustern sowie Grid und Cloud EinzelnachweiseJ D Lohn D S Linden G S Hornby W F Kraus Evolutionary design of an X band antenna for NASA s Space Technology 5 mission In Antennas and Propagation Society International Symposium Vol 3 IEEE 20 25 June 2004 S 2313 2316 Peter Bentley David Corne Creative Evolutionary Systems Morgan Kaufmann San Francisco CA 2001 S 10 ISBN 978 1 55860 673 9 David B Fogel Evolutionary Computation Toward a New Philosophy of Machine Intelligence Wiley New York S 59 2005 ISBN 978 0 471 66951 7 Cecilia Di Chio et al Applications of Evolutionary Computation EvoApplications 2012 LNCS 7248 Springer Berlin Heidelberg 2012 doi 10 1007 978 3 642 29178 4 Keshav P Dahal Kay Chen Tan Peter I Cowling Hrsg Evolutionary Scheduling SCI Nr 49 Springer Berlin Heidelberg 2007 ISBN 978 3 540 48582 7 doi 10 1007 978 3 540 48584 1 Ian C Parmee Strategies for the Integration of Evolutionary Adaptive Search with the Engineering Design Process In Dipankar Dasgupta Zbigniew Michalewicz Hrsg Evolutionary Algorithms in Engineering Applications Springer Berlin Heidelberg Berlin Heidelberg 1997 ISBN 3 642 08282 3 S 453 477 doi 10 1007 978 3 662 03423 1 25 Christian Blume Optimized Collision Free Robot Move Statement Generation by the Evolutionary Software GLEAM In Real World Applications of Evolutionary Computing LNCS 1803 Springer Berlin Heidelberg 2000 ISBN 3 540 67353 9 S 330 341 doi 10 1007 3 540 45561 2 32 VDI VDE Richtlinie 3550 Blatt 3 Evolutionare Algorithmen Begriffe und Definitionen Weissdruck in Deutsch und Englisch Beuth Verlag Berlin 2003 Karsten Weicker Evolutionare Algorithmen S 25 Springer Vieweg Wiesbaden 2015 doi 10 1007 978 3 658 09958 9 Volker Nissen Evolutionare Algorithmen Deutscher Universitatsverlag Wiesbaden 1994 ISBN 3 8244 0217 3 S 27 Abb 3 4 doi 10 1007 978 3 322 83430 0 A E Eiben J E Smith Introduction to Evolutionary Computing Natural Computing Series 2 Auflage Springer Berlin Heidelberg 2015 ISBN 978 3 662 44873 1 What Is an Evolutionary Algorithm S 25 28 S 26 Fig 3 1 doi 10 1007 978 3 662 44874 8 Natalio Krasnogor Studies on the Theory and Design Space of Memetic Algorithms Dissertation University of the West of England Bristol UK 2002 S 23 englisch bl uk Heikki Maaranen Kaisa Miettinen Antti Penttinen On initial populations of a genetic algorithm for continuous optimization problems In Journal of Global Optimization Band 37 Nr 3 23 Januar 2007 ISSN 0925 5001 S 405 436 doi 10 1007 s10898 006 9056 6 researchgate net abgerufen am 1 Oktober 2023 Borhan Kazimipour Xiaodong Li A K Qin A review of population initialization techniques for evolutionary algorithms IEEE 2014 ISBN 978 1 4799 1488 3 S 2585 2592 doi 10 1109 CEC 2014 6900618 ieee org abgerufen am 1 Oktober 2023 Wilfried Jakob HyGLEAM An Approach to Generally Applicable Hybridization of Evolutionary Algorithms In Parallel Problem Solving from Nature PPSN VII Band 2439 Springer Berlin Heidelberg 2002 ISBN 3 540 44139 5 S 527 536 doi 10 1007 3 540 45712 7 51 researchgate net abgerufen am 1 Oktober 2023 Muhanad Tahrir Younis Shengxiang Yang Benjamin Passow Meta Heuristically Seeded Genetic Algorithm for Independent Job Scheduling in Grid Computing In Applications of Evolutionary Computation Band 10199 Springer International Publishing Cham 2017 ISBN 978 3 319 55848 6 S 177 189 doi 10 1007 978 3 319 55849 3 12 Tobias Friedrich Markus Wagner Seeding the initial population of multi objective evolutionary algorithms A computational study In Applied Soft Computing Band 33 August 2015 S 223 230 doi 10 1016 j asoc 2015 04 043 elsevier com abgerufen am 1 Oktober 2023 Musrrat Ali Millie Pant Ajith Abraham Unconventional initialization methods for differential evolution In Applied Mathematics and Computation Band 219 Nr 9 Januar 2013 S 4474 4494 doi 10 1016 j amc 2012 10 053 elsevier com abgerufen am 1 Oktober 2023 Borhan Kazimipour Xiaodong Li A K Qin Initialization methods for large scale global optimization In IEEE Congress on Evolutionary Computation 2013 S 2750 2757 doi 10 1109 CEC 2013 6557902 ieee org A E Eiben J E Smith Introduction to Evolutionary Computing Natural Computing Series Springer Berlin Heidelberg 2015 ISBN 978 3 662 44873 1 Parent Selection S 80 87 doi 10 1007 978 3 662 44874 8 John H Holland Adaptation in Natural and Artificial Systems An Introductory Analysis with Applications to Biology Control and Artificial Intelligence PhD thesis University of Michigan Press Ann Arbor 1975 ISBN 0 472 08460 7 A E Eiben J E Smith Introduction to Evolutionary Computing Natural Computing Series Springer Berlin Heidelberg 2015 ISBN 978 3 662 44873 1 Tournament Selection S 84 86 doi 10 1007 978 3 662 44874 8 James E Baker Adaptive Selection Methods for Genetic Algorithms In John J Grefenstette Hrsg Conf Proc of the 1st Int Conf on Genetic Algorithms and Their Applications ICGA L Erlbaum Associates Hillsdale NJ 1985 ISBN 0 8058 0426 9 S 101 111 Darrell Whitley The GENITOR Algorithm and Selective Pressure Why Rank Based Allocation of Reproductive Trials is Best In J David Schaffer Hrsg Conf Proc of the 3rd Int Conf on Genetic Algorithms and Their Applications ICGA Morgan Kaufmann Publishers San Francisco CA 1989 ISBN 1 55860 066 3 S 116 121 A E Eiben J E Smith Introduction to Evolutionary Computing Natural Computing Series Springer Berlin Heidelberg 2015 ISBN 978 3 662 44873 1 S 19 20 doi 10 1007 978 3 662 44874 8 Lawrence J Fogel Intelligence through simulated evolution forty years of evolutionary programming Wiley series on intelligent systems Wiley New York NY Weinheim 1999 ISBN 0 471 33250 X Thomas Back Hans Paul Schwefel An Overview of Evolutionary Algorithms for Parameter Optimization In Evolutionary Computation Band 1 Nr 1 Marz 1993 ISSN 1063 6560 S 1 23 S 5 doi 10 1162 evco 1993 1 1 1 mit edu abgerufen am 6 Oktober 2023 Christian Blume Wilfried Jakob GLEAM General Learning Evolutionary Algorithm and Method ein Evolutionarer Algorithmus und seine Anwendungen KIT Scientific Publishing Karlsruhe 2009 S 14 doi 10 5445 ksp 1000013553 kit edu abgerufen am 6 Oktober 2023 Charles Darwin The Origin of Species by Means of Natural Selection 6 Auflage John Murray London 1872 englisch org uk A E Eiben J E Smith Introduction to Evolutionary Computing Natural Computing Series Springer Berlin Heidelberg 2015 ISBN 978 3 662 44873 1 Parent Selection Survivor Selection S 80 90 doi 10 1007 978 3 662 44874 8 Hans Paul Schwefel Numerical optimization of computer models Wiley Chichester 1981 ISBN 0 471 09988 0 Karsten Weicker Evolutionare Algorithmen Springer Fachmedien Wiesbaden 2015 ISBN 978 3 658 09957 2 Varianten der Umweltselektion S 68 71 Definition 3 12 S 69 doi 10 1007 978 3 658 09958 9 Volker Nissen Evolutionare Algorithmen Deutscher Universitatsverlag Wiesbaden 1994 ISBN 3 8244 0217 3 S 26 doi 10 1007 978 3 322 83430 0 Christian Blume Wilfried Jakob GLEAM General Learning Evolutionary Algorithm and Method ein evolutionarer Algorithmus und seine Anwendungen Schriftenreihe des Instituts fur Angewandte Informatik Nr 32 KIT Scientific Publishing Karlsruhe 2009 ISBN 978 3 86644 436 2 Stagnationsorientierte Abbruchkriterien S 51 doi 10 5445 KSP 1000013553 Mitsuo Gen Runwei Cheng Genetic Algorithms and Engineering Optimization Wiley New York 2000 S 8 ISBN 978 0 471 31531 5 doi 10 1002 9780470172261 William M Spears The Role of Mutation and Recombination in Evolutionary Algorithms Springer Berlin Heidelberg 2000 S 225f doi 10 1007 978 3 662 04199 4 Bill Worzel Terence Soule Rick Riolo Genetic Programming Theory and Practice VI Springer Berlin Heidelberg 2009 S 62 doi 10 1007 978 0 387 87623 8 Oscar Cordon Francisco Herrera Frank Hoffmann Luis Magdalena Genetic Fuzzy Systems Evolutionary Tuning and Learning of Fuzzy Knowledge Bases World Scientific Publishing Singapore 2002 S 95 doi 10 1142 4177 Ralf Mikut Frank Hendrich Produktionsreihenfolgeplanung in Ringwalzwerken mit wissensbasierten und evolutionaren Methoden In Automatisierungstechnik Band 46 Nr 1 Januar 1998 ISSN 2196 677X S 15 21 doi 10 1524 auto 1998 46 1 15 Ferrante Neri Carlos Cotta Pablo Moscato Eds Handbook of Memetic Algorithms Studies in Computational Intelligence Nr 379 Springer Berlin Heidelberg 2012 ISBN 978 3 642 26942 4 doi 10 1007 978 3 642 23247 3 Martina Gorges Schleuter A comparative study of global and local selection in evolution strategies In Parallel Problem Solving from Nature PPSN V Band 1498 Springer Berlin Heidelberg Berlin Heidelberg 1998 ISBN 3 540 65078 4 S 367 377 doi 10 1007 bfb0056879 Bernabe Dorronsoro Enrique Alba Cellular Genetic Algorithms Operations Research Computer Science Interfaces Series Band 42 Springer US Boston MA 2008 ISBN 978 0 387 77609 5 doi 10 1007 978 0 387 77610 1 Darrell Whitley A Genetic Algorithm Tutorial In Statistics and Computing Band 4 Nr 2 Juni 1994 ISSN 0960 3174 Criticism of the schema theorem S 77 doi 10 1007 BF00175354 A E Eiben J E Smith Introduction to Evolutionary Computing Natural Computing Series 2 Auflage Springer Berlin Heidelberg 2015 ISBN 978 3 662 44873 1 Criticisms and Recent Extensions of the Schema Theorem S 236 237 doi 10 1007 978 3 662 44874 8 Volker Nissen Einfuhrung in evolutionare Algorithmen Optimierung nach dem Vorbild der Evolution Vieweg Braunschweig 1997 ISBN 3 528 05499 9 Das Schema Theorem und seine Kritiker S 85 92 doi 10 1007 978 3 322 93861 9 J Stender E Hillebrand J Kingdon Genetic Algorithms in Optimisation Simulation and Modelling IOS Press Amsterdam 1994 S 70 ISBN 978 90 5199 180 2 Zbigniew Michalewicz Genetic Algorithms Data Structures Evolution Programs Third revised and Extended edition Auflage Springer Berlin Heidelberg 1996 ISBN 3 662 03315 1 International Conference on the Applications of Evolutionary Computation Die Konferenz ist Teil der Evo Serie Die Conference Proceedings erscheinen im Springer Verlag https link springer com conference evoapplications abgerufen am 8 Februar 2022 englisch Hitoshi Iba Nasimul Noman New Frontier in Evolutionary Algorithms Theory and Applications IMPERIAL COLLEGE PRESS 2011 ISBN 978 1 84816 681 3 doi 10 1142 p769 Kaisa Miettinen Pekka Neittaanmaki M M Makela Jacques Periaux Hrsg Evolutionary Algorithms in Engineering and Computer Science Recent Advances in Genetic Algorithms Evolution Strategies Evolutionary Programming Genetic Programming and Industrial Applications Wiley Chichester Weinheim 1999 ISBN 978 0 471 99902 7 wiley com Ernesto Sanchez Giovanni Squillero Alberto Tonda Industrial Applications of Evolutionary Algorithms Intelligent Systems Reference Library 34 Springer Berlin Heidelberg 2012 ISBN 978 3 642 27466 4 doi 10 1007 978 3 642 27467 1 Dipankar Dasgupta Zbigniew Michalewicz Hrsg Evolutionary Algorithms in Engineering Applications Springer Berlin Heidelberg 1997 ISBN 3 642 08282 3 doi 10 1007 978 3 662 03423 1 Adam Slowik Halina Kwasnicka Evolutionary algorithms and their applications to engineering problems In Neural Computing and Applications Band 32 Nr 16 August 2020 ISSN 0941 0643 S 12363 12379 doi 10 1007 s00521 020 04832 8 Wilfried Jakob Martina Gorges Schleuter Christian Blume Application of Genetic Algorithms to Task Planning and Learning In Rheinhard Manner Bernard Manderick Hrsg Parallel Problem Solving from Nature 2 PPSN II North Holland Amsterdam 1992 ISBN 0 444 89730 5 S 291 300 Christian Blume Optimized Collision Free Robot Move Statement Generation by the Evolutionary Software GLEAM In S Cagnoni Hrsg Real World Applications of Evolutionary Computing LNCS 1803 Springer Berlin Heidelberg 2000 ISBN 3 540 67353 9 S 330 341 doi 10 1007 3 540 45561 2 32 Nantiwat Pholdee Sujin Bureerat Multiobjective Trajectory Planning of a 6D Robot based on Multiobjective Meta Heuristic Search ACM 2018 ISBN 978 1 4503 6553 6 S 352 356 doi 10 1145 3301326 3301356 acm org abgerufen am 15 September 2024 David G Mayer Evolutionary Algorithms and Agricultural Systems Springer US Boston MA 2002 ISBN 1 4613 5693 8 doi 10 1007 978 1 4615 1717 7 Gary Fogel David Corne Evolutionary Computation in Bioinformatics Elsevier 2003 ISBN 1 55860 797 8 doi 10 1016 b978 1 55860 797 2 x5000 8 elsevier com abgerufen am 25 Dezember 2022 Wilfried Jakob Applying Evolutionary Algorithms Successfully A Guide Gained from Real world Applications KIT Scientific Working Papers Nr 170 KIT Scientific Publishing 2021 ISSN 2194 1629 doi 10 5445 IR 1000135763 arxiv 2107 11300 englisch kit edu Karsten Weicker Evolutionare Algorithmen Springer Fachmedien Wiesbaden Wiesbaden 2015 ISBN 978 3 658 09957 2 doi 10 1007 978 3 658 09958 9 Hartmut Pohlheim Evolutionare Algorithmen Verfahren Operatoren und Hinweise fur die Praxis VDI Buch Springer Berlin Heidelberg 2000 ISBN 3 642 63052 9 doi 10 1007 978 3 642 57137 4 A E Eiben J E Smith Introduction to Evolutionary Computing Natural Computing Series 2 Auflage Springer Berlin Heidelberg 2015 ISBN 978 3 662 44873 1 Working with Evolutionary Algorithms S 147 163 doi 10 1007 978 3 662 44874 8 Ernesto Sanchez Giovanni Squillero Alberto Tonda Industrial Applications of Evolutionary Algorithms Springer Berlin Heidelberg 2012 doi 10 1007 978 3 642 27467 1 Shu Heng Chen Evolutionary Computation in Economics and Finance Physica Heidelberg 2002 S 6 doi 10 1007 978 3 7908 1784 3 Claus Aranha Hitoshi Iba Application of a Memetic Algorithm to the Portfolio Optimization Problem In Wayne Wobcke Mengjie Zhang Hrsg Advances in Artificial Intelligence AI 2008 LNCS 5360 Springer Berlin Heidelberg 2008 doi 10 1007 978 3 540 89378 3 52 David G Mayer Evolutionary Algorithms and Agricultural Systems Springer Boston MA 2002 S 2 doi 10 1007 978 1 4615 1717 7 Kalyanmoy Deb GeneAS A Robust Optimal Design Technique for Mechanical Component Design In Dipankar Dasgupta Zbigniew Michalewicz Hrsg Evolutionary Algorithms in Engineering Applications Springer Berlin Heidelberg Berlin Heidelberg 1997 ISBN 3 642 08282 3 S 497 514 doi 10 1007 978 3 662 03423 1 27 Mark P Kleeman Gary B Lamont Scheduling of Flow Shop Job Shop and Combined Scheduling Problems using MOEAs with Fixed and Variable Length Chromosomes In Keshav P Dahal Kay Chen Tan Peter I Cowling Hrsg Evolutionary Scheduling Studies in Computational Intelligence Band 49 Springer Berlin Heidelberg 2007 ISBN 978 3 540 48582 7 S 49 99 doi 10 1007 978 3 540 48584 1 Kazi Shah Nawaz Ripon Chi Ho Tsang Sam Kwong An Evolutionary Approach for Solving the Multi Objective Job Shop Scheduling Problem In Keshav P Dahal Kay Chen Tan Peter I Cowling Hrsg Evolutionary Scheduling Studies in Computational Intelligence Band 49 Springer Berlin Heidelberg 2007 ISBN 978 3 540 48582 7 S 165 195 doi 10 1007 978 3 540 48584 1 Marek Mika Grzegorz Waligora Jan Weglarz Modelling and solving grid resource allocation problem with network resources for workflow applications In Journal of Scheduling Band 14 Nr 3 Juni 2011 ISSN 1094 6136 S 291 306 doi 10 1007 s10951 009 0158 0 springer com abgerufen am 15 September 2024 Wilfried Jakob Sylvia Strack Alexander Quinte Gunther Bengel Karl Uwe Stucky Fast Rescheduling of Multiple Workflows to Constrained Heterogeneous Resources Using Multi Criteria Memetic Computing In Algorithms Band 6 Nr 2 22 April 2013 ISSN 1999 4893 S 245 277 doi 10 3390 a6020245 mdpi com abgerufen am 8 Februar 2022 Alberto Colorni Marco Dorigo Vittorio Maniezzo Genetic Algorithms A New Approach to the Timetable Problem In M Akgul H W Hamacher S Tufekci Hrsg Combinatorial Optimization NATO ASI Series Series F Computer and Systems Sciences Nr 82 Springer Berlin Heidelberg 1992 ISBN 3 642 77491 1 S 235 239 doi 10 1007 978 3 642 77489 8 14 B Paechter A Cumming H Luchian The use of local search suggestion lists for improving the solution of timetable problems with evolutionary algorithms In Terence C Fogarty Hrsg Evolutionary computing AISB Workshop Brighton U K selected papers Springer Berlin Heidelberg 1996 ISBN 3 540 61749 3 Dipankar Dasgupta Optimal Scheduling of Thermal Power Generation Using Evolutionary Algorithms In Dipankar Dasgupta Zbigniew Michalewicz Hrsg Evolutionary Algorithms in Engineering Applications Springer Berlin Heidelberg 1997 ISBN 3 642 08282 3 S 317 328 doi 10 1007 978 3 662 03423 1 18 Gary Fogel David Corne Evolutionary Computation in Bioinformatics Morgan Kaufmann 2002 ISBN 978 1 55860 797 2 doi 10 1016 B978 1 55860 797 2 X5000 8 Robert Axelrod Die Evolution der Kooperation Oldenbourg Munchen 1987 7 Auflage 2014 ISBN 978 3 486 59172 9 doi 10 1524 9783486851748 W Leo Meerts Michael Schmitt Application of genetic algorithms in automated assignments of high resolution spectra In International Reviews in Physical Chemistry Band 25 Nr 3 1 Juli 2006 ISSN 0144 235X S 353 406 doi 10 1080 01442350600785490 A M Turing Computing machinery and intelligence In Mind 59 S 433 460 1950 loebner net Memento vom 2 Juli 2008 im Internet Archive Ingo Rechenberg Evolutionsstrategie Optimierung technischer Systeme nach Prinzipien der biologischen Evolution PhD thesis Frommann Holzboog 1973 ISBN 3 7728 0373 3 Hans Paul Schwefel Evolutionsstrategie und numerische Optimierung Dissertation Technische Universitat Berlin 1975 Hans Paul Schwefel Evolution and Optimum Seeking Sixth generation computer technology series John Wiley amp Sons New York 1995 ISBN 0 471 57148 2 researchgate net Darrell Whitley An overview of evolutionary algorithms practical issues and common pitfalls In Information and Software Technology Band 43 Nr 14 Dezember 2001 S 817 831 doi 10 1016 S0950 5849 01 00188 4 elsevier com abgerufen am 8 Februar 2022 Lukas Sekanina Evolvable Components From Theory to Hardware Implementations Springer Berlin Heidelberg 2004 S 27 doi 10 1007 978 3 642 18609 7 Cesary Janikow Zbigniew Michalewicz An Experimental Comparison of Binary and Floating Point Representations in Genetic Algorithms In Conf Proc of the Fourth Int Conf on Genetic Algorithms ICGA 91 1991 S 31 36 umsl edu PDF Zbigniew Michalewicz Genetic Algorithms Data Structures Evolution Programs Springer Berlin Heidelberg 1996 ISBN 3 662 03315 1 Chuan Kang Ting On the Mean Convergence Time of Multi parent Genetic Algorithms Without Selection In Advances in Artificial Life 2005 ISBN 978 3 540 28848 0 S 403 412 Thomas Back Hans Paul Schwefel An Overview of Evolutionary Algorithms for Parameter Optimization In Evolutionary Computation Band 1 Nr 1 1 Marz 1993 ISSN 1063 6560 S 1 23 doi 10 1162 evco 1993 1 1 1 Thomas Back Frank Hoffmeister Hans Paul Schwefel A Survey of Evolution Strategies In Richard K Belew Lashon B Booker Hrsg Conf Proc of the 4th Int Conf on Genetic Algorithms ICGA 91 Morgan Kaufmann San Francisco 1991 ISBN 1 55860 208 9 S 2 9 Nikolaus Hansen Andreas Ostermeier Completely Derandomized Self Adaptation in Evolution Strategies In Evolutionary Computation Band 9 Nr 2 Juni 2001 ISSN 1063 6560 S 159 195 doi 10 1162 106365601750190398 Nikolaus Hansen Stefan Kern Evaluating the CMA Evolution Strategy on Multimodal Test Functions In Conf Proc of Parallel Problem Solving from Nature PPSN VIII LNCS Nr 3242 Springer Berlin Heidelberg Berlin Heidelberg 2004 ISBN 3 540 23092 0 S 282 291 doi 10 1007 978 3 540 30217 9 29 Julian F Miller Cartesian Genetic Programming Natural Computing Series Springer Berlin Heidelberg 2011 S 63 doi 10 1007 978 3 642 17310 3 2 Hans Paul Schwefel Evolution and Optimum Seeking Sixth generation computer technology series Wiley New York 1995 ISBN 978 0 471 57148 3 S 109 researchgate net abgerufen am 16 September 2024 Thomas Back David B Fogel Zbigniew Michalewicz Hrsg Evolutionary Computation 1 Institute of Physics Publishing Bristol Philadelphia 2000 ISBN 978 0 7503 0664 5 Glossary S xxx und S xxxvii worldcat org abgerufen am 16 September 2024 Normdaten Sachbegriff GND 4366912 8 GND Explorer lobid OGND AKS

Neueste Artikel
  • Juli 15, 2025

    Alpine Höhenstufe

  • Juli 16, 2025

    Alparslan Türkeş

  • Juli 16, 2025

    Alois Gügler

  • Juli 16, 2025

    Allgäuer Dialekt

  • Juli 16, 2025

    Allgemeines Persönlichkeitsrecht

www.NiNa.Az - Studio

    Kontaktieren Sie uns
    Sprachen
    Kontaktieren Sie uns
    DMCA Sitemap
    © 2019 nina.az - Alle Rechte vorbehalten.
    Copyright: Dadash Mammadov
    Eine kostenlose Website, die Daten- und Dateiaustausch aus der ganzen Welt ermöglicht.
    Spi.