Генетический алгоритм (Iyuymncyvtnw glikjnmb)
Генети́ческий алгори́тм (англ. genetic algorithm) — эвристический алгоритм поиска, используемый для решения задач оптимизации и моделирования путём случайного подбора, комбинирования и вариации искомых параметров с использованием механизмов, аналогичных естественному отбору в природе. Является разновидностью эволюционных вычислений, с помощью которых решаются оптимизационные задачи с использованием методов естественной эволюции, таких как наследование, мутации, отбор и кроссинговер. Отличительной особенностью генетического алгоритма является акцент на использование оператора «скрещивания», который производит операцию рекомбинации решений-кандидатов, роль которой аналогична роли скрещивания в живой природе.
История
[править | править код]Первые работы по имитационному моделированию эволюции были проведены в 1954 году Нильсом Баричелли на компьютере, установленном в Институте перспективных исследований Принстонского университета[1][2], опубликованная в том же году работа привлекла широкое внимание. С 1957 года[3] австралийский генетик Алекс Фразер[англ.] опубликовал серию работ по имитационному моделированию искусственного отбора среди организмов с множественным контролем измеримых характеристик. Положенное начало позволило реализовать имитационные модели эволюционных процессов по методам, описанным в книгах Фразера и Барнелла (1970)[4] и Кросби (1973)[5]. Имитационные модели Фразера включали все важнейшие элементы современных генетических алгоритмов. Вдобавок к этому, Ханс-Йоахим Бремерман[англ.] в 1960-х годах опубликовал серию работ, которые также принимали подход использования популяции решений, подвергаемой рекомбинации, мутации и отбору, в проблемах оптимизации. Исследования Бремермана также включали элементы современных генетических алгоритмов[6]. Среди прочих ранних исследователей — Ричард Фридберг[англ.], Джордж Фридман и Майкл Конрад[англ.]. Множество ранних работ были переизданы Давидом Фогелем (1998)[7].
Хотя Барричелли[англ.] в работе 1963 года имитировал способности машины играть в простую игру[8], искусственная эволюция стала общепризнанным методом оптимизации после работы Инго Рехенберга[англ.] и Ханса-Пауля Швефеля[англ.] в 1960-х и начале 1970-х годов двадцатого века — группа Рехенберга смогла решить сложные инженерные проблемы согласно стратегиям эволюции.[9][10][11][12] Другим подходом была техника эволюционного программирования Лоренса Джей Фогеля[англ.], которая была предложена для создания искусственного интеллекта. Эволюционное программирование первоначально использовало конечные автоматы для предсказания обстоятельств и разнообразие и отбор для оптимизации логики предсказания. Генетические алгоритмы стали особенно популярны благодаря работе Джона Холланда в начале 70-х годов и его книге «Адаптация в естественных и искусственных системах» (1975)[13]. Исследование Фогеля основывалось на экспериментах Холланда с клеточными автоматами и его (Холланда) трудах, написанных в университете Мичигана. Холланд ввел формализованный подход для предсказывания качества следующего поколения, известный как Теорема схем. Исследования в области генетических алгоритмов оставались в основном теоретическими до середины 80-х годов, когда была, наконец, проведена Первая международная конференция по генетическим алгоритмам в Питтсбурге, Пенсильвания (США).
С ростом исследовательского интереса существенно выросла и вычислительная мощь настольных компьютеров, это позволило использовать новую вычислительную технику на практике. В конце 80-х, компания General Electric начала продажу первого в мире продукта, работавшего с использованием генетического алгоритма. Им стал набор промышленных вычислительных средств. В 1989, другая компания Axcelis, Inc. выпустила Evolver — первый в мире коммерческий продукт на генетическом алгоритме для настольных компьютеров. Журналист The New York Times в технологической сфере Джон Маркофф писал[14] об Evolver в 1990 году.
Описание алгоритма
[править | править код]Задача формализуется таким образом, чтобы её решение могло быть закодировано в виде вектора («генотипа») генов, где каждый ген может быть битом, числом или неким другим объектом. В классических реализациях генетического алгоритма (ГА) предполагается, что генотип имеет фиксированную длину. Однако существуют вариации ГА, свободные от этого ограничения.
Некоторым, обычно случайным, образом создаётся множество генотипов начальной популяции. Они оцениваются с использованием «функции приспособленности», в результате чего с каждым генотипом ассоциируется определённое значение («приспособленность»), которое определяет насколько хорошо фенотип, им описываемый, решает поставленную задачу.
При выборе «функции приспособленности» (или fitness function в англоязычной литературе) важно следить, чтобы её «рельеф» был «гладким».
Из полученного множества решений («поколения») с учётом значения «приспособленности» выбираются решения (обычно лучшие особи имеют большую вероятность быть выбранными), к которым применяются «генетические операторы» (в большинстве случаев «скрещивание» — crossover и «мутация» — mutation), результатом чего является получение новых решений. Для них также вычисляется значение приспособленности, и затем производится отбор («селекция») лучших решений в следующее поколение.
Этот набор действий повторяется итеративно, так моделируется «эволюционный процесс», продолжающийся несколько жизненных циклов (поколений), пока не будет выполнен критерий остановки алгоритма. Таким критерием может быть:
- нахождение глобального, либо субоптимального решения;
- исчерпание числа поколений, отпущенных на эволюцию;
- исчерпание времени, отпущенного на эволюцию.
Генетические алгоритмы служат, главным образом, для поиска решений в многомерных пространствах поиска.
Таким образом, можно выделить следующие этапы генетического алгоритма:
- Задать целевую функцию (приспособленности) для особей популяции
- Создать начальную популяцию
- (Начало цикла)
- Размножение (скрещивание)
- Мутирование
- Вычислить значение целевой функции для всех особей
- Формирование нового поколения (селекция)
- Если выполняются условия остановки, то (конец цикла), иначе (начало цикла).
Создание начальной популяции
[править | править код]Перед первым шагом нужно случайным образом создать начальную популяцию; даже если она окажется совершенно неконкурентоспособной, вероятно, что генетический алгоритм всё равно достаточно быстро переведёт её в жизнеспособную популяцию. Таким образом, на первом шаге можно особенно не стараться сделать слишком уж приспособленных особей, достаточно, чтобы они соответствовали формату особей популяции, и на них можно было подсчитать функцию приспособленности (Fitness). Итогом первого шага является популяция H, состоящая из N особей.
Отбор (селекция)
[править | править код]На этапе отбора нужно из всей популяции выбрать определённую её долю, которая останется «в живых» на этом этапе эволюции. Есть разные способы проводить отбор. Вероятность выживания особи h должна зависеть от значения функции приспособленности Fitness(h). Сама доля выживших s обычно является параметром генетического алгоритма, и её просто задают заранее. По итогам отбора из N особей популяции H должны остаться sN особей, которые войдут в итоговую популяцию H'. Остальные особи погибают.
- Турнирная селекция — сначала случайно выбирается установленное количество особей (обычно две), а затем из них выбирается особь с лучшим значением функции приспособленности
- Метод рулетки — вероятность выбора особи тем вероятнее, чем лучше её значение функции приспособленности , где — вероятность выбора i особи, — значение функции приспособленности для i особи, — количество особей в популяции
- Метод ранжирования — вероятность выбора зависит от места в списке особей отсортированном по значению функции приспособленности , где , , — порядковый номер особи в списке особей отсортированном по значению функции приспособленности (то есть — если мы минимизируем значение функции приспособленности)
- Равномерное ранжирование — вероятность выбора особи определяется выражением: , где параметр метода
- Сигма-отсечение — для предотвращения преждевременной сходимости генетического алгоритма используются методы, масштабирующие значение целевой функции. Вероятность выбора особи тем больше, чем оптимальнее значение масштабируемой целевой функции , где , — среднее значение целевой функции для всей популяции, σ — среднеквадратичное отклонение значения целевой функции[15].
Выбор родителей
[править | править код]Размножение в генетических алгоритмах требует для производства потомка нескольких родителей, обычно двух.
Можно выделить несколько операторов выбора родителей:
- Панмиксия — оба родителя выбираются случайно, каждая особь популяции имеет равные шансы быть выбранной
- Инбридинг — первый родитель выбирается случайно, а вторым выбирается такой, который наиболее похож на первого родителя
- Аутбридинг — первый родитель выбирается случайно, а вторым выбирается такой, который наименее похож на первого родителя
Инбридинг и аутбридинг бывают в двух формах: фенотипной и генотипной. В случае фенотипной формы похожесть измеряется в зависимости от значения функции приспособленности (чем ближе значения целевой функции, тем особи более похожи), а в случае генотипной формы похожесть измеряется в зависимости от представления генотипа (чем меньше отличий между генотипами особей, тем особи похожее).
Размножение (скрещивание)
[править | править код]Размножение в разных алгоритмах определяется по-разному — оно, конечно, зависит от представления данных. Главное требование к размножению — чтобы потомок или потомки имели возможность унаследовать черты обоих родителей, «смешав» их каким-либо способом.
Почему особи для размножения обычно выбираются из всей популяции H, а не из выживших на первом шаге элементов H' (хотя последний вариант тоже имеет право на существование)? Дело в том, что главный недостаток многих генетических алгоритмов — отсутствие разнообразия (diversity) в особях. Достаточно быстро выделяется один-единственный генотип, который представляет собой локальный максимум, а затем все элементы популяции проигрывают ему отбор, и вся популяция «забивается» копиями этой особи. Есть разные способы борьбы с таким нежелательным эффектом; один из них — выбор для размножения не самых приспособленных, но вообще всех особей. Однако такой подход вынуждает хранить всех существовавших ранее особей, что увеличивает вычислительную сложность задачи. Поэтому часто применяют методы отбора особей для скрещивания таким образом, чтобы «размножались» не только самые приспособленные, но и другие особи, обладающие плохой приспособленностью. При таком подходе для разнообразия генотипа возрастает роль мутаций.
Мутации
[править | править код]К мутациям относится все то же самое, что и к размножению: есть некоторая доля мутантов m, являющаяся параметром генетического алгоритма, и на шаге мутаций нужно выбрать mN особей, а затем изменить их в соответствии с заранее определёнными операциями мутации.
Критика
[править | править код]В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Существует несколько поводов для критики насчёт использования генетического алгоритма по сравнению с другими методами оптимизации:
- Повторная оценка функции приспособленности (фитнесс-функции) для сложных проблем часто является фактором, ограничивающим использование алгоритмов искусственной эволюции. Поиск оптимального решения для сложной задачи высокой размерности зачастую требует очень затратной оценки функции приспособленности. В реальных задачах, таких как задачи структурной оптимизации, единственный запуск функциональной оценки требует от нескольких часов до нескольких дней для произведения необходимых вычислений. Стандартные методы оптимизации не могут справиться с проблемами такого рода. В таком случае, может быть необходимо пренебречь точной оценкой и использовать аппроксимацию пригодности, которая способна быть вычислена эффективно. Очевидно, что применение аппроксимации пригодности может стать одним из наиболее многообещающих подходов, позволяющих обоснованно решать сложные задачи реальной жизни с помощью генетических алгоритмов.
- Генетические алгоритмы плохо масштабируемы под сложность решаемой проблемы. Это значит, что число подверженных мутации элементов будет очень велико, если велик размер области поиска решений. Это делает использование данной вычислительной техники чрезвычайно сложным при решении таких проблем, как, например, проектирование двигателя, дома или самолёта. Для того чтобы сделать так, чтобы такие проблемы поддавались эволюционным алгоритмам, они должны быть разделены на простейшие представления данных проблем. Таким образом, эволюционные вычисления используются, например, при разработке формы лопастей, вместо всего двигателя, формы здания, вместо подробного строительного проекта и формы фюзеляжа, вместо разработки вида всего самолёта. Вторая проблема, связанная со сложностью, кроется в вопросе защиты частей, эволюционировавших в высокопригодные решения, от дальнейшей разрушительной мутации: в частности когда от них требуется хорошая совместимость с другими частями для оценки пригодности. Некоторыми разработчиками было предложено, что подход, предполагающий развитие пригодности эволюционирующих решений, смог бы преодолеть ряд проблем с защитой, но данный вопрос всё ещё остаётся открытым для исследования.
- Решение является более пригодным лишь по сравнению с другими решениями. В результате условие остановки алгоритма неясно для каждой проблемы.
- Во многих задачах генетические алгоритмы имеют тенденцию сходиться к локальному оптимуму или даже к произвольной точке, а не к глобальному оптимуму для данной задачи. Это значит, что они «не знают», каким образом пожертвовать кратковременной высокой пригодностью для достижения долгосрочной пригодности. Вероятность этого зависит от формы ландшафта пригодности: отдельные проблемы могут иметь выраженное направление к глобальному минимуму, в то время как остальные могут указывать направление для фитнесс-функции на локальный оптимум. Эту проблему можно решить использованием иной фитнесс-функции, увеличением вероятности мутаций, или использованием методов отбора, которые поддерживают разнообразие решений в популяции, хотя Теорема об отсутствии бесплатного обеда при поиске и оптимизации[16] доказывает, что не существует общего решения данной проблемы. Общепринятым методом поддержания популяционного разнообразия является установка уровневого ограничения на численность элементов с высоким сродством, которое снизит число представителей сходных решений в последующих поколениях, позволяя другим, менее сходным элементам оставаться в популяции. Данный приём, тем не менее, может не увенчаться успехом в зависимости от ландшафта конкретной проблемы. Другим возможным методом может служить простое замещение части популяции случайно сгенерированными элементами в момент, когда элементы популяции становятся слишком сходны между собой. Разнообразие важно для генетических алгоритмов (и генетического программирования), потому что перекрёст генов в гомогенной популяции не несёт новых решений. В эволюционных алгоритмах и эволюционном программировании разнообразие не является необходимостью, так как большая роль в них отведена мутации.
Имеется много скептиков относительно целесообразности применения генетических алгоритмов. Например, Стивен С. Скиена, профессор кафедры вычислительной техники университета Стоуни—Брук, известный исследователь алгоритмов, лауреат премии института IEEE, пишет[17]:
Я лично никогда не сталкивался ни с одной задачей, для решения которой генетические алгоритмы оказались бы самым подходящим средством. Более того, я никогда не встречал никаких результатов вычислений, полученных посредством генетических алгоритмов, которые производили бы на меня положительное впечатление.
Применение генетических алгоритмов
[править | править код]В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Генетические алгоритмы применяются для решения следующих задач:
- Оптимизация функций
- Оптимизация запросов в базах данных
- Разнообразные задачи на графах (задача коммивояжера, раскраска, нахождение паросочетаний)
- Настройка и обучение искусственной нейронной сети
- Задачи компоновки
- Составление расписаний
- Игровые стратегии
- Теория приближений
- Искусственная жизнь
- Биоинформатика (фолдинг белков)
- Синтез конечных автоматов
- Настройка ПИД регуляторов
- Черный ящик
- Обработка сигналов
Пример простой реализации на C++
[править | править код]В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Поиск в одномерном пространстве, без скрещивания.
#include <cstdlib>
#include <ctime>
#include <algorithm>
#include <iostream>
#include <numeric>
int main()
{
srand((unsigned int)time(NULL));
const size_t N = 1000;
int a[N] = { 0 };
for ( ; ; )
{
//мутация в случайную сторону каждого элемента:
for (size_t i = 0; i < N; ++i)
a[i] += ((rand() % 2 == 1) ? 1 : -1);
//теперь выбираем лучших, отсортировав по возрастанию
std::sort(a, a + N);
//и тогда лучшие окажутся во второй половине массива.
//скопируем лучших в первую половину, куда они оставили потомство, а первые умерли:
std::copy(a + N / 2, a + N, a);
//теперь посмотрим на среднее состояние популяции. Как видим, оно всё лучше и лучше.
std::cout << std::accumulate(a, a + N, 0) / N << std::endl;
}
}
В культуре
[править | править код]- В фильме 1995 года «Виртуозность» мозг главного злодея выращен генетическим алгоритмом с использованием воспоминаний и поведенческих черт преступников.
Примечания
[править | править код]- ↑ Barricelli, Nils Aall[англ.]. Esempi numerici di processi di evoluzione (неопр.) // Methodos. — 1954. — С. 45—68.
- ↑ Barricelli, Nils Aall[англ.]. Symbiogenetic evolution processes realized by artificial methods (англ.) // Methodos : journal. — 1957. — P. 143—182.
- ↑ Fraser, Alex[англ.]. Simulation of genetic systems by automatic digital computers. I. Introduction (англ.) // Aust. J. Biol. Sci. : journal. — 1957. — Vol. 10. — P. 484—491.
- ↑ Fraser, Alex[англ.]; Donald Burnell. Computer Models in Genetics (англ.). — New York: McGraw-Hill Education, 1970. — ISBN 0-07-021904-4.
- ↑ Crosby, Jack L. Computer Simulation in Genetics (англ.). — London: John Wiley & Sons, 1973. — ISBN 0-471-18880-8.
- ↑ 02.27.96 — UC Berkeley’s Hans Bremermann, professor emeritus and pioneer in mathematical biology, has died at 69 . Дата обращения: 17 мая 2012. Архивировано 23 марта 2012 года.
- ↑ Fogel, David B. (editor). Evolutionary Computation: The Fossil Record (англ.). — New York: Institute of Electrical and Electronics Engineers, 1998. — ISBN 0-7803-3481-7.
- ↑ Barricelli, Nils Aall. Numerical testing of evolution theories. Part II. Preliminary tests of performance, symbiogenesis and terrestrial life (англ.) // Acta Biotheoretica[англ.] : journal. — 1963. — No. 16. — P. 99—126.
- ↑ Rechenberg, Ingo. Evolutionsstrategie (неопр.). — Stuttgart: Holzmann-Froboog, 1973. — ISBN 3-7728-0373-3.
- ↑ Schwefel, Hans-Paul. Numerische Optimierung von Computer-Modellen (PhD thesis) (нем.). — 1974.
- ↑ Schwefel, Hans-Paul. Numerische Optimierung von Computor-Modellen mittels der Evolutionsstrategie : mit einer vergleichenden Einführung in die Hill-Climbing- und Zufallsstrategie (нем.). — Basel; Stuttgart: Birkhäuser[англ.], 1977. — ISBN 3-7643-0876-1.
- ↑ Schwefel, Hans-Paul. Numerical optimization of computer models (Translation of 1977 Numerische Optimierung von Computor-Modellen mittels der Evolutionsstrategie (англ.). — Chichester ; New York: Wiley, 1981. — ISBN 0-471-09988-0.
- ↑ J. H. Holland. Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor, 1975.
- ↑ Markoff, John (1990-08-29). "What's the Best Answer? It's Survival of the Fittest". New York Times. Архивировано 2 декабря 2010. Дата обращения: 9 августа 2009.
{{cite news}}
: Проверьте значение даты:|year=
/|date=
mismatch (справка) - ↑ Melanie Mitchell. An Introduction to Genetic Algorithms. — MIT Press, 1998. — С. 167. — 226 с. — ISBN 9780262631853. Архивировано 1 ноября 2018 года.
- ↑ Wolpert, D.H., Macready, W.G., 1995. No Free Lunch Theorems for Optimisation. Santa Fe Institute, SFI-TR-05-010, Santa Fe.
- ↑ Steven S. Skiena. The Algorithm Design Manual. Second Edition. Springer, 2008.
Литература
[править | править код]- Саймон Д. Алгоритмы эволюционной оптимизации. — М.: ДМК Пресс, 2020. — 940 с. — ISBN 978-5-97060-812-8.
- Емельянов В. В., Курейчик В. В., Курейчик В. М. Теория и практика эволюционного моделирования. — М.: Физматлит, 2003. — 432 с. — ISBN 5-9221-0337-7.
- Курейчик В. М., Лебедев Б. К., Лебедев О. К. Поисковая адаптация: теория и практика. — М.: Физматлит, 2006. — 272 с. — ISBN 5-9221-0749-6.
- Гладков Л. А., Курейчик В. В., Курейчик В. М. Генетические алгоритмы: Учебное пособие. — 2-е изд. — М.: Физматлит, 2006. — 320 с. — ISBN 5-9221-0510-8.
- Гладков Л. А., Курейчик В. В, Курейчик В. М. и др. Биоинспирированные методы в оптимизации: монография. — М.: Физматлит, 2009. — 384 с. — ISBN 978-5-9221-1101-0.
- Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы = Sieci neuronowe, algorytmy genetyczne i systemy rozmyte. — 2-е изд. — М.: Горячая линия-Телеком, 2008. — 452 с. — ISBN 5-93517-103-1.
- Скобцов Ю. А. Основы эволюционных вычислений. — Донецк: ДонНТУ, 2008. — 326 с. — ISBN 978-966-377-056-6.
Ссылки
[править | править код]- Эволюционные вычисления
- Использование генетических алгоритмов в проблеме автоматического написания программ
- Реализация генетических алгоритмов в среде MATLAB v6.12
- Сергей Николенко. Генетические алгоритмы (слайды) — лекция № 4 из курса «Самообучающиеся системы»
- geneticprogramming.us
- Генерирование автоматов состояний с помощью ГА
- Субботін С. О., Олійник А. О., Олійник О. О. Неітеративні, еволюційні та мультиагентні методи синтезу нечіткологічних і нейромережних моделей: Монографія / Під заг. ред. С. О. Субботіна. — Запоріжжя: ЗНТУ, 2009. — 375 с. (укр.)
- Poli, R., Langdon, W. B., McPhee, N. F. A Field Guide to Genetic Programming (неопр.). — Lulu.com, freely available from the internet, 2008. — ISBN 978-1-4092-0073-4.
- Подборка статей по использованию генетических алгоритмов в задачах многокритериальной оптимизации (англ.)
- Lakhmi C. Jain; N.M. Martin Fusion of Neural Networks, Fuzzy Systems and Genetic Algorithms: Industrial Applications. — CRC Press, CRC Press LLC, 1998
- Лекция по генетическим алгоритмам
Для улучшения этой статьи желательно:
|