Это не официальный сайт wikipedia.org 01.01.2023

Симплекс-метод — Википедия

Симплекс-метод

Не путать с «симплекс-методом» — методом оптимизации произвольной функции. См. Метод Нелдера — Мида

Симплекс-метод — алгоритм решения оптимизационной задачи линейного программирования путём перебора вершин выпуклого многогранника в многомерном пространстве.

Сущность метода: построение базисных решений, на которых монотонно убывает линейный функционал, до ситуации, когда выполняются необходимые условия локальной оптимальности.

В работе Л. В. Канторовича «Математические методы организации и планирования производства» (1939) были впервые изложены принципы новой отрасли математики, которая позднее получила название линейного программирования.[1]

Исторически общая задача линейного программирования была впервые поставлена в 1947 году Джорджем Бернардом Данцигом, Маршаллом Вудом и их сотрудниками в департаменте военно-воздушных сил США. В то время эта группа занималась исследованием возможности использования математических и смежных с ними методов для военных задач и проблем планирования. В дальнейшем для развития этих идей в ВВС была организована исследовательская группа под названием Project SCOOP. Первое успешное решение задачи линейного программирования на ЭВМ SEAC было проведено в январе 1952 года[2].

ОписаниеПравить

 
Переход от одной вершины к другой

Задача линейного программирования состоит в том, что необходимо максимизировать или минимизировать некоторый линейный функционал на многомерном пространстве при заданных линейных ограничениях.

Заметим, что каждое из линейных неравенств на переменные ограничивает полупространство в соответствующем линейном пространстве. В результате все неравенства ограничивают некоторый выпуклый многогранник (возможно, бесконечный), называемый также полиэдральным комплексом. Уравнение W(x) = c, где W(x) — максимизируемый (или минимизируемый) линейный функционал, порождает гиперплоскость L(c). Зависимость от c порождает семейство параллельных гиперплоскостей. Тогда экстремальная задача приобретает следующую формулировку — требуется найти такое наибольшее c, что гиперплоскость L(c) пересекает многогранник хотя бы в одной точке. Заметим, что пересечение оптимальной гиперплоскости и многогранника будет содержать хотя бы одну вершину, причём их будет более одной, если пересечение содержит ребро или k-мерную грань. Поэтому максимум функционала можно искать в вершинах многогранника. Принцип симплекс-метода состоит в том, что выбирается одна из вершин многогранника, после чего начинается движение по его рёбрам от вершины к вершине в сторону увеличения значения функционала. Когда переход по ребру из текущей вершины в другую вершину с более высоким значением функционала невозможен, считается, что оптимальное значение c найдено.

Последовательность вычислений симплекс-методом можно разделить на две основные фазы:

  1. нахождение исходной вершины множества допустимых решений,
  2. последовательный переход от одной вершины к другой, ведущий к оптимизации значения целевой функции.

При этом в некоторых случаях исходное решение очевидно или его определение не требует сложных вычислений, например, когда все ограничения представлены неравенствами вида «меньше или равно» (тогда нулевой вектор совершенно точно является допустимым решением, хотя и, скорее всего, далеко не самым оптимальным). В таких задачах первую фазу симплекс-метода можно вообще не проводить. Симплекс-метод, соответственно, делится на однофазный и двухфазный.

Алгоритм симплекс-методаПравить

Усиленная постановка задачиПравить

Рассмотрим следующую задачу линейного программирования:

c T x max , A x b , x 0 , b 0.  

Теперь поставим эту задачу в эквивалентной усиленной форме. Необходимо максимизировать Z, где:

[ 1 c T 0 0 A E ] [ Z x x s ] = [ 0 b ] , x , x s 0  

Здесь x — переменные из исходного линейного функционала, xs — новые переменные, дополняющие старые таким образом, что неравенство переходит в равенство, c — коэффициенты исходного линейного функционала, Z — переменная, которую необходимо максимизировать. Полупространства x 0   и x s 0   в пересечении образуют многогранник, представляющий множество допустимых решений. Разница между числом переменных и уравнений даёт нам число степеней свободы. Проще говоря, если мы рассматриваем вершину многогранника, то это число рёбер, по которым мы можем продолжать движение. Тогда мы можем присвоить этому числу переменных значение 0 и назвать их «небазисными». Остальные переменные при этом будут вычисляться однозначно и называться «базисными». Сам же набор этих переменных называется базисом. Полученная точка будет вершиной в пересечении соответствующих небазисным переменным гиперплоскостей. Для того, чтобы найти т. н. начальное допустимое решение (вершину, из которой мы начнём движение), присвоим всем изначальным переменным x значение 0 и будем их считать небазисными, а все новые будем считать базисными. При этом начальное допустимое решение вычисляется однозначно : x s i = b i  .

АлгоритмПравить

Теперь приведём шаги алгоритма. На каждом шаге мы будем менять множества базисных и небазисных векторов (двигаться по рёбрам), и матрица будет иметь следующий вид:

[ 1 c B T B 1 A c T c B T B 1 0 B 1 A B 1 ] [ Z x x s ] = [ c B T B 1 b B 1 b ] ,  

где c B   — коэффициенты вектора c  , соответствующие базисным переменным (переменным x s   соответствуют 0), B   — столбцы [ A E ]  , соответствующие базисным переменным. Матрицу, образованную оставшимися столбцами обозначим D  . Почему матрица будет иметь такой вид поясним в описании шагов алгоритма.

Первый шаг.

Выбираем начальное допустимое значение, как указано выше. На первом шаге B   — единичная матрица, так как базисными переменными являются x s  . c B   — нулевой вектор по тем же причинам.

Второй шаг

Покажем, что в выражении ( c B T B 1 A c T ) x + ( c B T B 1 ) x s   только небазисные переменные имеют ненулевой коэффициент. Заметим, что из выражения A x + x s = b   базисные переменные однозначно выражаются через небазисные, так как число базисных переменных равно числу уравнений. Пусть x   — базисные, а x   — небазисные переменные на данной итерации. Уравнение A x + x s = b   можно переписать, как B x + D x = b  . Умножим его на B 1   слева: x + B 1 D x = B 1 b  . Таким образом мы выразили базисные переменные через небазисные, и в выражении B 1 A x + B 1 x s  , эквивалентному левой части равенства, все базисные переменные имеют единичные коэффициенты. Поэтому, если прибавить к равенству Z c T x = 0   равенство c B T B 1 A x + c B T B 1 x s  , то в полученном равенстве все базисные переменные будут иметь нулевой коэффициент — все базисные переменные вида x сократятся, а базисные переменные вида xs не войдут в выражение c B T B 1 x s  .

Выберем ребро, по которому мы будем перемещаться. Поскольку мы хотим максимизировать Z, то необходимо выбрать переменную, которая будет более всех уменьшать выражение

( c B T B 1 A c T ) x + ( c B T B 1 ) x s  .

Для этого выберем переменную, которая имеет наибольший по модулю отрицательный коэффициент[3]. Если таких переменных нет, то есть все коэффициенты этого выражения неотрицательны, то мы пришли в искомую вершину и нашли оптимальное решение. В противном случае начнём увеличивать эту небазисную переменную, то есть перемещаться по соответствующему ей ребру. Эту переменную назовём входящей.

Третий шаг

Теперь необходимо понять, какая базисная переменная первой обратится в ноль по мере увеличения входящей переменной. Для этого достаточно рассмотреть систему:

[ B 1 A B 1 ] [ x x s ] = B 1 b  

При фиксированных значениях небазисных переменных система однозначно разрешима относительно базисных, поэтому мы можем определить, какая из базисных переменных первой достигнет нуля при увеличении входящей. Эту переменную назовем выходящей. Это будет означать, что мы натолкнулись на новую вершину. Теперь входящую и выходящую переменную поменяем местами — входящая «войдёт» в базисную, а выходящая из них «выйдет» в небазисные. Теперь перепишем матрицу B и вектор cB в соответствии с новыми наборами базисных и небазисных переменных, после чего вернёмся ко второму шагу. x''

Поскольку число вершин конечно, то алгоритм однажды закончится. Найденная вершина будет являться оптимальным решением.

Двухфазный симплекс-методПравить

Причины использованияПравить

Если в условии задачи линейного программирования не все ограничения представлены неравенствами типа «≤», то далеко не всегда нулевой вектор будет допустимым решением. Однако каждая итерация симплекс-метода является переходом от одной вершины к другой, и если неизвестно ни одной вершины, алгоритм вообще не может быть начат.

Процесс нахождения исходной вершины не сильно отличается от однофазного симплекс-метода, однако может в итоге оказаться сложнее, чем дальнейшая оптимизация.

Модификация ограниченийПравить

Все ограничения задачи модифицируются согласно следующим правилам:

  • ограничения типа «≤» переводятся на равенства созданием дополнительной переменной с коэффициентом «+1». Эта модификация проводится и в однофазном симплекс-методе, дополнительные переменные в дальнейшем используются как исходный базис.
  • ограничения типа «≥» дополняются одной переменной с коэффициентом «−1». Поскольку такая переменная из-за отрицательного коэффициента не может быть использована в исходном базисе, необходимо создать ещё одну, вспомогательную, переменную. Вспомогательные переменные всегда создаются с коэффициентом «+1».
  • ограничения типа «=» дополняются одной вспомогательной переменной.

Соответственно, будет создано некоторое количество дополнительных и вспомогательных переменных. В исходный базис выбираются дополнительные переменные с коэффициентом «+1» и все вспомогательные. Осторожно: решение, которому соответствует этот базис, не является допустимым.

Различия между дополнительными и вспомогательными переменнымиПравить

Несмотря на то, что и дополнительные, и вспомогательные переменные создаются искусственно и используются для создания исходного базиса, их значения в решении сильно отличаются:

  • дополнительные переменные сообщают, насколько соответствующее им ограничение «недоиспользовано». Значение дополнительной переменной, равное нулю, соответствует равенству значений правых и левых частей ограничения.
  • вспомогательные переменные сообщают, насколько данное условие далеко от допустимого (относительно конкретного ограничения). Если значение вспомогательной переменной больше нуля, то данное решение не выполняет определённое ограничение, а значит не является допустимым.

То есть ненулевое значение дополнительной переменной может (но не должно) сигнализировать о неоптимальности решения. Ненулевое значение вспомогательной переменной сигнализирует о недопустимости решения.

Фазы решенияПравить

После того, как было модифицировано условие, создаётся вспомогательная целевая функция. Если вспомогательные переменные были обозначены, как y i  , i { 1 , , k }  , то вспомогательную функцию определим, как

z = i = 1 k y i m i n  .

После этого проводится обыкновенный симплекс-метод относительно вспомогательной целевой функции. Поскольку все вспомогательные переменные увеличивают значение z  , в ходе алгоритма они будут поочерёдно выводится из базиса, при этом после каждого перехода новое решение будет всё ближе к множеству допустимых решений.

Когда будет найдено оптимальное значение вспомогательной целевой функции, могут возникнуть две ситуации:

  • оптимальное значение z   больше нуля. Это значит, что как минимум одна из вспомогательных переменных осталась в базисе. В таком случае можно сделать вывод, что допустимых решений данной задачи линейного программирования не существует.
  • оптимальное значение z   равно нулю. Это означает, что все вспомогательные переменные были выведены из базиса, и текущее решение является допустимым.

Во втором случае мы имеем допустимый базис, или, иначе говоря, исходное допустимое решение. Можно проводить дальнейшую оптимизацию с учётом исходной целевой функции, при этом уже не обращая внимания на вспомогательные переменные. Это и является второй фазой решения.

Модифицированный симплекс-методПравить

В модифицированном методе матрица

[ 1 c B T B 1 A c T c B T B 1 0 B 1 A B 1 ]  

не пересчитывается, хранится и пересчитывается только матрица B 1  . В остальном алгоритм похож на вышеописанный.

1. Вычисляем двойственные переменные d = c B T B 1  

2. Проверка оптимальности. c B T B 1 A c T   преобразуется в d T A c T  .

Проверка заключается в вычислении d T A n c n   для всех столбцов n N  . Столбец со значением < 0 можно вводить в базис.

Часто выбирают минимальное значение, но для этого нужно перебрать все столбцы.

Чаще выбирают значение, меньшее некоторого заданного значения ε  

Если такого столбца не обнаружится, за ε   принимается максимальное найденное абсолютное значение и соответствующий столбец A J   вводится в базис.

3. Определение выводимого.

Пусть A J   — вводимый столбец, соответствующий переменной x J   Базисный план — это решение системы A B p = b   Увеличиваем A B p + ϑ A J = b  .

Умножим слева на B 1  , то есть B 1 A B p + ϑ B 1 A J = B 1 b  .

Здесь B 1 b   — базисный план, q = B 1 A J   — разложение вводимого столбца по базису.

Находим максимальное значение ϑ  , при котором все значения не отрицательны. Если ϑ   может быть взято как угодно велико, решение не ограничено. В противном случае один из элементов выйдет на нулевое значение. Выводим соответствующий столбец из базиса.

4. Пересчет опорного(базисного) плана.

Вычисляем новый опорный план по уже приведенной формуле x = p + ϑ B 1 A J   с найденным значением ϑ  .

5. Пересчитываем обратную к базисной B 1  .

Пусть B 1 A F   — выводимый столбец.

Матрица B представима в виде [ B G A F ]  

где B G   — базисная матрица без выводимого столбца.

После замены столбца базисная матрица будет иметь вид [ B G A J ]  

Нам нужно найти матрицу B 1  , такую что

[ B G , A J ] B 1 1 = E   => [ B 1 B G B 1 1 , B 1 A J ] = B 1   => [ B 1 B G , q ] B 1 1 = B 1   =>

[ E q 0 q f ] B 1 1 = B 1  

Откуда B 1 1 = [ E q / q f 0 1 / q f ] B 1  

Замечание.

При пересчете матрицы B 1   накапливаются ошибки округления. Во избежание получения больших ошибок время от времени матрица пересчитывается полностью. Этот процесс называется «повторением».

Мультипликативный вариант симплекс-методаПравить

В мультипликативном варианте матрица B 1   не хранится, хранятся лишь множители [ E q / q f 0 1 / q f ]  

При решении экономических задач часто матрица ограничений разреженная, в таком случае мультипликативный вариант получает дополнительные преимущества — можно хранить мультипликаторы в сжатом виде (не хранить нули).

Другие варианты симплекс-методаПравить

Во избежание накопления ошибок округления может использоваться LU-разложение матрицы.

При подавляющем числе ограничений типа «неравенство» может быть использован метод переменного базиса. [4]

Метод основан на том, что базисная матрица может быть представлена в виде

[ A B 0 A E E ]  

Обратная к ней имеет вид

[ A B 1 0 A B 1 A E E ]  

При относительно небольших размерах матрицы A B 1   остальная часть матрицы может не храниться.

Таким подходом удается решить задачи с десятками миллионов строк ограничений (например, из теории игр).

Двойственный симплекс-методПравить

Для реализации двойственного метода необходимо перейти от задачи на минимум к задаче на максимум (или наоборот) путём транспонирования матрицы коэффициентов. При переходе от задачи на минимум целевая функция примет вид:

g = i = 1 n b i y i m a x  

при ограничениях

i = 1 n a i j y i c j  .

Теорема двойственности. Если из пары двойственных задач одна обладает оптимальным планом, то и другая имеет решение, причем экстремальные значения линейных функций этих задач равны.

Если линейная функция одной из задач не ограничена, то другая не имеет решения.

Вычислительная эффективностьПравить

Симплекс-метод удивительно эффективен на практике, но в 1972 Кли и Минти [5] привели пример, в котором симплекс-метод перебирал все вершины симплекса, что показывает экспоненциальную сходимость метода в худшем случае. С тех пор для каждого варианта метода был найден пример, на котором метод вел себя исключительно плохо.

Наблюдения и анализ эффективности метода в практических приложениях привело к развитию других способов измерения эффективности.

Симплекс-метод имеет среднюю полиномиальную сходимость при широком выборе распределения значений в случайных матрицах.[6][7]

Вычислительная эффективность оценивается обычно при помощи двух параметров:

  • числа итераций, необходимого для получения решения;
  • затрат машинного времени.

В результате численных экспериментов получены следующие результаты.

  1. Число итераций при решении задач линейного программирования в стандартной форме с m   ограничениями и n   переменными заключено между m   и 3 m  . Среднее число итераций 2 m  . Верхняя граница числа итераций равна 2 m + n  .[источник не указан 1044 дня]
  2. Требуемое машинное время пропорционально m 3  .

Число ограничений больше влияет на вычислительную эффективность, чем число переменных, поэтому при формулировке задач линейного программирования нужно стремиться к уменьшению числа ограничений пусть даже путём роста числа переменных.

Методы повышения эффективностиПравить

Одной из наиболее трудоёмких процедур в симплекс-методе является поиск вводимого в базис столбца. Для лучшей сходимости, казалось бы, нужно выбирать переменную с наилучшей невязкой, но для этого нужен полный просмотр, то есть нужно умножить столбец двойственных переменных (которые иногда называются теневыми ценами) на все столбцы матрицы[8]. Такой подход хорошо работает для небольших задач, которые решаются вручную. Более того, строгое соблюдение правила выбора максимальной по модулю невязки может оказаться неоптимальным с точки зрения общего количества итераций, необходимых для получения экстремума. Максимальный выигрыш на одной итерации может привести к медленному убыванию значения целевой функции на последующих шагах и, следовательно, замедлить процесс решения задачи[9].

При больших матрицах ограничений, процедура поиска вводимой переменной начинает отнимать много времени и часто делаются попытки избежать просмотра всех столбцов матрицы, для чего могут применяться такие методы:

Барьер. Как только невязка переменной будет достаточно сильно отличаться от нуля (превосходит некоторой величины, называемой барьером), переменную вводят в базис. Если все невязки оказались меньше барьера, в качестве вводимой выбирается переменная с наименьшей невязкой, сам же барьер уменьшается по некоторому правилу (например, половина наименьшей невязки). Барьер часто используется со следующим приёмом. Близкий подход описан в книге Муртафа, см. раздел 3.6.2. Частичное оценивание книги[10].
Циклический просмотр. Поиск вводимой переменной начинается с позиции, следующей за введённой на предыдущей итерации переменной.
Групповой отбор (В книге Муртафа этот приём называется многократным оцениванием. См. раздел 3.6.3. Многократное оценивание[11].) При поиске вводимой переменной отбирается не одна переменная, а несколько кандидатов. На следующих итерациях просмотр осуществляется только среди отобранных кандидатов, при этом кандидат может из списка вычёркиваться.
Назначение весов. Переменным назначаются веса. См. раздел 3.6.4 Метод оценивания в системе DEVEX Муртафа[12].
Поиск наиболее крутого ребра Гольдфарба и Рида. См. раздел 3.6.5 Метод оценивания с поиском наиболее крутого ребра в книге Муртафа[13].

Возможны и другие приёмы, такие как правило Заде.

ПримечанияПравить

  1. Канторович Л. В. Математические методы организации планирования производства // Издание Ленинградского государственного университета. — Ленинград, 1939.
  2. С. Гасс. Линейное программирование (методы и приложения). — Москва: Государственное издательство физико-математической литературы, 1961. — (Физико-математическая библиотека инженера).
  3. Такая рекомендация часто встречается в учебниках, но не всегда верна. См. раздел #Методы повышения эффективности
  4. В.И. Муравьёв. Метод последовательного улучшения с базисом переменного размера для задач линейного программирования. — Сборник "Исследование операций и методы статистического моделирования". — Ленинград: ЛГУ, 1972.
  5. Klee, Victor  (англ.) (рус.; Minty, George J.  (англ.) (рус.. How good is the simplex algorithm? // Inequalities III (Proceedings of the Third Symposium on Inequalities held at the University of California, Los Angeles, Calif., September 1–9, 1969, dedicated to the memory of Theodore S. Motzkin) (англ.) / Shisha, Oved. — New York-London: Academic Press, 1972. — P. 159—175.
  6. Alexander Schrijver, Theory of Linear and Integer Programming. John Wiley & sons, 1998, ISBN 0-471-98232-6 (mathematical)
  7. The simplex algorithm takes on average D steps for a cube. Borgwardt, Karl-Heinz. The simplex method: A probabilistic analysis (англ.). — Berlin: Springer-Verlag, 1987. — Vol. 1. — P. xii+268. — (Algorithms and Combinatorics (Study and Research Texts)). — ISBN 3-540-17096-0.
  8. Рекомендацию выбирать максимальное по модулю значение невязки можно нередко встретить в описаниях симлпекс-метода, например в статьях Алгоритм симплекс-метода Архивная копия от 17 марта 2018 на Wayback Machine и СИМПЛЕКС-МЕТОД ЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ Архивная копия от 17 марта 2018 на Wayback Machine
  9. Шамрай, 2009, с. 44.
  10. Муртаф, 1984.
  11. Муртаф, 1984, с. 61.
  12. Муртаф, 1984, с. 62.
  13. Муртаф, 1984, с. 63.

ЛитератураПравить

СсылкиПравить