МегаПредмет

ПОЗНАВАТЕЛЬНОЕ

Сила воли ведет к действию, а позитивные действия формируют позитивное отношение


Как определить диапазон голоса - ваш вокал


Игровые автоматы с быстрым выводом


Как цель узнает о ваших желаниях прежде, чем вы начнете действовать. Как компании прогнозируют привычки и манипулируют ими


Целительная привычка


Как самому избавиться от обидчивости


Противоречивые взгляды на качества, присущие мужчинам


Тренинг уверенности в себе


Вкуснейший "Салат из свеклы с чесноком"


Натюрморт и его изобразительные возможности


Применение, как принимать мумие? Мумие для волос, лица, при переломах, при кровотечении и т.д.


Как научиться брать на себя ответственность


Зачем нужны границы в отношениях с детьми?


Световозвращающие элементы на детской одежде


Как победить свой возраст? Восемь уникальных способов, которые помогут достичь долголетия


Как слышать голос Бога


Классификация ожирения по ИМТ (ВОЗ)


Глава 3. Завет мужчины с женщиной


Оси и плоскости тела человека


Оси и плоскости тела человека - Тело человека состоит из определенных топографических частей и участков, в которых расположены органы, мышцы, сосуды, нервы и т.д.


Отёска стен и прирубка косяков Отёска стен и прирубка косяков - Когда на доме не достаёт окон и дверей, красивое высокое крыльцо ещё только в воображении, приходится подниматься с улицы в дом по трапу.


Дифференциальные уравнения второго порядка (модель рынка с прогнозируемыми ценами) Дифференциальные уравнения второго порядка (модель рынка с прогнозируемыми ценами) - В простых моделях рынка спрос и предложение обычно полагают зависящими только от текущей цены на товар.

Нелинейного программирования





Для решения задачи нелинейного программирования было предложено много методов, которые можно классифицировать по различным признакам.

По количеству локальных критериев в целевой функции методы нелинейного программирования делятся на:

· однокритериальные

· многокритериальные

Методы нелинейного программирования делятся, по наличию ограничений, на:

· метод без ограничений (безусловная оптимизация),

· метод с ограничениями (условная оптимизация).

По типу информации, используемой в алгоритме поиска экстремума, методы делятся на:

· методы прямого поиска, т.е. методы, в которых при поиске экстремума целевой функции используются только ее значения;

· градиентные методы первого порядка, в которых при поиске экстремума функции используются значения ее первых производных;

· градиентные методы второго порядка, в которых при поиске экстремума функции наряду с первыми производными используются и вторые производные.

Задача нелинейного программирования в общем виде формулируется так:

максимизировать

f ( x1, x2,…, xn )

при ограничениях

g1 ( x1, x2, … ,xn )≥0

g2 ( x1, x2, … ,xn )≥0

………………………

gm ( x1, x2, … ,xn )≥0

где функции

f ( x1, x2,…, xn )

gi ( x1, x2, … ,xn )≥0

i=1,m

нелинейные.

Применение метода Лагранжа

Для решения задач условной оптимизации

Нелинейные задачи часто упрощают тем, что приводят к линейным. Для этого условно принимают, что на том или ином участке целевая функция возрастает или убывает пропорционально изменению независимых переменных.

Такой подход называется методом кусочно-линейных приближений, он применим, лишь к некоторым видам нелинейных задач. Нелинейные задачи в определенных условиях решаются с помощью функции Лагранжа (множители Лагранжа): найдя ее седловую точку, тем самым находят и решение задачи (это определяется так называемыми условиями Куна-Таккера).

Теорема 1. (существование экстремума):

Если

f ( x1, x2,…, xn )

непрерывная функция, определенная на замкнутом и ограниченном множестве, то она достигает на этом множестве, по крайней мере один раз, своих максимального и минимального значений.

Теорема 2:

Если

f ( x1, x2,…, xn )

является непрерывной функцией нескольких переменных, определенной на допустимом множестве R, то максимальное значение этой функции, если оно существует, достигается в одной или нескольких точках, которые принадлежат одному из следующих множеств:

1) S1 - множество стационарных точек;

2) S2 - множество точек границы;

3) S3 - множество точек, где функция не дифференцируема.

Функция f(x) достигает локального максимума в точке

x0= (x10, x20, …, xn0),

если для всех точек x, лежащих в малой окрестности точки

[x10, x20, …, xn0]

имеет место неравенство

f(x10, x20, …, xn0) ≥ f ( x1, x2,…, xn )

Функция f(x) достигает глобального (абсолютного) максимума в точке x0, если для всех точек

x ϵ R

справедливо неравенство

f(x0) ≥ f(x)

Градиентные методы решения

Задач безусловной оптимизации

Идея градиентного метода поиска экстремума функции предложена в 1847 году Коши.

Алгоритм нахождения: выбирается начальная (стартовая) точка (начальное приближение в виде набора произвольных значений неизвестных) и вычисляется градиент (начальные производные целевой функции в диапазоне этой точки), который определяет шаг и направление движения в следующую точку для улучшения целевой функции. В следующих точках эта процедура повторяется, пока эти производные не станут нулевыми, что говорит о достижении экстремума.



Понятие градиента

Любую совокупность вещественных чисел (v1, v2, … , vk), взятых в определенном порядке, можно рассматривать как точку или вектор с теми же координатами в пространстве k измерений (k-мерном пространстве). Запись вида v = (v1, v2, … , vk) обозначает точку или вектор v с указанными в скобках координатами. Если для k-мерных векторов v и w справедливы основные алгебраические операции:

сложение и вычитание

v ± w = (v1 ± w1, v2 ± w2 , … , vk ± wk),

умножение на действительное число d

d × v = (d × v1, d × v2, … , d × vk),

скалярное произведение

v × w = (v1 × w1, v2 × w2, … , vk × wk),

то совокупность всех таких векторов называют k-мерным евклидовым пространством и обозначают Ek.

Длиной вектора v называют число, определяемое по формуле

Длину вектора можно вычислить только тогда, когда компоненты вектора представлены в одной шкале измерений или они являются безразмерными величинами.

Если произведение v × w = 0 при |v| ≠ 0 и |w| ≠ 0, то векторы v и w являются ортогональными.

Единичным называют вектор, определяемый по формуле

t=(t1, t2, …, tk)=

Пусть в Ek заданы некоторая точка v = (v1, v2, … , vk), единичный вектор t и непрерывно дифференцируемая по всем аргументам функция f(V) = f(v1, v2, … , vk).Производной в точке V от функции f(V) по направлению луча, определяемому вектором t, называется предел

или

Градиентом функции f(V) называют вектор ∆f(V) с координатами, равными частным производным по соответствующим аргументам

Градиент указывает направление наибольшего возрастания функции. Противоположное направление –∆f(V) называется антиградиентом, оно показывает направление наискорейшего убывания функции. В точке экстремума V* градиент равен нулю ∆f(V*)= 0. Если аналитически производные определить невозможно, их вычисляют приближенно

f(V) / ∆vi = ∆f(V) / ∆vi,

где ∆f(V) – приращение функции f(V) при изменении аргумента на величину ∆vi. Двигаясь по градиенту (антиградиенту) можно достичь максимума (минимума) функции. В этом и состоит сущность градиентного метода оптимизации.





©2015 www.megapredmet.ru Все права принадлежат авторам размещенных материалов.