Pr i-3
-
Upload
gthtcnhjqrf1952 -
Category
Documents
-
view
28 -
download
0
Transcript of Pr i-3
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи
Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:
f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =m∑
i=0λi fi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа
Теорема
Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:
L ′(x̂) = 0 ⇐⇒m∑
i=0
λi f ′i (x̂) = 0;
b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема
Пусть x̂ ∈ locextrP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m. Тогда∃ λ 6= 0 : для L выполняются условияa) стационарности: L ′(x̂) = 0;b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λ0 ≥ 0 на min, λ0 ≤ 0 на max;λi ≥ 0, i = 1, . . . ,m′.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема
Пусть x̂ ∈ locextrP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m. Тогда∃ λ 6= 0 : для L выполняются условияa) стационарности: L ′(x̂) = 0;b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λ0 ≥ 0 на min, λ0 ≤ 0 на max;λi ≥ 0, i = 1, . . . ,m′.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 Примеры
Пример 1. x21+x2
2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x21 +x2
2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).
Необходимые условия локального минимума:а) стационарности
L ′ = 0 ⇐⇒
Lx1 = 0,Lx2 = 0,Lx3 = 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,
⇐⇒
x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
f (x) = x21 + x2
2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
f (x) = x21 + x2
2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
f (x) = x21 + x2
2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
f (x) = x21 + x2
2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
f (x) = x21 + x2
2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
f (x) = x21 + x2
2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.
Галеев Э.М. МГУЛекции: Методы оптимизации
Пример 1. x21 +x2
2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.
f (x) = x21 + x2
2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям
Пусть A =(aij)n
i,j=1 — симметрическая матрица,
Q(x) =n∑
i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =n∑
i=1
λi〈x , fi〉2.
В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям
Пусть A =(aij)n
i,j=1 — симметрическая матрица,
Q(x) =n∑
i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =n∑
i=1
λi〈x , fi〉2.
В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям
Пусть A =(aij)n
i,j=1 — симметрическая матрица,
Q(x) =n∑
i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =n∑
i=1
λi〈x , fi〉2.
В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям
Пусть A =(aij)n
i,j=1 — симметрическая матрица,
Q(x) =n∑
i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =n∑
i=1
λi〈x , fi〉2.
В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям
Пусть A =(aij)n
i,j=1 — симметрическая матрица,
Q(x) =n∑
i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =n∑
i=1
λi〈x , fi〉2.
В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям
Пусть A =(aij)n
i,j=1 — симметрическая матрица,
Q(x) =n∑
i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =n∑
i=1
λi〈x , fi〉2.
В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям
Пусть A =(aij)n
i,j=1 — симметрическая матрица,
Q(x) =n∑
i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =n∑
i=1
λi〈x , fi〉2.
В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям
Пусть A =(aij)n
i,j=1 — симметрическая матрица,
Q(x) =n∑
i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =n∑
i=1
λi〈x , fi〉2.
В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.
Галеев Э.М. МГУЛекции: Методы оптимизации
3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям
Пусть A =(aij)n
i,j=1 — симметрическая матрица,
Q(x) =n∑
i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =n∑
i=1
λi〈x , fi〉2.
В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒
〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.
Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.
〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.
λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.
λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉
f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒
µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.
Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,
Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n
i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:
〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)
Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :
x =n∑
i=1〈x , fi〉fi ⇒ Ax =
n∑i=1〈x , fi〉Afi =
n∑i=1
λi〈x , fi〉fi и, значит,
Q(x) = 〈Ax , x〉 =⟨ n∑
i=1
λi〈x , fi〉fi ,n∑
j=1
〈x , fj〉fj⟩
=n∑
i=1
λi〈x , fi〉2. �
Галеев Э.М. МГУЛекции: Методы оптимизации