Pr i-3

193
§3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть f i : R n R, i = 0, 1,..., m. Считаем, что все функции f i обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f 0 (x ) min; f i (x ) 0, i = 1,..., m 0 , f i (x )= 0, i = m 0 + 1,..., m. (P ) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P ): L (x )= m i =0 λ i f i (x ), вектор множителей Лагранжа λ =(λ 0 1 ,...,λ m ) R m+1 . Галеев Э. М. МГУ Лекции: Методы оптимизации

Transcript of Pr i-3

Page 1: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 2: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 3: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 4: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 5: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 6: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 7: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 8: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 9: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 10: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 11: Pr i-3

§3. Конечномерные гладкие задачи с равенствами инеравенствами3.1 Постановка задачи

Пусть fi : Rn → R, i = 0,1, . . . ,m. Считаем, что все функцииfi обладают определенной гладкостью.Гладкая конечномерная экстремальная задача сограничениями типа равенств и неравенств:

f0(x)→ min; fi(x) ≤ 0, i = 1, . . . ,m′, fi(x) = 0, i = m′+1, . . . ,m.(P)

Для определенности рассматриваем задачи на минимум.

Функция Лагранжа задачи (P): L (x) =m∑

i=0λi fi(x),

вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 12: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 13: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 14: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 15: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 16: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 17: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 18: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 19: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 20: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 21: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 22: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 23: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 24: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 25: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 26: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 27: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 28: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 29: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 30: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 31: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 32: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 33: Pr i-3

3.2. Необходимые и достаточные условия экстремума3.2.1 Принцип Лагранжа

Теорема

Пусть x̂ ∈ locminP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m.Тогда ∃ λ 6= 0 : для L выполняются условияa) стационарности:

L ′(x̂) = 0 ⇐⇒m∑

i=0

λi f ′i (x̂) = 0;

b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λi ≥ 0, i = 0,1, . . . ,m′.Критические точки. В задаче на максимум λ0 ≤ 0.Отметим, что ограничения типа равенств можно было бы неписать, заменив любое из равенств f (x) = 0 ⇔ 0 ≤ f (x) ≤ 0двумя неравенствами f (x) ≤ 0, −f (x) ≤ 0.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 34: Pr i-3

Теорема

Пусть x̂ ∈ locextrP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m. Тогда∃ λ 6= 0 : для L выполняются условияa) стационарности: L ′(x̂) = 0;b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λ0 ≥ 0 на min, λ0 ≤ 0 на max;λi ≥ 0, i = 1, . . . ,m′.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 35: Pr i-3

Теорема

Пусть x̂ ∈ locextrP, fi ∈ C1(O(x̂)), i = 0,1, . . . ,m. Тогда∃ λ 6= 0 : для L выполняются условияa) стационарности: L ′(x̂) = 0;b) дополняющей нежесткости: λi fi(x̂) = 0, i = 1, . . . ,m′;c) неотрицательности: λ0 ≥ 0 на min, λ0 ≤ 0 на max;λi ≥ 0, i = 1, . . . ,m′.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 36: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 37: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 38: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 39: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 40: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 41: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 42: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 43: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 44: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 45: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 46: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 47: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 48: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 49: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 50: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 51: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 52: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 53: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 54: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 55: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 56: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 57: Pr i-3

3.4 Примеры

Пример 1. x21+x2

2+x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

Решение. Функция Лагранжа

L = λ0(x21 +x2

2 +x23 )+λ1(2x1−x2+x3−5)+λ2(x1+x2+x3−3).

Необходимые условия локального минимума:а) стационарности

L ′ = 0 ⇐⇒

Lx1 = 0,Lx2 = 0,Lx3 = 0,

⇐⇒

2λ0x1 + 2λ1 + λ2 = 0,2λ0x2 − λ1 + λ2 = 0,2λ0x3 + λ1 + λ2 = 0;

b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.

Если λ0 = 0a⇒ λ1 = λ2 = 0 — все множители Лагранжа —

нули, а этого быть не может ⇒ λ0 6= 0, полагаем λ0 = 12 .

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 58: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 59: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 60: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 61: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 62: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 63: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 64: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 65: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 66: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 67: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 68: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 69: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 70: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 71: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 72: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 73: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 74: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 75: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 76: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

x1 + 2λ1 + λ2 = 0,x2 − λ1 + λ2 = 0,x3 + λ1 + λ2 = 0,

⇐⇒

x1 = −2λ1 − λ2,

x2 = λ1 − λ2,

x3 = −λ1 − λ2.

Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляяxi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1⇒ x1 = x2 = x3 = 1 — критическая точка.Пусть λ1 6= 0 b⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 вуравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:{−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,

{−2λ1 − 3λ2 = 3,−6λ1 − 2λ2 = 5,

⇒ λ1 = −9/14 < 0 — противоречие с условиемнеотрицательности c ⇒ при λ1 6= 0 критических точек нет.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 77: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

f (x) = x21 + x2

2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из

теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 78: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

f (x) = x21 + x2

2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из

теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 79: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

f (x) = x21 + x2

2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из

теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 80: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

f (x) = x21 + x2

2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из

теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 81: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

f (x) = x21 + x2

2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из

теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 82: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

f (x) = x21 + x2

2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из

теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 83: Pr i-3

Пример 1. x21 +x2

2 +x23 → min; 2x1−x2+x3≤5, x1 + x2 + x3 = 3.

f (x) = x21 + x2

2 + x23 → +∞ при |x | → ∞ ⇒ по следствию из

теоремы Вейерштрасса абсолютный минимум достигается, ав силу единственности критической точки решением можетбыть только она.Ответ. x̂ = (1,1,1) ∈ absmin, Sabsmin = 3.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 84: Pr i-3

3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям

Пусть A =(aij)n

i,j=1 — симметрическая матрица,

Q(x) =n∑

i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.

Теорема

В Rn ∃ ортонормированный базис f1, . . . , fn :

Q(x) =n∑

i=1

λi〈x , fi〉2.

В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 85: Pr i-3

3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям

Пусть A =(aij)n

i,j=1 — симметрическая матрица,

Q(x) =n∑

i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.

Теорема

В Rn ∃ ортонормированный базис f1, . . . , fn :

Q(x) =n∑

i=1

λi〈x , fi〉2.

В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 86: Pr i-3

3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям

Пусть A =(aij)n

i,j=1 — симметрическая матрица,

Q(x) =n∑

i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.

Теорема

В Rn ∃ ортонормированный базис f1, . . . , fn :

Q(x) =n∑

i=1

λi〈x , fi〉2.

В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 87: Pr i-3

3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям

Пусть A =(aij)n

i,j=1 — симметрическая матрица,

Q(x) =n∑

i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.

Теорема

В Rn ∃ ортонормированный базис f1, . . . , fn :

Q(x) =n∑

i=1

λi〈x , fi〉2.

В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 88: Pr i-3

3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям

Пусть A =(aij)n

i,j=1 — симметрическая матрица,

Q(x) =n∑

i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.

Теорема

В Rn ∃ ортонормированный базис f1, . . . , fn :

Q(x) =n∑

i=1

λi〈x , fi〉2.

В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 89: Pr i-3

3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям

Пусть A =(aij)n

i,j=1 — симметрическая матрица,

Q(x) =n∑

i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.

Теорема

В Rn ∃ ортонормированный базис f1, . . . , fn :

Q(x) =n∑

i=1

λi〈x , fi〉2.

В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 90: Pr i-3

3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям

Пусть A =(aij)n

i,j=1 — симметрическая матрица,

Q(x) =n∑

i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.

Теорема

В Rn ∃ ортонормированный базис f1, . . . , fn :

Q(x) =n∑

i=1

λi〈x , fi〉2.

В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 91: Pr i-3

3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям

Пусть A =(aij)n

i,j=1 — симметрическая матрица,

Q(x) =n∑

i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.

Теорема

В Rn ∃ ортонормированный базис f1, . . . , fn :

Q(x) =n∑

i=1

λi〈x , fi〉2.

В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 92: Pr i-3

3.4 ПримерыПример 2. Приведение квадратичной формы к главным осям

Пусть A =(aij)n

i,j=1 — симметрическая матрица,

Q(x) =n∑

i,j=1aijxixj = 〈Ax , x〉 — квадратичная форма.

Теорема

В Rn ∃ ортонормированный базис f1, . . . , fn :

Q(x) =n∑

i=1

λi〈x , fi〉2.

В базисе f1, . . . , fn матрица формы Q диагональна.f1, . . . , fn — главные оси формы Q, а переход к базисуf1, . . . , fn называется приведением формы к главным осям.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 93: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 94: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 95: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 96: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 97: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 98: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 99: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 100: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 101: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 102: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 103: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 104: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 105: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 106: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 107: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 108: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 109: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 110: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 111: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 112: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 113: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 114: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 115: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 116: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 117: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 118: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 119: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 120: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 121: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 122: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 123: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 124: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 125: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 126: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.� Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.Если Q 6≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.

〈Ax , x〉 → min; 〈x , x〉 ≤ 1. (P1)По т. Вейерштрасса ∃ x̂ =: f1 ∈ ArgP1; Sabsmin < 0.Функция Лагранжа L = λ0〈Ax , x〉+ λ(〈x , x〉 − 1).Необходимые условия минимума в x̂ = f1:a) стационарности: Lx(f1) = 0⇔ λ0Af1 + λf1 = 0,b) дополняющей нежесткости: λ(〈f1, f1〉 − 1) = 0;c) неотрицательности: λ0 ≥ 0, λ ≥ 0.

λ0 = 0⇒ λ 6= 0 a⇒ f1 = 0 ; b.λ0 6= 0, λ0 = 1 a⇒ Af1 = −λf1. Умножим на f1 ⇒

〈Af1, f1〉 = −λ〈f1, f1〉 = Sabsmin < 0⇒ λ > 0 b⇒ 〈f1, f1〉 = 1.Таким образом, f1 — собственный вектор матрицы A:Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,λ1 — минимальное собственное значение A.

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 127: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 128: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 129: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 130: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 131: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 132: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 133: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 134: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 135: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 136: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 137: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 138: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 139: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 140: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 141: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 142: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 143: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 144: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 145: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 146: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 147: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 148: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 149: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 150: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 151: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 152: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 153: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 154: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 155: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 156: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 157: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 158: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 159: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 160: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 161: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 162: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 163: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 164: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 165: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 166: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 167: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 168: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 169: Pr i-3

L1 := {x ∈ Rn | 〈x , f1〉 = 0}. Если Q(x) = 0 ∀ x ∈ L1⇒ λ2 = · · · = λn = 0, f2, . . . , fn — любая о.н.с. из L1.Если Q 6≡ 0 на L1 ⇒ ∃ x ∈ L1 : Q(x) > 0 или Q(x) < 0.

〈Ax , x〉 → max; 〈x , x〉 ≤ 1, 〈x , f1〉 = 0. (P2)По т. Вейерштрасса ∃ x̂ =: f2 ∈ ArgP2 (B ∩ L1 — компакт).Ф-я Лагранжа L = λ0〈Ax ,x〉+ λ(〈x , x〉 − 1) + 2µ〈x ,f1〉. НУa) стационарности: Lx(f2) = 0⇔ λ0Af2 + λf2 + µf1 = 0;b) дополняющей нежесткости: λ(〈f2, f2〉 − 1) = 0;c) неотрицательности: λ0 ≤0 (задача на max!), λ ≥ 0.

λ0 = 0 a⇒ λf2 + µf1 = 0f1,f2−лин. незав.⇒ λ = µ = 0.

λ0 6= 0, λ0 = −1 a⇒ Af2 = λf2 + µf1. Умножим на f1 ⇒〈Af2, f1〉 = λ〈f2, f1〉+ µ〈f1, f1〉

f2⊥f1= µ〈f1, f1〉|f1|=1= µ⇒

µ = 〈Af2, f1〉 = 〈f2,Af1〉 = 〈f2, λ1f1〉f2⊥f1= 0 a⇒ Af2 = λf2.

Умножим на f2 ⇒ 〈Af2, f2〉 = λ〈f2, f2〉 = Sabsmax > 0 ⇒ λ > 0b⇒ 〈f2, f2〉=1 ⇒ f2 — собственный вектор матрицыA,

Af2 = λ2f2 (λ2 = λ), |f2| = 1, f1 ⊥ f2.Галеев Э.М. МГУЛекции: Методы оптимизации

Page 170: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 171: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 172: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 173: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 174: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 175: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 176: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 177: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 178: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 179: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 180: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 181: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 182: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 183: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 184: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 185: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 186: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 187: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 188: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 189: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 190: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 191: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 192: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации

Page 193: Pr i-3

Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) =∑n

i=1 λi〈x , fi〉2.L2 := {x ∈ Rn | 〈x , f1〉 = 0, 〈x , f2〉 = 0}.Если Q(x) = 0 ∀ x ∈ L2, то λ3 = · · · = λn = 0, f3, . . . , fn —любая о.н.с. из L2. Если Q 6≡ 0 на L2, то Q на L2 принимаетположительные или отрицательные значения.Вновь рассматриваем задачу на максимум или минимум:

〈Ax , x〉 → extr; 〈x , x〉 ≤ 1, 〈x , f1〉 = 〈x , f2〉 = 0. (P3)

Решая, получаем ∃ f3 : Af3=λ3f3, ‖f3‖ = 1, f3 ⊥ f1, f2.В итоге придем к о.н.б. f1, . . . , fn из собственных векторовматрицы A c собственными числами λ1, . . . , λn.Любой вектор x ∈ Rn разлагается по о.н.б. f1, . . . , fn :

x =n∑

i=1〈x , fi〉fi ⇒ Ax =

n∑i=1〈x , fi〉Afi =

n∑i=1

λi〈x , fi〉fi и, значит,

Q(x) = 〈Ax , x〉 =⟨ n∑

i=1

λi〈x , fi〉fi ,n∑

j=1

〈x , fj〉fj⟩

=n∑

i=1

λi〈x , fi〉2. �

Галеев Э.М. МГУЛекции: Методы оптимизации