- Прямо-двойственные методы для минимизации негладких функций. Обладают неулучшаемой оценкой скорости сходимости. Позволяют формировать приближенное решение двойственной задачи и осуществлять контроль точности.
- Барьерный субградиентный метод. Позволяет минимизировать негладкие функции на множествах заданных самосогласованным барьером. Обладает оптимальной скоростью сходимости. Позволяет максимизировать положительные вогнутые функции с относительной точностью.
- Градиентные методы минимизации составных функций. Применимы к функциям, представимым в виде суммы гладкой функции, заданной череноящичным оракулом и простой функцией общего вида. Позволяют сохранить скорость сходимости, характерную для гладкого случая.
- Методы решения вариационных неравенств с гладким оператором. Обладают оптимальной скоростью сходимости. Являются двойственным аналогом экстраградиентного метода.
- Методы решения квазивариационных неравенств. Существенно расширен класс неравенств, обладающих единственным решением, и построен быстрый метод их решения.
- Кубическая регуляризация метода Ньютона. С помощью кубической верхней оценки целевой функции построен новый метод второго порядка. Метод работает и на невыпуклых функциях. На выпуклых задачах он сходится со скоростью O(1/k2), где k - это счетчик итераций. Это первый метод второго порядка, обладающий такой скоростью сходимости на вырожденных выпуклых задачах.
- Ускоренный метод Ньютона. За счет использования небольшой памяти кубический метод Ньютона удается ускорить. Теперь он сходится как O(1/k3).
- Модифицированный метод Гаусса-Ньютона. Предлагается новый метод для решения систем нелинейных уравнений. Он основан на использовании верхней квадратичной аппроксимации для нормы невязки. На невырожденных задачах допускает глобальную оценку эффективности.
- Сглаживание явной модели целевой функции. Для подходящей модели эта техника позволяет решать негладкие задачи с трудоемкостью 0(1/б) итераций метода градиентного типа, где е - это требуемая точность решения. Тем самым преодолевается неулучшаемая оценка 0(1/б2), справедливая для черноящичных методов.
- Условие обратного зазора. Методы, основанные на этой интерпретации, позволяют применять технику сглаживания к более широкому классу задач, в частности включающему сильно выпуклые функции. Это улучшает оценку трудоемкости до 0(1/е1´2).
- Техника сглаживания в полуопределенной оптимизации. Показывается, как применять технику сглаживания к симметричным функциям собственных значений симметрических матриц.
- Оптимизация с относительной точностью. Показывается, как получать приближенные решения с относительной точностью для специальных классов однородных задач. Получаемые оценки трудоемкости практически не зависят от исходных данных.
- Эллипсоидальная аппроксимация выпуклых тел используется для нахождения правильной евклидовой нормы, позволяющей существенно ускорить скорость сходимости методов оптимизации.
2.Нестеров Ю.Е. О классе методов безусловной минимизации с высокой скоростью сходимости // Журн. выч.мат. и мат.физ. - 1984 - Т.24, вып.7
- С. 1090-1093.
3.Нестеров Ю.Е. Метод линейного программирования с трудоемкостью O(n3L) операций // Экономика и мат. методы - 1988 - Т.24, вып.1 - С. 174-176.
4.Нестеров Ю.Е. Полиномиальные методы для задач линейного и квадратичного программирования // Известия АН СССР - 1988 - вып.3
- С. 119 - 128.
5. Нестеров Ю.Е. Об одном подходе к разработке оптимальных методов минимизации гладких выпуклых функций // Экономика и мат.методы
- 1988 - Т.24, вып.3 - С. 509-517.
6. Нестеров Ю.Е. Двойственные полиномиальные алгоритмы для линейного программирования // Кибернетика - 1989 - вып.1 - С. 34-54.
7. Нестеров Ю.Е. Эффективные методы нелинейного программирования.- М.: Радио и Связь, 1989. - 280с.
8. Yu. Nesterov. Introductory lectures on convex optimization. A basic course.- Boston: Kluwer, 2004. - 236p.
9. Nesterov Yu. Smooth minimization of non-smooth functions // Mathemat ical Programming - 2005 - V.103, N1.-P.127-152.
10.Nesterov Yu. Excessive gap technique in non-smooth convex minimizarion // SIAM J. Optim. - 2005 - V.16, N1. - P.235-249.
11.Nesterov Yu., Polyak B. Cubic regularization of Newton’s method and its global performance // Mathematical Programming - 2006 - V.108, N1. -P.177-205.
12.Nesterov Yu. Smoothing technique and its applications in semidefinite optimization // Mathematical Programming - 2007 - V.110, N2. - P.245-259.
13.Nesterov Yu. Dual extrapolation and its application for solving variational inequalities and related problems // Mathematical Programming - 2007 -V.109, N2-3. - P.319-344.
14.Nesterov Yu. Modified Gauss-Newton scheme with worst-case guarantees for its global performance // Optimization Methods and Software - 2007 -V.22, N3. - P.469-483.
15.Nesterov Yu. Rounding of convex sets and efficient gradient methods for linear programming problems // Optimization Methods and Software - 2008- V.23, N1. - P.109-128.
16.Nesterov Yu. Accelerating the cubic regularization of Newton’s method on convex problems // Mathematical Programming - 2008 - V.112, N1. - P.159-181.
17.Nesterov Yu. Unconstrained Convex Minimization in Relative Scale // Mathematics of Operations Research - 2009 - V.34, N1. - P.180-193.
18.Nesterov Yu. Primal-dual subgradient methods for convex problems // Mathematical Programming - 2009 - V.120, N1. - P.261-283.
19.Нестеров Ю.Е. Методы выпуклой минимизации. - М.: Изд. МЦНМО, 2010. - 263с.
20.Nesterov Yu., Scrimali L. Solving strongly monotone variational and quasi-variational inequalities // Discrete and Continuous Dynamical Systems -2011 - V.31, N4. - P.1383-1296.
21.Nesterov Yu. Barrier subgradient method // Mathematical Programming -2011 - V.127, N1. - P.31-56.
22.Nesterov Yu. Gradient methods for minimizing composite функцияs // Mathematical Programming - 2013 - V.140, N1. - P.125-161.