Алгоритмы и методы безусловной оптимизации
Как было показано в предыдущем параграфе данной главы, решение основных задач восстановления зависимостей достигается при помощи процедуры оптимизации функционала качества. Ее решение будет рассмотрено в подходах задачи безусловной минимизации гладкой функции Данная задача непосредственно связана с условиями существования экстремума в точке: * Необходимое условие первого порядка. Точка * Достаточное условие первого порядка. Если * Необходимое условие второго порядка. Если * Достаточное условие второго порядка. Если в точке Условия экстремума являются основой, на которой строятся методы решения оптимизационных задач. В ряде случаев условия экстремума хотя и не дают возможности явного нахождения решения, но сообщают много информации об его свойствах. Кроме того, доказательство условий экстремума или вид этих условий часто указывают путь построения методов оптимизации. При обосновании методов приходится делать ряд предположений. Обычно при этом требуется, чтобы в точке И, наконец, сами доказательства сходимости обычно строятся на том, что показывается, как «невязка» в условии экстремума стремится к нулю.
При решении оптимизационных задач существенны требования существования, единственности и устойчивости решения. Существование точки минимума проверяется при помощи теоремы Вейерштрасса: Пусть При анализе единственности точки экстремума применяются следующие рассуждения: Точка минимума называется локально единственной, если в некоторой ее окрестности нет других локальных минимумов. Считается, что Доказано, что точка минимума (строго) выпуклой функции (глобально) единственна. Проблема устойчивости решения возникает в связи со следующим кругом вопросов: * Пусть метод оптимизации приводит к построению минимизирующей последовательности, следует ли из этого ее сходимость к решению? * Если вместо исходной задачи минимизации решается задача, сходная с ней, можно ли утверждать близость их решений? В [77] приводится следующее определение устойчивости: Точка При обсуждении проблемы устойчивости решения задачи оптимизации можно выделить следующие важные теоремы. * Точка локального минимума непрерывной функции * Пусть * Пусть
Помимо качественной характеристики точки минимума (устойчива она или нет) существенным является вопрос количественной оценки устойчивости. Такие оценки, позволяющие судить о близости точки Для сильно выпуклых функций:
где Для невырожденной точки минимума:
где Как видно, в каждом из этих определений Кроме
Можно сказать, что Наиболее важны в идейном отношении следующие методы безусловной оптимизации: градиентный и Ньютона. Идея градиентного метода заключается в том, чтобы достигнуть экстремума путем итерационного повторения процедуры последовательных приближений начиная с начального приближения Сходимость данного метода подтверждается в доказательстве следующей теоремы: Пусть функция
и
Тогда в градиентном методе с постоянным шагом Для сильно выпуклых функций доказываются более сильные утверждения о сходимости градиентного метода. При решении задачи оптимизации методом Ньютона используется подход, заключающийся в итерационном процессе вида
и в нахождении точки экстремума как решения системы из n уравнений с n неизвестными
В методе Ньютона производится линеаризация уравнений в точке
Анализ достоинств и недостатков итерационных методов оптимизации можно свести в таблицу (см. табл. 3).
Видно, что достоинства и недостатки этих методов взаимно дополнительны, что делает привлекательной идею создания модификаций этих методов, объединяющих достоинства методов и свободных от их недостатков. Модификацией градиентного метода является метод наискорейшего спуска:
Модификация метода Ньютона с целью придания ему свойства глобальной сходимости возможна, например, способом регулировки длины шага:
Такой метод называют демпфированным методом Ньютона. Возможные подходы к способу выбора шага – Вычисление по формуле – Итерационный алгоритм, заключающийся в последовательном дроблении шага Демпфированный метод Ньютона глобально сходится для гладких сильно выпуклых функций. Помимо одношаговых методов, к которым относятся градиентный метод и метод Ньютона, существует целый класс многошаговых методов, использующих для оптимизации информацию, полученную с предыдущих шагов. К ним относятся: * Метод тяжелого шарика, использующий итерационную формулу * Метод сопряженных градиентов. Здесь параметры оптимизации находятся из решения двумерной задачи оптимизации:
Кроме всех вышеперечисленных методов оптимизации существует еще класс методов, основанных на идее восстановления квадратичной аппроксимации функции по значениям ее градиентов в ряде точек. К ним относятся: * Квазиньютоновские методы, имеющие общую структуру
* Методы переменной метрики и методы сопряженных направлений, согласно которым метод
Нейронные сети
В данной работе задачи распознавания образов и восстановления зависимостей будут решаться в основном с применением нейронных сетей. Обзор данной темы основан на [1]-[6], [8]-[15], [22],[23], [32]-[34], [36]-[41], [59], [64], [67]-[70], [83]-[88].
Основные элементы Нейронная сеть представляет собой структуру взаимосвязанных клеточных автоматов, состоящую из следующих основных элементов: Нейрон - элемент, преобразующий входной сигнал по функции:
где x - входной сигнал, c - параметр, определяющий крутизну графика пороговой функции, а cm - параметр спонтанной активности нейрона. Сумматор - элемент, осуществляющий суммирование сигналов поступающих на его вход:
Синапс - элемент, осуществляющий линейную передачу сигнала:
где w - “вес” соответствующего синапса.
Структура сети Сеть состоит из нейронов, соединенных синапсами через сумматоры по следующей схеме:
Воспользуйтесь поиском по сайту: ![]() ©2015 - 2025 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|