Главная | Обратная связь
МегаЛекции

Оптимизация химико-технологических процессов.




Одномерный поиск.

— При изучении зависимости свойств от рецептурно-технологических факторов возникают задачи (определение составов, обеспечивающих желаемое значение свойства, нахождение координат экстремальных точек и т.д.), которые можно решить с помощью различных методов оптимизации. Все задачи оптимизации можно разделить на поиск оптимальных точек непосредственно на объекте исследования и поиск оптимальных точек посредством анализа математической модели. Мы рассмотрим первую из перечисленных проблем в одномерном варианте.

— Суть методов одномерного поиска (методов исключения) состоит в следующем. Предположим, что точка экстремума достигается при каком-то значении фактора X' из заранее известного интервала (Xmin, Xmax), называемого интервалом неопределенности. Требуется с помощью наименьшего количества опытов в максимальной степени сузить длину этого интервала, последовательно исключая из рассмотрения те его части, в которых нахождение точки экстремума оказывается невозможным. При этом предполагается, что функция отклика Y(X) унимодальна, т.е. обладает единственным экстремумом в точке X' (согласно договоренности – максимумом), и не имеет участков постоянства, т.е. для всех X(1)<X(2)£X' справедливо Y(X(1))<Y(X(2)), а для X'£X(3)<X(4) верно Y(X(3))>Y(X(4)).

— В этих условиях для того, чтобы уменьшить длину исходного интервала неопределенности L=Xmax-Xmin, необходимо иметь, как минимум, два опыта в некоторых точках X(1) и X(2), таких, что Xmin<X(1)<X(2)<Xmax. Могут иметь место только три варианта исходов подобного экспериментирования: а) Y(X(1))<Y(X(2)) - тогда максимум наверняка находится в точке X'>X(1), и первоначальный интервал неопределенности превратится в новый - (X(1), Xmax); б) Y(X(1))>Y(X(2)) - в этом случае максимум может располагаться лишь в точке X'<X(2), и исходный интервал неопределенности следует заменить на (Xmin, X(2)); в) Y(X(1))=Y(X(2)) - случай весьма редкий, означающий, что экстремальная точка находится между значениями X(1) и X(2), новый интервал неопределенности будет (X(1), X(2)).

— Существуют различные методы размещения указанных точек на каждом этапе экспериментирования. Для их сопоставления будем использовать показатель эффективности соответствующего плана эксперимента как отношение длин начального интервала неопределенности и полученного после реализации N опытов LN: E = L / LN

— Метод последовательной дихотомии предусматривает размещение на каждом этапе экспериментирования сразу двух новых точек, расположенных симметрично относительно середины интервала неопределенности на расстоянии e друг от друга. Здесь e – по возможности малая величина, ограниченная снизу разрешающей способностью eдоп в измерении величины X. Значение eдоп – это та минимальная разница между соседними наблюдениями X, которая может быть обнаружена инструментально с помощью тех измерительных средств, которые имеются в распоряжении экспериментатора.

Координаты первых двух точек оптимизации определяются следующими соотношениями: X(1) = (Xmax+Xmin–e) / 2; X(2) = (Xmax+Xmin+e) / 2. Координаты экспериментальных точек на последующих этапах исследования определяются по аналогичным формулам с учетом новых границ получающегося интервала неопределенности.

Длина интервала неопределенности после проведения k-й пары опытов равна: LN = L/2k + (1 – 1/2k) – e (N = 2k). Тогда показатель эффективности метода приближенно (e@0) можно считать равным E@2k=2N/2.

Задаваясь допустимой относительной погрешностью d локализации точки экстремума, можно найти количество наблюдений N, которое необходимо для обеспечения желаемой точности в определении ее положения. Действительно, должно быть справедливо d ³ LN/L = 1/2k + (1 - 1/2k) × eдоп / L (N=2k).

С практической точки зрения желательно при данном числе опытов использовать максимально возможное значение e. Поэтому, определив число опытов N, целесообразно затем найти подобное значение e из условия d = 1/2k + (1 - 1/2k) × e / L, k=N/2, т.е. e = (d×2k - 1)×L / (2k - 1), а затем использовать это e при планировании эксперимента. Ясно, что e³eдоп.

Отметим, что следует задаваться такой относительной погрешностью d, чтобы абсолютная ошибка D=d×L была бы не меньше, чем 2eдоп, т.е. d³2eдоп/L, т.к. только в этом случае все экспериментальные точки удалены друг от друга не ближе, чем на eдоп.

— Метод поиска Фибоначчи базируется на использовании чисел Фибоначчи Fk, определяемых рекуррентным соотношением вида: Fk = Fk-1 + Fk-2, k>1, F0=F1=1. Планирование эксперимента производится следующим образом. Координаты X(1) первого эксперимента определяются по следующей формуле: X(1) = Xmin + (FN-1×L + (-1)N×e) / FN. Здесь e³eдоп - малая величина, играющая ту же роль, что и в методе последовательной дихотомии.

Вторая точка X(2) располагается в исходном интервале L симметрично первой. И вообще, поскольку в каждой очередной интервал неопределенности попадает один предыдущий эксперимент, для продолжения поиска новую точку следует располагать в этом интервале симметрично оставшейся. Если обозначить через X(j) координату оставшейся точки на j-ом этапе поиска, а l1(j) и l2(j) - соответственно левую и правую границы очередного интервала неопределенности, то координата X(j+1) новой точки задается таким соотношением: X(j+1) = l1(j) + l2(j) - X(j). Длина интервала неопределенности после проведения N опытов составляет LN = L×(1 + FN-2×e) / FN.

Теперь легко можно определить показатель эффективности метода. В первом приближении он равен E@FN.

В методе поиска Фибоначчи предварительное определение необходимого числа опытов является совершенно обязательным, т.к. значение N используется при расчете координат первой точки. Для определения N следует задаться допустимой относительной погрешностью в определении положения экстремума d и величиной eдоп. Тогда N можно найти с помощью соотношения: d ³ LN / L = (1 + FN-2×eдоп/L) / FN . Значения FN приводятся в таблицах.

После вычисления N можно определить наибольшее e(e³eдоп), гарантирующее прежнее значение d и максимальное удаление экспериментальных точек друг от друга: e = (FN×d - 1)×L / FN-2.

В методе поиска Фибоначчи последняя точка всегда располагается на расстоянии e от одной из предыдущих. Укажем также, что, как и раньше, задаваемое значение d должно соразмеряться с eдоп, т.е. d ³ 2eдоп / L.

— Метод золотого сечения является частной разновидностью метода Фибоначчи и отличается от него лишь тем, что в методе золотого сечения нет необходимости в обязательном предварительном определении общего числа опытов N. Координаты X(1) (первой точки в этом методе) находятся по формуле: X(1) = Xmin + q×L (q = lim (FN-2/FN) = 0.382 (N ® ¥)).

В остальном алгоритм данного метода не отличается от алгоритма метода поиска Фибоначчи. Можно заметить, что при указанном выборе начальной точки каждая новая точка делит очередной интервал неопределенности на две части, причем отношение большей части к меньшей равно отношению всего интервала к его большей части. Деление отрезка подобным образом называется "золотым сечением". Отсюда и наименование метода. Его эффективность после реализации N опытов будет равна E=1/((1-q)N-1)=1/(0.618N-1). Количество опытов может быть найдено исходя из условия: d ³ LN / L = 1 / E = 0.618N-1. Если, как в предыдущих примерах, d=0.05, то N=8.

В методе золотого сечения последняя точка будет располагаться на расстоянии l=(1-2q)LN-1 от одной из предыдущих точек. LN-2=0.618N-2×L и l = (1-2q)×0.618N-2×L = 0.2367×0.618N-2×L. Очевидно, что обязательно должно быть l³eдоп. Отсюда можно получить ограничение на задаваемое значение погрешности d, обусловленное наличием (как и в предыдущих примерах) допустимого приращения eдоп: d ³ (0.618 × eдоп) / (0.236×L) = 2.619 × eдоп / L.

— Сопоставление трех указанных методов между собой позволяет сделать такие выводы: наибольшей эффективностью обладает метод поиска Фибоначчи; метод золотого сечения, мало в чем уступая ему в эффективности, несколько более прост в части проведения расчетов. Наконец, метод последовательной дихотомии наименее эффективен, хотя и представляется наиболее очевидным.

Многомерный поиск.

Задачи отыскания экстремального значения функции отклика, когда эта функция зависит не от одного, а от n (n³2) факторов, встречаются на практике несравненно чаще, чем задачи одномерные. В то же время получение их решения оказывается намного более трудоемким. И дело здесь не в простом количественном увеличении размерности задачи и связанным с этим пропорциональным усложнением расчетов. Многомерные задачи поиска принципиальным образом отличаются по своей структуре от задач поиска по одной переменной. Порождаемые этими различиями трудности образно называют "проклятием размерности". Можно назвать три основные проблемы, связанные с этим "проклятием".

Во-первых, при возрастании числа факторов можно ожидать, что функция отклика не сохранит свойство унимодальности, даже если при поочередном изменении факторов обнаруживается, что оно имеет место. Более того, даже когда заранее известно из теоретических соображений, что функция отклика унимодальна, на ход поиска могут сильно влиять некоторые локальные свойства поверхности отклика, не имеющие аналогов в одномерном случае. Речь идет о таких особенностях поверхности, как "овраги", "узкие хребты", "гребни". Даже не вдаваясь в математические определения этих понятий и обращаясь к чисто наглядным представлениям для простейшего двумерного случая, легко понять, насколько сложным может быть путь к экстремуму, насколько сложной может быть и унимодальная функция отклика.

Вторая проблема заключается в трудности сопоставления различных алгоритмов многомерного поиска. Ясно только, что для любого алгоритма возможно подобрать такую функцию отклика, когда она окажется предпочтительнее других, в то же время можно построить и другую функцию отклика, при которой этот алгоритм станет практически неработоспособным.

И, наконец, третья проблема связана со сложностями введения точностных характеристик локализации точки экстремума.

Существует большое число разнообразных методов многомерного поиска. В дальнейшем будут рассмотрены лишь некоторые из них, получившие наибольшее распространение для целей экспериментальной оптимизации. Эти методы можно разделить на две большие группы: на градиентные и неградиентные методы поиска экстремума.

Все градиентные методы основаны на предварительном определении градиента функции отклика f: grad f = (f / x1) × i + (f / x2) × j + ... + (f / xk) × k, где i, j,..., k - единичные векторы в направлении координатных осей.

Предполагается, что функция f непрерывна и однозначна. Если ее разложить в ряд Тейлора в окрестностях точки, в которой берется значение градиента, и ограничиться лишь линейными членами, можно показать, что координаты градиента совпадают с коэффициентами полученного разложения.

Рассмотрим теперь одну из конкретных разновидностей градиентных методов поиска.

— Метод крутого восхождения (МКВ) представляет собой процедуру последовательного перемещения по пути крутого восхождения, т.е. в направлении наибольшего увеличения отклика. Конечно же, если необходима минимизация, то тогда мы говорим о методе крутого (наискорейшего) спуска.

Подобранная модель первого порядка имеет вид: y = b0 + bi × xi, где y - отклик; b0, b1, b2,.., bi,.., bk - коэффициенты регрессии (параметры модели); x1, x2,.., xi,.., xk - факторы; k - количество факторов.

Поверхность отклика первого порядка, т.е. контуры y, представляются рядом параллельных прямых. Направление крутого восхождения - это направление, в котором y возрастает наиболее быстро, оно параллельно нормали к контурам подобранной поверхности отклика. Обычно в качестве пути крутого восхождения мы выбираем линию, проходящую через центр области экспериментирования и нормальную к контурам подобранной поверхности. Таким образом, шаги вдоль этого пути пропорциональны коэффициентам регрессии bi (точнее шаги по каждому из координатных направлений). Фактическая длина шага определяется экспериментатором на основе опыта.

Эксперименты проводятся по линии крутого восхождения до тех пор, пока не перестанет наблюдаться увеличение отклика. Затем для описания отклика можно подобрать новую модель первого порядка и найти новую линию крутого восхождения. Продолжая процедуру таким образом, экспериментатор попадает в окрестность оптимума; об этом обычно свидетельствует неадекватность модели первого порядка. В таком случае для получения более точной оценки положения оптимума проводятся дополнительные эксперименты.

Неградиентные методы поиска отличаются большим разнообразием идей, положенных в их основу. Всех их роднит необходимость совершения пробных шагов с последующим движением в ту сторону, где результаты проб оказались благоприятными.

Рассмотрим, прежде всего, метод покоординатного поиска, называемый также методом Гаусса-Зайделя. Метод состоит в последовательной оптимизации процесса по отдельным факторам при фиксированных значениях остальных. Исходную точку выбирают на основании результатов предшествующих стадий исследования. Анализ результатов экспериментов проводят графически в натуральной системе координат. Исследования осуществляются в несколько циклов. В первом цикле осуществляется движение параллельно одной из осей факторного пространства, определятся наилучшее значение параметра оптимизации и затем в этой наилучшей точке проводится поворот и движение ведется далее параллельно другой оси; подобная процедура продолжается, пока не будут рассмотрены все исследуемые факторы.

Координаты частного оптимума, полученного в первом цикле, используют в качестве исходной точки второго цикла, где варьируются другие переменные. Координаты частного оптимума, полученного во втором цикле, используют в качестве исходной точки третьего цикла и т.д.

Эффективным способом оптимизации является последовательный симплексный метод (ПСМ). Все эксперименты в этом случае надо реализовывать при условиях, отвечающих вершинам правильных n-мерных симплексов. Начальная точка поиска обычно соответствует установленному технологическому регламенту или наилучшему из известных режиму ведения процесса. Эта точка может являться вершиной или центром начального симметричного правильного симплекса. Ориентация начального симплекса может быть произвольной, т.к. наиболее выгодное направление движения не представляется возможным прогнозировать. Размеры симплекса в ПСМ должны быть достаточно малы, но при этом возникает проблема выделения полезного сигнала на фоне шума, а именно, статистически значимого различия значений отклика в вершинах симплекса малых размеров. Эти трудности могут быть преодолены путем накопления результатов повторных наблюдений в вершинах симплекса и сравнения полученных средних арифметических значений. Необходимо по возможности стремиться планировать симплекс возможно больших размеров, т.к. это сокращает количество необходимых повторных наблюдений в вершинах симплекса и ускоряет движение к экстремуму.

Движение к экстремуму поверхности отклика на каждом шаге должно осуществляться посредством перехода от реализуемого симплекса к новому путем отбрасывания наихудшей вершины и построения точки, симметричной к ней относительно центра (n-1)-мерной оставшейся грани симплекса. Каждую i-ую размерную координату зеркальной точки Xn+h h-го симплекса можно вычислить по формуле X (n+h),i = 2 Xgi / n - (n+2) Xqi / n.

Здесь Xgi- i-ая размерная координата g-ой из n+1 вершин рассматриваемого (h-1)-го симплекса, а Xqi- i-ая размерная координата его q-ой отброшенной вершины. Далее таким же образом можно построить последовательные симплексы. При этом иногда может возникнуть ситуация, предусмотренная следующим правилом. Если одно и то же наихудшее значение отклика имеет место в нескольких вершинах рассматриваемого симплекса, то вопрос об отбрасывании одной из них должен быть решен случайным образом, например, с использованием таблицы случайных чисел. Непрерывное смещение симплекса может привести к выходу новой зеркальной точки за границы допустимой области изменения факторов. В этом случае перемещение симплекса осуществляется по следующему правилу. Если в зеркальной точке формируемого симплекса нарушаются факторные или функциональные ограничения, то необходимо вернуться к предыдущему симплексу и отбросить в нем худшую вершину после наихудшей. Иногда это правило приходится применять повторно до тех пор, пока не будет найдена новая зеркальная точка, принадлежащая допустимой области факторного пространства.

Если зеркальная точка нового симплекса является его наихудшей вершиной, т.е. поступательное перемещение симплекса преобразуется в качание относительно противолежащей грани, то это может свидетельствовать о приближении к экстремуму поверхности отклика или о наличии большой ошибки наблюдений. Пока точка экстремума в факторном пространстве остается неподвижной, симплекс постоянно качается (вращается) около некоторой близкой к ней точки. Если же точка экстремума начинает дрейфовать, то вслед за ней перемещается и симплекс, описывая спираль около ее траектории. При этом условия управления объектом будут непрерывно изменяться, приспосабливаясь к дрейфу.





©2015- 2017 megalektsii.ru Права всех материалов защищены законодательством РФ.