УДК 519.8
ОБ ОДНОЙ ЗАДАЧЕ ИДЕНТИФИКАЦИИ СЛОЖНЫХ СИСТЕМ
Дмитриев Е. И.
научный руководитель проф. Медведев А. В.
Сибирский государственный аэрокосмический университет имени академика М.Ф. Решетнева
В задаче идентификации сложных систем в условиях непараметрической неопределенности исследователь располагает некоторой исходной обучающей выборкой. Часто в пространстве «входных-выходных» переменных элементы этой выборки образуют «сгущения», а в ряде других подобластей пространства- «разряжения». При их использовании при решении задачи идентификации предлагается из имеющейся обучающей выборки сгенерировать новую «рабочую» выборку, которая непосредственно используется в непараметрических моделях. Этот процесс генерации, предлагаемый в настоящем докладе целесообразно использовать и в других непараметрических адаптивных системах. Процесс генерации основывается на непараметрическом оценивании регрессионных характеристик по наблюдениям с шумами.
Если осуществить процесс генерации новой «рабочей» выборки из исходной обучающей на основе создания равномерной сетки в пространстве и вычисления в ее узлах непараметрической оценки xϵ, то можно получить другую «рабочую» выборку , где . На этой выборке вводится новый тип стохастических аппроксимаций из класса Н-аппроксимаций. Вычислительные эксперименты показывают, что объем рабочей выборки, при практически том же качестве оценивания регрессионных характеристик, значительно меньше исходной обучающей выборки. Для генерации элементов «рабочей» обучающей выборки используется соответствующий непараметрический индикатор.
Целесообразно рассмотреть алгоритм генерации новой «рабочей» выборки более подробно:
1. После этапа сбора информации, снятия некоторых измерений, связанных с работой некоторой сложной системой, получения исходной выборки, производится общий анализ данной выборки (установление размерности, выявление «сгущений» и «разряжений», наличия шумов и т.д.).
2. Далее происходит настройка значений параметров размытости с помощью метода скользящего экзамена, где s- объем исходной выборки, , - размерность пространства измерений.
3. Затем происходит построение непараметрической оценки Надарая-Ватсона с использованием ранее настроенных значений параметров размытости:
где - колоколообразное ядро, - значения выхода, - значения входа, , , - размерность, s- объем выборки.
4. Затем происходит построение некоторой равномерной сетки объемом .
5. Происходит «отсеивание» некоторых узлов данной равномерной сетки с помощью индикатора, который является знаменателем непараметрической оценки, формула которой приведена выше. То есть индикатор имеет следующий вид:
Индикатором отсеиваются те точки равномерной сетки, значение индикатора в которых равно 0.
6. Таким образом, после работы индикатора получается выборка входов объемом . В оставшихся узлах сетки вычисляются значения выхода с помощью уже упомянутой ранее непараметрической оценки Надарая-Ватсона. В результате алгоритма сгенерирована новая «рабочая» выборка.
7. Далее целесообразно использовать аппроксимацию по данной выборке с помощью H-аппроксимации:
где - новые значения параметров размытости, - значения выходов в новой «рабочей» выборке, - H-ядро (содержит внутри себя ядро и длины областей определения для каждой переменной), - значения входов в новой «рабочей» выборке.
Ниже приведен пример генерации рабочей выборки для размерности .
Истинная зависимость . Общий объем выборки (включая «сгущения») из области определения и . Количество «сгустков» объемом . На выборку наложена 10%-помеха, распределенная по равномерному закону.
Выборка на плоскости выглядит следующим образом (рис. 1):
Рис. 1. Выборка. В результате работы алгоритма и индикатора объем новой «рабочей» выборки составил . Далее в оставшихся точках сетки были вычислены значения выхода, была построена H- аппроксимация. И при этом ошибка аппроксимации имела тот же порядок малости, что и при построении оценке на исходной выборке, несмотря на значительно сократившийся объем выборки. Ниже приведены графики, на которых сравнивается исходная выборка со сгенерированной «рабочей» (рис. 2а, 2б):
Рис. 2а. Плоскость .
Рис. 2а. Плоскость . Исходная выборка представлена красным цветом, сгенерированная- синим. Таким образом, при значительном уменьшении объема выборки (варьируется кол-во узлов сетки и происходит отсеивание индикатором некоторых точек сетки, в которых знаменатель классической оценки равен 0), не наблюдается значительного увеличения ошибки идентификации (ошибка сохраняет свой порядок малости). Таким образом, в дальнейшей работе для исследований лучше брать новую «рабочую» выборку, т.к. исследователю выгоднее использовать выборку меньшего объема для уменьшения вычислительных затрат.
В статье рассматривается так же случай оценивания регрессионных характеристик при неравномерно распределенных элементах исходной обучающей выборки. Для этого была введена и исследована непараметрическая оценка кривой регрессии по наблюдениям с шумами, использующая в вычислительной формуле вместо измерения выхода объекта () гиперплоскость (-временные векторы объемом k), аппроксимирующую некоторую окрестность точки (окрестность состоит из точек, выбираемых из соображения их близости к относительно некоторого расстояния h, определяемого экспериментальным путем):
Таким образом, каждой точке выборки поставлена в соответствие некая гиперплоскость, параметры которой определяются исходя из МНК. В результате исследований данной оценки ошибка идентификации по сравнению с классической непараметрической оценкой имеет значение на порядок, а в некоторых случаях и на два порядка, меньше. Данный результат объясняется привлечением дополнительной полезной информации о поведении соседних с точек.
Ниже приведен пример такой модифицированной непараметрической оценки для размерности .
Истинная зависимость: . Выборка входа была получена на области определения случайным образом (генератор случайных чисел, равномерный закон). Объем выборки составил .
Выборка на плоскости выглядит следующим образом (рис. 3):
Рис. 3. Выборка. В результате работы данной модифицированной оценки была получена ошибка: . Ниже приведен график этой оценки в сравнении с выборкой (рис. 4а):
Рис. 4а. Рис. 4б. В результате работы обычной непараметрической оценки была получена ошибка: , что на несколько (2 порядка) больше чем у модифицированной оценки. Выше приведен график этой оценки в сравнении с выборкой (рис. 4б):
Таким образом, данная модифицированная оценка, использующая МНК, дает неплохие результаты даже при работе с малым объемом выборки. |