Практическое применение искусственных нейронных сетей в задачах аппроксимации

Работа добавлена: 2016-12-07





18. Практическое применение искусственных нейронных сетей в задачах аппроксимации.

Рассмотрим задачу аппроксимации ряда динамики, т.е. построение функции по конечному набору точек, на реальном примере о количестве проданных авиабилетов за 3 года данные взяты по месяцам N = 36 – объём выборки). Приступая к разработке нейросетевого решения, как правило, сталкиваются с проблемой выбора оптимальной архитектуры нейронной сети. Так как области применения наиболее известных парадигм пересекаются, то для решения конкретной задачи можно использовать различные типы нейронных сетей, и при этом результаты могут оказаться одинаковыми. Будет ли та или иная сеть лучше и практичнее, зависит в большинстве случаев от условий задачи.

Задачи аппроксимации экспериментальных данных можно решать с помощью искусственных нейронных сетей следующих типов: многослойного персептрона, сетей с радиально-базисными функциями, вероятностных сетей, обобщенно-регрессионных сетей [1,4]. Решим поставленную задачу с помощью нейронных сетей типа радиальная базисная (RBF), обобщенно-регрессионная (GRNN) и линейной сети. Моделирование решения задач проводилось с применением пакета прикладных программ Neural Network Toolbox (NNT) системы MATLAB [4]. Искусственные нейросети выходные значения представляют, как правило, в определенном диапазоне или масштабируют. Выполним предобработку данных – нормировку исходных данных , для этого воспользуемся стандартной формулой:

где – новая переменная; – выборочная оценка математического ожидания; – выборочная оценка дисперсии. Существуют и другие функции масштабирования, из них самая простейшая – минимаксная функция, выполняющая линейное преобразование после определения минимального и максимального значений функции так, чтобы получаемые значения находились в нужном диапазоне. Линейное преобразование масштабирует исходную выборку в единичный отрезок [0, 1]. Предобработку полезно провести для того, чтобы повысить скорость и качество обучения. Задача аппроксимации функции для нейронной сети формируется как задача контролируемого обучения (обучение с учителем). Суть задачи состоит в следующем. Имеются значения функции в отдельных точках (узлах), система базисных функций и векторов регулируемых весовых коэффициентов. Необходимо обучить сеть, т. е. выбрать весовые коэффициенты при базисных функциях так, чтобы их комбинация давала аналогичную зависимость, которая наилучшим образом аппроксимирует множество значений функции отклика.

ПРИМЕНЕНИЕ

ЛИНЕЙНОЙ НЕЙРОННОЙ СЕТИ

Линейная сеть – это самая простая нейросеть, которая не содержит промежуточных (скрытых) слоев и в выходном слое содержит только линейные элементы (т.е. элементы с линейной функцией активации). Но для решения поставленной задачи использовалась модифицирован-

ная сеть – линейная сеть с задержкой на входе (рис. 10).

Для рассматриваемого ряда динамики характерны внутригодичные, повторяющиеся устойчиво из месяца в месяц изменения в уровнях, т.е. сезонные колебания. Поэтому предлагается использовать линейную сеть с задержкой на входе шести предыдущих входных элементов. Входными величинами этой сети являются уровни временного ряда ,t y′ получаемые преобразованием (2).

Выходной слой сети будет содержать один элемент, соответствующий выровненному значению ряда. Для обучения такой сети требуется большой объём выборки, более 100, поэтому в качестве обучающей выборки использован исходный ряд, повторенный 4 раза, при этом N = 144.

Фрагмент программы создания и адаптации линейной сети:

delays = [1 2 3 4 5 6] –векторзадержки;

net=newlin([-2 2.8], 1, delays, 0.01);

in=con2seq(y′); d=in;

nnet=adapt(net, in, d);

yn′=sim(nnet, d).

После того как сеть «адаптируется», её можно использовать для интерполяции и экстраполяции данных.

Результат аппроксимации данных с применением

линейной сети приведен на рис. 12.

По приведенным данным можно сделать вывод о том, что применение нейронных сетей даёт приемлемый (достаточно высокий) уровень аппроксимации исходных наблюдаемых данных, которые позволяют отслеживать малейшие изменения в уровнях исследуемого временного ряда.

Применяя традиционные методы, практически невозможно достичь такого высокого значения коэффициента детерминации. Любой ряд динамики содержит случайную составляющую, поэтому наиболее приемлемо использование метода, который выявляет общую тенденцию развития

исследуемого ряда, так как при прогнозировании наиболее важно учесть закономерности изменения уровней ряда, а не случайные явления, влияющие на исследуемый показатель

Результаты применения традиционных методов сглаживания ряда динамики по сравнению с использованием нейронных сетей не намного уступают по качеству. Если нет возможности применять нейросети, то предпочтительнее использовать ряд Фурье для аппроксимации исследуемых данных, а не мультипликативную модель.

Таким образом, для рассматриваемого примера аппроксимации данных по известным объёмам продаж авиабилетов применение нейронных сетей обеспечивает высокое качество аппроксимации и может использоваться для анализа и прогнозирования деятельности авиапредприятий.




Похожие рефераты, которые будут Вам интерестны.

1. Практическое применение искусственных нейронных сетей в системах авторегулирования

2. Практическое применение искусственных нейронных сетей в системах принятия решений

3. Разработка системы распознавания изображений на основе аппарата искусственных нейронных сетей

4. Особенности формирования обучающих данных искусственных нейронных сетей, переобучение, оценка ошибок, критерии правильности обучения

5. Прогнозирование региональной динамики с учетом пространственной взаимосвязи на основе нейронных сетей

6. Практическое применение лидерства

7. Эффект Холла и его практическое применение

8. Норма таможенного права. понятие, виды, структура, иерархия, характерные особенности и практическое применение

9. Применение автоматического комплексного измерительного устройства для учета количества, мониторинга качества и долевого вклада субъектов высоковольтных сетей в искажение качества электроэнергии

10. Задача аппроксимации. Интерполяция